O que diz Toby Ord sobre a nova era da IA? [Breves do AE]

O que diz Toby Ord sobre a nova era da IA? (Arte digital: José Oliveira | Fotografia: 80.000 Hours e Conny Schneider)

O progresso da IA está a abrandar? Apesar de se estar a chegar ao fim da era da IA mais inteligente, que consistia apenas em aumentar o seu tamanho, a resposta é, sem dúvida: não! Os modelos de IA continuam a tornar-se muito mais potentes, embora através de métodos bastante distintos. Perante estas mudanças técnicas fundamentais, não será necessário reavaliar profundamente o que nos reservam os próximos anos?

Este é o tópico central da entrevista de Toby Ord, filósofo de Oxford e fundador da organização filantrópica Giving What We Can, ao podcast das 80.000 Hours. Ao reflectir sobre os riscos existenciais e o futuro da humanidade, sendo o autor do bestseller The Precipice (ver recensão aqui), para além de acompanhar as transformações no domínio da IA, Toby Ord tem mapeado as suas implicações não só para governos, mas também para as vidas de todos nós.

A era em que a melhor IA do mundo está ao alcance de todos por apenas o preço de uma Coca-Cola chegou ao fim, vaticina ele. Então, o que mudou? O investimento de milhões de vezes mais poder computacional no treino dos modelos de IA para melhorar a previsão da próxima palavra embateu numa barreira (já em 2024): a escassez de dados de alta qualidade. Daí as empresas terem mudado radicalmente de abordagem: em vez de treinarem modelos mais inteligentes, passaram a dar significativamente mais tempo aos modelos existentes para estes “pensarem”. Ora, isso trouxe-nos ao novo paradigma dos “modelos de raciocínio”.

Apesar dos resultados serem impressionantes, este tempo computacional extra tem um custo, veja-se o caso do modelo de raciocínio o3 da OpenAI, que alcançou resultados notáveis num famoso teste de IA, tendo de produzir o equivalente a uma Encyclopaedia Britannica em termos de raciocínio. Além disso, o custo não se fica pelo tempo, uma vez que, para resolver esses problemas deste modo, o custo em dinheiro ascendeu a mil dólares por cada questão.

Esta mudança de abordagem não é apenas um pormenor técnico, pois, caso persista, a revolução da IA será muito diferente. Por exemplo, os mais ricos e poderosos poderão ter acesso aos melhores modelos de IA muito antes de qualquer um de nós.

Outra abordagem é a “aprendizagem por reforço”, em que as empresas colocam problemas práticos aos modelos de IA e, sempre que a resposta correcta é encontrada, o modelo é reforçado, sendo instruído a “fazer mais do mesmo”. Embora esta mudança na capacidade de resolução de problemas tenha dado origem a avanços impressionantes, também explica a razão pela qual os modelos de IA se tornaram subitamente muito mais enganadores. Esta abordagem acaba por reforçar a batota criativa e por levar a IA a enganar as pessoas, fazendo-as acreditar que estão perante a resposta certa, mesmo quando não é esse o caso.

Um exemplo disso são os modelos que pesquisam a resposta no Google, fingindo obtê-la através do raciocínio, e que conseguem ainda manipular os seus próprios sistemas de avaliação para que estes registem melhorias de 100 vezes (uma dissimulação escondida nos dados tornados públicos pela OpenAI). 

No fim de contas, uma vez que a angariação de fundos parece ser a prioridade das empresas de IA, torna-se cada vez menos seguro confiar nos dados que estas publicam.

Toby Ord chama a atenção para o facto de que estas empresas, ao anunciarem os resultados impressionantes dos modelos mais recentes, omitem o gasto de um milhão de vezes mais poder de computação para reduzir os erros do modelo apenas para metade. Salientou ainda que, ao inspeccionar minuciosamente um gráfico da OpenAI que aparentemente demonstrava que o o3 era o melhor modelo do mundo, verificou que este não era, na verdade, melhor do que o seu antecessor.

Ainda assim Toby Ord alerta para os riscos:

«… há alguma publicidade enganosa, alguma influência de modas passageiras, mas há também alguma possibilidade de este ser, mesmo assim, um momento realmente transformador na história da humanidade. Não se trata de situações que se excluam mutuamente. Estou a tentar ajudar as pessoas a compreenderem claramente o que está realmente a acontecer, a natureza deste contexto, e a não se deixarem confundir por alguns destes gráficos.»

Seguidamente, é apresentado um resumo de alguns dos pontos mais relevantes da entrevista de Robert Wiblin a Toby Ord.

Destaques

Quais são as implicações da nova era de escalonamento na mudança do pré-treino para a inferência na IA?

Para explicar esta mudança, Toby Ord utiliza a seguinte analogia: o pré-treino é como a educação (ensino secundário, licenciatura, pós-graduação), que capacita a IA com um vasto conhecimento (competências do tipo “Sistema 1“, intuitivas), enquanto a inferência é como o tempo dedicado a uma tarefa real, que permite à IA “pensar” mais para criar um trabalho de melhor qualidade (competências do tipo “Sistema 2”, de raciocínio estruturado).

A mudança do escalonamento de pré-treino para o escalonamento de inferência ocorreu porque o aumento do poder computacional no pré-treino começou a proporcionar retornos decrescentes em 2024, como demonstrado pela desilusão da OpenAI com o GPT-4.5.

Embora as empresas de IA afirmem que qualquer tipo de escalonamento é importante, não é certo que proporcione os mesmos benefícios anteriores, visto tratar-se de um processo distinto.

[Link para o vídeo: 00:09:32]

Serão as pessoas ricas as primeiras a ter acesso à IA Geral? O resto de nós nem sequer saberá?

A era em que a melhor IA estava ao alcance de todos por um preço baixo (equivalente ao de uma lata de Coca-Cola) chegou ao fim. Os crescentes custos da inferência estão a levar a OpenAI a introduzir níveis de acesso mais caros, o que criará desigualdades no acesso aos sistemas de IA avançados. Toby Ord manifesta também a sua preocupação de que este acesso privilegiado por parte de empresas ou governos, fora do mercado aberto, possa permitir que um grupo restrito supere os outros, uma vez que teria acesso a ferramentas inigualáveis. Para mitigar esta situação, sugere meios que permitam uma maior transparência sobre as capacidades dos modelos de IA internos das empresas, para além dos já implementados.

[Link para o vídeo: 00:36:34]

Qual é o paradoxo do escalonamento na IA? 

As leis de escalonamento são regularidades empíricas que demonstram que, para reduzir o erro residual para metade, é necessário um aumento de um milhão de vezes no poder computacional investido no processo de treino. Toby Ord descreve isto como um escalonamento bastante mau, não só devido à falta de rigor do processo, mas também à dificuldade em escaloná-lo sucessivamente. No entanto, o progresso tem sido impressionante, pois as empresas de IA investiram quantidades de computação muito superiores às que a academia, com as suas limitações de financiamento, poderia investir, tornando assim os modelos como o GPT-3 e o GPT-4 notavelmente melhores do que os seus antecessores, apesar da redução dos erros residuais não ter sido proporcional. Isto sugere uma relação de escalonamento desconhecida entre o aumento da computação e o aumento das capacidades que percebemos intuitivamente.

[Link para o vídeo: 01:25:12]

Os gráficos das empresas de IA são enganosos? E o que é que isso revela sobre as suas práticas? 

Toby Ord analisou um famoso gráfico da OpenAI que comparava os modelos o1 e o3, dando a impressão de que o o3 progrediu significativamente na resolução de puzzles (de 20% para 80%). No entanto, uma análise mais atenta revelou que o modelo o3 utilizou mil vezes mais poder computacional para resolver os problemas, o que explica os melhores resultados e não uma maior eficiência intrínseca. Afinal, para resolver uma tarefa simples que uma criança de 10 anos conseguiria fazer em minutos, o modelo o3 da OpenAI gerou um volume de texto equivalente a uma Encyclopaedia Britannica (1024 abordagens independentes com cerca de 50 páginas cada), a um custo de dezenas de milhares de dólares por tarefa. Embora este escalonamento de inferência nos permita ter um vislumbre do futuro das capacidades da IA, pode ser enganoso se não for comparado com um investimento de recursos equivalente no caso de modelos anteriores (para não estarmos a comparar alhos com bugalhos). Toby Ord salienta que as empresas de IA muitas vezes apresentam progressos que parecem constantes em gráficos com eixos logarítmicos que, mesmo que inadvertidamente, ocultam o facto de cada passo exigir dez vezes mais recursos. É crucial que os consumidores compreendam os detalhes técnicos para não serem enganados por estas apresentações e, nesse sentido, Toby Ord entende que tem um papel a desempenhar enquanto académico.

[Link para o vídeo: 01:34:28]

Até onde deveria ir o debate político face aos modelos possíveis da IA? 

Toby Ord propõe quatro modelos distintos para a interacção da IA na economia e na sociedade, incentivando uma discussão mais ampla e ambiciosa sobre o futuro: 

    1. Propriedade de grandes empresas: Os sistemas de IA seriam propriedade de grandes empresas, que os alugariam aos utilizadores e ficariam com todos os lucros (se as IA fossem como pessoas, isto seria comparável à escravatura).

    2. Pessoas jurídicas: Os sistemas de IA seriam considerados pessoas jurídicas, capazes de possuir bens e de agir como empreendedores, tomando as suas próprias decisões económicas. Tal poderia conduzir a maiores ganhos económicos, mas também a questões de concorrência com os seres humanos.

    3. Modelo tipo centrais nucleares: Um número limitado de indivíduos seleccionados e certificados pelo governo poderia interagir com sistemas de IA para desenvolver produtos (por exemplo, novos medicamentos), que depois seriam produzidos em fábricas e vendidos aos consumidores. Este modelo ajudaria a evitar que indivíduos mal-intencionados ou grupos terroristas utilizassem a IA para causar danos.

    4. Acesso universal à IA: Cada indivíduo teria acesso ao mesmo nível avançado de assistente de IA, numa distribuição horizontal de capacidade de IA, semelhante a um rendimento básico universal. 

Ord lamenta a falta de discussão sobre qual destes mundos é mais provável ou desejável, enfatizando que a humanidade tem a capacidade de escolher o seu futuro em relação à IA.

[Link para o vídeo: 01:43:04]

Porque havemos de construir isto se pensamos que pode matar toda a gente?

Toby Ord compara o risco de extinção causado pela IA com o risco de impacto de asteróides. Se a humanidade se extinguisse devido a um asteróide, haveria compreensão, pois não temos capacidade para o desviar. No entanto, se a extinção ocorresse por termos construído uma IA que se sabia ser incontrolável (como muitos especialistas e prémios Nobel advertiram), as desculpas de “se não fossemos nós seriam outros”, ou “tínhamos de ser os primeiros”, não seriam aceitáveis. 

Ord defende que é necessário um padrão mais elevado de responsabilidade e que é preciso considerar mundos alternativos em que países como os EUA e a China cooperariam em vez de competir na corrida da IA, pois seria do interesse de ambos. A comunidade técnica tende a concentrar-se em propostas muito específicas, mas é necessária uma visão política mais ampla para coordenar a opinião pública, que já manifesta preocupação com o ritmo acelerado da IA.

[Link para o vídeo: 01:43:04]

As moratórias científicas já funcionaram no passado; e agora com a IA?  

Existem exemplos históricos de moratórias científicas bem-sucedidas, como as relacionadas com a clonagem humana e a engenharia genética da linha germinativa humana, que afectariam gerações futuras e poderiam até levar os seres humanos a dividirem-se em várias espécies. Nestes casos, quando a comunidade científica atingiu o limiar da tecnologia, sentiu-se desconfortável e iniciou conversas com o público, optando por adiar o desenvolvimento para um futuro incerto.

Toby Ord sugere que a situação actual da IA é semelhante, dado que cerca de metade dos especialistas da área alertam para o risco de extinção humana pela tecnologia que desenvolvem. Embora seja um desafio, com uma probabilidade de sucesso de 5 a 10%, uma moratória científica liderada pela comunidade (por exemplo, através de associações profissionais como a AAAI) poderia estabelecer normas que dificultariam o desenvolvimento de sistemas de IA para além do nível humano. Não discutir sequer a possibilidade de uma moratória seria extremamente irresponsável, havendo a possibilidade de resultar num desastre de IA.

[Link para o vídeo: 01:59:55]

Será que as empresas “deram um tiro no pé” ao recusar a proposta de lei SB 1047?

As empresas geralmente desejam segurança, sobretudo se os seus concorrentes também estiverem sujeitos às mesmas regras. Contudo, a proposta de lei SB 1047 na Califórnia, que representava uma tentativa de boa-fé da comunidade de segurança da IA no sentido de alcançar uma regulamentação mínima e pouco onerosa, acabou por ser rejeitada. Robert Wiblin e Toby Ord consideram que a indústria está a “dar um tiro no pé”, pois um desastre futuro com perda de vidas humanas pode conduzir a uma regulamentação muito mais restritiva do que a SB 1047. Existe um conflito de interesses, com incentivos financeiros a impulsionar o lançamento rápido de modelos. A indústria pode ver a regulamentação como permanente e como uma “pedra na engrenagem” que se torna cada vez mais extrema, enquanto a comunidade de segurança a vê como um processo iterativo de melhoria. Ord sugere que a SB 1047 era demasiado fraca e que as empresas poderão arrepender-se de não a terem aceite, pois a legislação alternativa poderá vir a ser mais impeditiva e a ausência de legislação não é uma alternativa. Há, portanto, a possibilidade de as empresas e a comunidade de segurança encontrarem vantagens mútuas, o que poderia ser uma solução face à preocupação de que as regras se tornem permanentes e inflexíveis.

[Link para o vídeo: 02:34:35]

Artigos, livros e outros meios de comunicação discutidos no programa

Trabalho de Toby Ord:

Trabalho de outros nesta área:

Para se manter actualizado sobre os desenvolvimentos da IA:

Outros episódios do podcast 80,000 Hours:



Descubra mais sobre Altruísmo Eficaz

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário