Como parar a IA? [Breves do AE]

Como Parar a IA? (Arte digital: José Oliveira | Imagem: Microsoft Designer)

Num momento em que podemos interagir com uma IA que ouve, fala e vê como se fosse uma pessoa (ex. da Apple, da Google e da OpenAI), podendo em muitos casos tornar-se viciante e até substituir o contacto humano (especialmente preocupante em crianças e jovens), num momento em que a IA pode estar a ver tudo o que fazemos no nosso computador, não deveríamos estar mais preocupados com os criadores e difusores da IA e em como controlar o que estes criam e difundem? Será que lançar livremente esses produtos para o mercado não envolverá riscos suficientemente graves para se impor uma autorização por parte de autoridades independentes? O facto de haver imensas vantagens no uso da IA em vários sectores que tragam benefícios para a humanidade entrará de algum modo em colisão com uma legislação que restrinja a difusão geral dessa IA por mero interesse económico das empresas que a criam? E no momento em que se perceba que já se foi longe demais, será realmente possível parar?  

Quem cria e difunde IA?

Tomemos como exemplo a empresa que Kelsey Piper, jornalista especialista da Vox1, considera como sendo provavelmente a mais influente e certamente a que tem mais visibilidade no domínio da IA na actualidade: a OpenAI.

Podemos confiar na OpenAI? 

Embora esta empresa apresente como sua ambição “assegurar que a inteligência artificial geral beneficie toda a humanidade” isso exige, declara Kelsey, uma enorme confiança por parte do público e, para tal, uma enorme transparência por parte da OpenAI. Ora isso, continua Kelsey, não parece ser compatível com o silenciamento da crítica por parte dos seus funcionários, colocados perante a iminência de retaliação financeira (confrontados com a perda dos seus direitos de capital próprio na empresa). Como poderá o público confiar nessa empresa e no seu Director Executivo?  

Assim, para além do lançamento de novos produtos de IA por parte da OpenAI, o que tem transparecido para a comunicação social tem sido uma sucessão de polémicas:

Empresa desalinhada, IA desalinhada?       

Entre aqueles que abandonaram a OpenAI, e que se vêem agora submetidos ao silêncio mediante a ameaça de retaliações financeiras, estão os vários membros da equipa de alinhamento de IA. Ou seja, a equipa que se dedicava a garantir a segurança face a uma futura IA superinteligente (um dos propósitos da própria OpenAI), e a quem a empresa prometeu 20% do poder de computação mas, segundo várias fontes, a equipa viu o acesso a esses recursos sistematicamente recusado, o que acabou por motivar o abandono de figuras cimeiras da empresa. Assim, segundo essas fontes, os recursos limitados e as saídas dos líderes da equipa acabaram por levar ao seu desmantelamento. Aparentemente a OpenAI planeia agora concentrar-se em medidas de segurança para os modelos de IA já existentes em vez de abordagens teóricas para os modelos futuros.

É caso para apreensão quando sucessivas quebras de compromissos atingem as questões de segurança e a sua investigação, um meio fundamental para garantir essa segurança. Afinal, para conseguirmos parar a IA, devíamos entender como é que esta pensa.

Como pensa a IA?

Recentemente deu-se um passo na resolução de este que poderá ser um dos problemas mais importantes na segurança da IA, como refere Azeem Azhar, um comunicador especialista no assunto: 

Há dias a Anthropic, uma outra empresa de IA, publicou os resultados de uma investigação na área da Interpretabilidade na aprendizagem de máquina, chamou-lhe precisamente: Mapear a mente de um grande modelo de linguagem

O que é que isto significa?

Este tipo de interpretação refere-se à medida em que conseguimos compreender o raciocínio que está por trás de uma certa decisão, neste caso as decisões dos grandes modelos de linguagem (LLM).

Foi agora analisado, pela primeira vez, como é que determinados conceitos são representados num modelo LLM: a Anthropic mapeou milhões de conceitos como cidades, pessoas, emoções, etc., nos estados internos do seu modelo LLM (Claude Sonnet) durante a sua computação. Ora este mapeamento permite aumentar ou reduzir a utilização desses conceitos o que por sua vez permite alterar o comportamento do modelo.     

E isto é importante porquê?

Ao compreendermos como se comportam os LLM, e este é um primeiro passo nesse sentido, temos um contexto suficientemente importante para ajudar à investigação sobre a segurança, que de outro modo exigiria confiarmos cegamente nesses processos.  

Qual é o próximo passo?

Depois de se mapear a ocorrência desses conceitos, a seguir trata-se de descobrir de que maneira é que o modelo LLM os utiliza, ou seja, como é que estes conceitos são activados.  

Como parar a IA?

Segundo Zach Stein-Perlman, um investigador de Segurança da IA, mesmo a Anthropic também não deixa de ter os seus problemas de segurança, nomeadamente por ter um mecanismo de administração pouco convencional que pode ser impotente se for necessário colocar a segurança à frente dos lucros da companhia, e porque (como a OpenAI) também não está a usar avaliadores externos para testar os seus produtos antes de os lançar. 

Impõe-se então a seguinte reflexão: este mapa da mente da IA poderá de facto ser um caminho para, numa situação de risco, controlar ou parar a IA. Mas, neste momento, a questão de risco parece ser, como parar quem controla a IA?  

1Recentemente a OpenAI encetou uma parceria com a Vox Media, esperemos que isso não coloque em causa a independência dos jornalistas da Vox, especialmente aqueles que têm investigado a OpenAI.


Por José Oliveira.


Descubra mais sobre Altruísmo Eficaz

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário