
Num momento em que podemos interagir com uma IA que ouve, fala e vê como se fosse uma pessoa (ex. da Apple, da Google e da OpenAI), podendo em muitos casos tornar-se viciante e até substituir o contacto humano (especialmente preocupante em crianças e jovens), num momento em que a IA pode estar a ver tudo o que fazemos no nosso computador, não deveríamos estar mais preocupados com os criadores e difusores da IA e em como controlar o que estes criam e difundem? Será que lançar livremente esses produtos para o mercado não envolverá riscos suficientemente graves para se impor uma autorização por parte de autoridades independentes? O facto de haver imensas vantagens no uso da IA em vários sectores que tragam benefícios para a humanidade entrará de algum modo em colisão com uma legislação que restrinja a difusão geral dessa IA por mero interesse económico das empresas que a criam? E no momento em que se perceba que já se foi longe demais, será realmente possível parar?
Quem cria e difunde IA?
Tomemos como exemplo a empresa que Kelsey Piper, jornalista especialista da Vox1, considera como sendo provavelmente a mais influente e certamente a que tem mais visibilidade no domínio da IA na actualidade: a OpenAI.
Podemos confiar na OpenAI?
Embora esta empresa apresente como sua ambição “assegurar que a inteligência artificial geral beneficie toda a humanidade” isso exige, declara Kelsey, uma enorme confiança por parte do público e, para tal, uma enorme transparência por parte da OpenAI. Ora isso, continua Kelsey, não parece ser compatível com o silenciamento da crítica por parte dos seus funcionários, colocados perante a iminência de retaliação financeira (confrontados com a perda dos seus direitos de capital próprio na empresa). Como poderá o público confiar nessa empresa e no seu Director Executivo?
Assim, para além do lançamento de novos produtos de IA por parte da OpenAI, o que tem transparecido para a comunicação social tem sido uma sucessão de polémicas:
- o despedimento do seu Director Executivo (em Novembro de 2023), seguido da sua reintegração (após este ter ameaçado levar a empresa para a Microsoft) e depois, com o seu regresso, dá-se a demissão de grande parte do Conselho de Administração;
- também desde o ano passado, tem vindo a surgir uma sucessão de processos judiciais por infracção de direitos de autor, encetado por parte de vários artistas e autores, culminando agora no caso de Scarlett Johansson e o alegado uso indevido da sua voz no GPT-4o (a OpenAI acabou por retirar a voz embora diga que esta não é da actriz);
- tendo ainda em conta que os especialistas soaram o alarme quanto à proliferação de deep fakes (principalmente naquele que já foi assinalado como sendo o maior ano eleitoral da história do mundo), parece de facto haver motivos que justifiquem essa desconfiança face à OpenAI.
Empresa desalinhada, IA desalinhada?
Entre aqueles que abandonaram a OpenAI, e que se vêem agora submetidos ao silêncio mediante a ameaça de retaliações financeiras, estão os vários membros da equipa de alinhamento de IA. Ou seja, a equipa que se dedicava a garantir a segurança face a uma futura IA superinteligente (um dos propósitos da própria OpenAI), e a quem a empresa prometeu 20% do poder de computação mas, segundo várias fontes, a equipa viu o acesso a esses recursos sistematicamente recusado, o que acabou por motivar o abandono de figuras cimeiras da empresa. Assim, segundo essas fontes, os recursos limitados e as saídas dos líderes da equipa acabaram por levar ao seu desmantelamento. Aparentemente a OpenAI planeia agora concentrar-se em medidas de segurança para os modelos de IA já existentes em vez de abordagens teóricas para os modelos futuros.
É caso para apreensão quando sucessivas quebras de compromissos atingem as questões de segurança e a sua investigação, um meio fundamental para garantir essa segurança. Afinal, para conseguirmos parar a IA, devíamos entender como é que esta pensa.
Como pensa a IA?
Recentemente deu-se um passo na resolução de este que poderá ser um dos problemas mais importantes na segurança da IA, como refere Azeem Azhar, um comunicador especialista no assunto:
Há dias a Anthropic, uma outra empresa de IA, publicou os resultados de uma investigação na área da Interpretabilidade na aprendizagem de máquina, chamou-lhe precisamente: Mapear a mente de um grande modelo de linguagem.
O que é que isto significa?
Este tipo de interpretação refere-se à medida em que conseguimos compreender o raciocínio que está por trás de uma certa decisão, neste caso as decisões dos grandes modelos de linguagem (LLM).
Foi agora analisado, pela primeira vez, como é que determinados conceitos são representados num modelo LLM: a Anthropic mapeou milhões de conceitos como cidades, pessoas, emoções, etc., nos estados internos do seu modelo LLM (Claude Sonnet) durante a sua computação. Ora este mapeamento permite aumentar ou reduzir a utilização desses conceitos o que por sua vez permite alterar o comportamento do modelo.
E isto é importante porquê?
Ao compreendermos como se comportam os LLM, e este é um primeiro passo nesse sentido, temos um contexto suficientemente importante para ajudar à investigação sobre a segurança, que de outro modo exigiria confiarmos cegamente nesses processos.
Qual é o próximo passo?
Depois de se mapear a ocorrência desses conceitos, a seguir trata-se de descobrir de que maneira é que o modelo LLM os utiliza, ou seja, como é que estes conceitos são activados.
Como parar a IA?
Segundo Zach Stein-Perlman, um investigador de Segurança da IA, mesmo a Anthropic também não deixa de ter os seus problemas de segurança, nomeadamente por ter um mecanismo de administração pouco convencional que pode ser impotente se for necessário colocar a segurança à frente dos lucros da companhia, e porque (como a OpenAI) também não está a usar avaliadores externos para testar os seus produtos antes de os lançar.
Impõe-se então a seguinte reflexão: este mapa da mente da IA poderá de facto ser um caminho para, numa situação de risco, controlar ou parar a IA. Mas, neste momento, a questão de risco parece ser, como parar quem controla a IA?
1Recentemente a OpenAI encetou uma parceria com a Vox Media, esperemos que isso não coloque em causa a independência dos jornalistas da Vox, especialmente aqueles que têm investigado a OpenAI. ⤴
“Breves do AE”: resumos de publicações relacionadas com o AE que, por constrangimentos de tempo, ou restrições de direitos autorais, não poderíamos traduzir. Estes resumos servem essencialmente como estímulo à leitura dos textos originais aqui referidos.
Por José Oliveira.
Descubra mais sobre Altruísmo Eficaz
Assine para receber nossas notícias mais recentes por e-mail.



