Por que ex-funcionários da OpenAI alertam sobre o perigo da inteligência artificial, apesar do risco de perder milhões

Por que ex-funcionários da OpenAI alertam sobre o perigo da inteligência artificial, apesar do risco de perder milhões
Europa
EspanhaEspanha
IA

 

Trabalhadores da empresa criadora do ChatGPT denunciam em carta que são obrigados a assinar contratos onde não podem criticar a empresa após a sua saída se não quiserem perder o seu dinheiro

 
 

Um grupo de ex-funcionários e trabalhadores anônimos da OpenAI publicou uma carta para alertar sobre como a empresa prioriza incentivos comerciais em detrimento dos perigos do desenvolvimento de sistemas de IA cada vez mais avançados. Os signatários lamentam a cultura interna de sigilo e como a empresa os obriga a assinar contratos onde não podem criticar a OpenAI após a sua saída se não quiserem perder o seu dinheiro.

Na carta, assinada por cinco ex-funcionários e seis trabalhadores “anônimos” da OpenAI, eles pedem que a empresa rescinda esses contratos e abra canais internos de reclamação em caso de avanços perigosos. “Minha esposa e eu pensamos muito sobre isso e decidimos que minha liberdade de me expressar no futuro era mais importante do que as ações [de OpenAI] ”, escreveu Daniel Kokotajlo, que deixou seu cargo no departamento em abril, no X [antes Twitter] de Governança da OpenAI, e que disse ao New York Times que o valor das suas ações rondava os 1,6 milhões de euros.

 

“O mundo não está preparado e nós não estamos preparados”, escreveu Kokotajlo no seu e-mail de despedida. “E estou preocupado por termos avançado sem qualquer preocupação e sem racionalizar as nossas ações”, acrescentou. Outro signatário, William Saunders, disse à revista Time que o seu dinheiro estava em risco ao falar publicamente: “Ao falar convosco, poderia perder a oportunidade de aceder a ações no valor de milhões de dólares. Mas penso que é mais importante manter um diálogo público sobre o que está a acontecer nestas empresas de IA.”

Esta carta não é a primeira sobre os perigos da IA na sua corrida desenfreada em direção à “inteligência artificial geral” (AGI), gíria da indústria para quando as máquinas ganham a capacidade de pensar e decidir como um ser humano. Em Março de 2023 , milhares de especialistas pediram para interromper o seu progresso ; em Maio do ano passado , outros 350 assinaram um manifesto de 22 palavras pedindo para “mitigar o risco de extinção”. Entretanto, o próprio Sam Altman, cofundador da OpenAI, foi ao Congresso dizer que “tudo pode correr muito mal” e Geoffrey Hinton, um dos padrinhos da IA, deixou a Google para alertar livremente sobre o futuro ameaçador.

Hinton também apoia esta nova carta dos funcionários da OpenAI, juntamente com Yoshua Bengio, outro dos vencedores do prêmio Turing, o “Nobel da Ciência da Computação” por suas conquistas com IA. Outros signatários da carta, intitulada “Direito de alertar sobre IA avançada”, são um ex-funcionário e atual funcionário do Google Deep Mind.

Direito de avisar de dentro

Este novo cartão é um pouco diferente. A principal reclamação não é mais o perigo hipotético da IA generalizada, mas sim o avanço descontrolado e descontrolado das empresas ao priorizar a corrida comercial em detrimento da segurança. Ao contrário do que aconteceu na Meta e noutras empresas, ex-funcionários da OpenAI temem que proteções como possíveis “gargantas profundas” sejam insuficientes porque não reportam nada “ilegal”, uma vez que os riscos “que nos preocupam ainda não foram regulamentados”. , eles escrevem na carta.

Este movimento não ocorre no vácuo. Em meados de maio, Ilya Sutskever, cofundador da OpenAI e um dos instigadores da revolta de novembro contra Sam Altman, deixou a empresa, acompanhado por Jan Leike, que escreveu no X que a OpenAI “está assumindo uma enorme responsabilidade em nome de toda a humanidade” e que prioriza a criação de “produtos que chamam a atenção”. Nessa mesma semana, a OpenAI havia anunciado o novo ChatGPT-4o, capaz de conversar em tempo real e que gerou polêmica com a atriz Scarlett Johansson. Um ex-membro do conselho de administração também revelou como Altman havia escondido deles notícias tão básicas como o lançamento do ChatGPT em novembro de 2022.

 

Toda esta controvérsia continua a ocorrer sobre supostos futuros que ninguém sabe se ou como ocorrerão. Os receios centram-se no aparecimento de máquinas descontroladas que assumem o controlo e deixam de seguir as ordens humanas. A tarefa de garantir que as máquinas não se tornem autônomas é chamada de “alinhamento”, que vem do “alinhamento” dos seus interesses com os humanos. É um trabalho técnico ligado à segurança destes sistemas e cuja equipa da OpenAI se desfez.

Esta semana foram conhecidos os detalhes da saída de um dos integrantes daquela equipe, o jovem de origem alemã Leopold Aschenbrenner, formado aos 19 anos com a melhor nota pela Universidade de Columbia, segundo seu LinkedIn. Aschenbrenner confirmou num podcast de quase 5 horas que tinha sido despedido devido a um “vazamento”: “Escrevi um documento de brainstorming sobre preparativos, segurança e salvaguardas necessárias no caminho para a IA convencional. Eu compartilhei com três pesquisadores externos. Esse foi o vazamento”, explicou Aschenbrenner. Em outra ocasião compartilhou outro documento com dois membros do conselho anterior. Nesse caso ele recebeu um aviso dos recursos humanos.

 

Também esta semana Aschenbrunner publicou um documento pdf de 165 páginas com cinco ensaios onde analisa a “próxima década” e explica porque é que tudo é mais perigoso do que acreditamos do lado de fora. Sua mensagem se tornou viral e gerou uma nova rodada de especulações sobre o perigo hipotético de versões futuras da IA. Após sua saída da OpenAI, ele chefiará um fundo de investimento focado em projetos gerais de IA.

Jordi Pérez Colomé

JORDI PEREZ COLOMÉ

Publicado no jornal El Pais da Espanha