Os humanos já repetem palavras que aprenderam no ChatGPT, como “aprofundar” ou “meticuloso”
Análise de 300 mil conferências revela que influência da inteligência artificial generativa vai além da escrita e já conquista a expressão oral
Já existiam algumas pesquisas sobre como palavras curiosas haviam entrado repetidamente em artigos científicos, frases ou parágrafos escritos por ChatGPT ou outras inteligências artificiais . Será que os humanos já repetiam oralmente palavras popularizadas pelas máquinas? Eles decidiram analisá-lo. O primeiro desafio foi encontrar artigos recentes suficientes. Eles reuniram cerca de 300 mil vídeos de conferências acadêmicas e criaram um modelo para verificar a frequência de aparecimento de algumas palavras nos últimos anos: “Nossa questão é se pode haver um efeito de adoção e transmissão cultural, se as máquinas estão mudando nossa cultura e se então ele se espalha”, diz López.
A resposta é sim. Em 2022, eles detectaram um ponto de inflexão em palavras em inglês raramente ouvidas, como mergulhar (mergulhar), meticuloso (meticuloso), reino (reino, domínio) ou adepto (ser hábil em algo) . Iyad Rahwan, professor do Instituto Max Planck e coautor da pesquisa, diz: “É surreal. Criámos uma máquina que fala, que aprendeu a fazê-lo connosco, com a nossa cultura. E agora estamos aprendendo com a máquina. “É a primeira vez na história que uma tecnologia humana pode nos ensinar coisas de forma tão explícita.”
Não é tão estranho que os humanos repitam palavras novas que acabamos de aprender. E ainda mais se forem falantes não nativos, como é o caso de uma parte significativa da amostra neste caso. “Não creio que seja motivo de alarme porque no final está democratizando a habilidade de comunicação. Se você é japonês e é um líder mundial em sua área científica, mas quando fala em inglês em uma conferência parece um americano no jardim de infância, também são gerados alguns preconceitos em relação à sua autoridade”, diz López.
O ChatGPT permite que esses falantes não nativos capturem melhor as nuances e incorporem palavras que não usavam antes. “Se você não é falante nativo de inglês e vai ao cinema amanhã e há uma palavra nova que o surpreende, é provável que você também a adote, como aconteceu com o espaço de manobra em Oppenheimer ; ou com bloqueio durante a pandemia”, diz López. Mas há uma ressalva, aponta este investigador. É muito particular que as palavras adotadas nestas conferências acadêmicas não sejam substantivos que ajudem a descrever algo com mais precisão, mas sim palavras instrumentais como verbos ou adjetivos.
Há duas consequências curiosas desta adoção. Primeiro, desde que se tornou evidente na academia que essas palavras são criações do ChatGPT, elas se tornaram amaldiçoadas: usá-las pode ser desaprovado. “Já estou vendo isso em meu próprio laboratório. Cada vez que alguém usa 'delve', todos instantaneamente percebem e zombam dele. Tornou-se uma palavra tabu para nós”, diz Rahwan.
A segunda consequência pode ser pior. E se, em vez de nos obrigar a adoptar palavras aleatoriamente, estas máquinas conseguissem colocar palavras mais conotadas nas nossas cabeças? “Por um lado, o que descobrimos é bastante inofensivo. Mas isto mostra o enorme poder da IA e das poucas empresas que a controlam. ChatGPT é capaz de manter conversas simultâneas com um bilhão de pessoas. Isto dá-lhe um poder considerável para influenciar a forma como vemos e descrevemos o mundo”, diz Rahwan. Uma máquina como esta poderia determinar como as pessoas falam sobre guerras como as da Ucrânia ou do Médio Oriente, ou como descrevem pessoas de uma determinada raça ou aplicam uma visão tendenciosa a acontecimentos históricos.
Neste momento, devido à sua adoção global, o inglês é a língua onde é mais fácil detetar estas alterações. Mas isso também acontecerá em espanhol? “Eu me perguntei. Suponho que algo semelhante acontecerá, mas a maior parte da ciência e da tecnologia está em inglês”, diz López.
Também afeta a inteligência coletiva
A IA generativa pode ter consequências insuspeitadas em muitas outras áreas além da linguagem. Noutra investigação publicada na Nature Human Behavior, López e os seus coautores descobriram que a inteligência colectiva, tal como a entendemos, corre perigo se começarmos a utilizar a IA massivamente. Sites de código colaborativo como GitHub ou Stack Overflow perderão sua função se cada programador usar um bot para gerar código. Não haverá mais necessidade de consultar o que outros colegas fizeram antes, nem de melhorar ou comentar.
Para Jason Burton, professor da Copenhagen Business University e coautor do artigo, “modelos de linguagem não significam o fim do GitHub ou do Stack Overflow. Mas já estão a mudar a forma como as pessoas contribuem e interagem com estas plataformas. Se as pessoas recorrerem ao ChatGPT em vez de procurarem coisas em fóruns públicos, provavelmente continuaremos a ver uma diminuição na atividade nessas plataformas, porque os potenciais contribuidores não terão mais o seu público.”
A programação é apenas uma vítima potencial da IA. A Wikipedia e seus redatores ainda se tornam simples revisores se tudo for escrito por um bot. Até a educação é algo que deve ser revisto, segundo López: “Imaginemos que, no sistema educacional atual, professores e alunos dependam cada vez mais dessas tecnologias; alguns para elaborar perguntas e outros para procurar as respostas. Em algum momento teremos que repensar qual a função que estes sistemas deveriam ter e qual seria o nosso novo papel eficiente na coexistência com eles. “Especialmente para que a educação não acabe sendo composta por alunos e professores fingindo dos dois lados e realizando, durante oito horas por dia, uma peça de teatro”.
Estes modelos linguísticos não são apenas a promessa de algo mau para a inteligência colectiva. Eles também são capazes de resumir, acrescentar ou mediar processos complexos de deliberação colaborativa. Mas, como salienta Burton, a cautela deve ser básica nestes processos para evitar coincidências no pensamento de grupo: “Mesmo que cada capacidade individual seja melhorada através da utilização de uma aplicação como o ChatGPT, isto ainda poderá levar a maus resultados a nível coletivo. “Se todos começarem a confiar no mesmo aplicativo, isso poderá homogeneizar suas perspectivas e fazer com que muitas pessoas cometam os mesmos erros e ignorem as mesmas coisas, em vez de cada pessoa cometer erros diferentes e corrigir umas às outras.” Portanto, com seu estudo, esses pesquisadores pedem reflexão e possíveis intervenções políticas para permitir um campo mais diversificado de desenvolvedores de modelos de linguagem e, assim, evitar um panorama dominado por um único modelo.
JORDI PÉREZ COLOMÉ 24 DE OUTUBRO DE 2024 Diário El Pais