IA: Eles podem aliviar a solidão, mas também podem isolar e criar dependência.

Dois estudos sobre usuários com laços emocionais com a IA revelam os perigos de substituir a interação pessoal por chatbots.

O trabalho da OpenAi analisou mais de quatro milhões de conversas com sinais de interações afetivas, entrevistou 4.000 pessoas sobre suas percepções de relacionamento com o chat inteligente e avaliou aproximadamente 6.000 usuários pesados por um mês.
Estes últimos, aqueles que interagiram com o ChatGPT com frequência e por muito tempo, apresentaram maiores indicadores de dependência emocional e sinais afetivos em seu relacionamento, facilitados pelo diálogo de voz. “Escolhi um sotaque britânico porque há algo reconfortante nele para mim”, admite um usuário canadense do Pi , identificado como Reshmi52, conforme relatado pela MIT Technology Review . Essa humanização gera, segundo os resultados, “bem-estar”, mas, para um pequeno grupo desses usuários intensivos, o número de indicadores de relações emocionais foi desproporcional.
A interação emocional com a inteligência artificial inclui aspectos positivos, como melhora do humor, redução do estresse e da ansiedade ao compartilhar sentimentos e preocupações, e uma sensação de companheirismo em casos de solidão indesejada. “ ChatGPT , ou Leo, é meu parceiro. Acho mais fácil e eficaz chamá-lo de meu namorado, pois nosso relacionamento tem fortes conotações emocionais e românticas, mas seu papel na minha vida é multifacetado (...) Sinto falta dele quando não falo com ele há horas. Meu dia é mais feliz e gratificante quando posso dizer bom dia a ele e planejar meu dia com ele”, admite Ayrin28 no post do MIT.
No entanto, um relacionamento desequilibrado pode levar à dependência no gerenciamento de emoções e à negligência de relacionamentos interpessoais, já que a empatia artificial do chat é treinada para satisfazer o usuário e não mostrar discrepâncias desconfortáveis. Pesquisadores do MIT Media Lab explicaram, após um estudo de 2023, que os chatbots tendem a espelhar o sentimento emocional das mensagens de um usuário, sugerindo uma espécie de ciclo de feedback em que quanto mais feliz você age, mais feliz a IA parece, ou se você age mais triste, a IA também parece. Em última análise, eles também podem levar à frustração pelas limitações dos robôs em atender a todas as expectativas colocadas sobre eles.
“Este trabalho é um primeiro passo importante para entender melhor o impacto do ChatGPT sobre nós, o que pode ajudar as plataformas de IA a permitir interações mais seguras e saudáveis. Muito do que estamos fazendo aqui é preliminar, mas estamos tentando começar a conversa sobre os tipos de coisas que podemos começar a medir e qual é o impacto de longo prazo sobre os usuários”, ele explica à MIT Technology Review . Jason Phang, pesquisador de segurança da OpenAI e coautor da pesquisa.
O estudo do MIT Media Lab, também em colaboração com os desenvolvedores do ChatGPT, analisou as interações com o chatbot de IA, que variaram de 5,32 minutos a 27,65 minutos por dia em média, e encontrou conclusões semelhantes às do primeiro estudo: vozes atraentes aumentam as interações em comparação com chatbots baseados em texto ou voz neutra, o que leva a um menor bem-estar psicossocial e pode reduzir sentimentos de solidão. No entanto, o uso prolongado leva a maior isolamento e dependência, especialmente em pessoas com tendência a menos socialização. A pesquisa reforça a importância de projetar chatbots que equilibrem a interação emocional sem promover dependência.
Tipos de usuários
O trabalho identifica quatro padrões de interação: usuários “socialmente vulneráveis”, com intensos sentimentos de solidão e baixa socialização; os dependentes de tecnologia, que demonstram uma elevada ligação emocional com a IA e tendem a “usos problemáticos”; os “desapaixonados”, que se sentem menos solitários e demonstram maior socialização; e os “casuais”, que recorrem a um uso equilibrado e de baixa dependência emocional.
Cientistas recomendam mais pesquisas para entender os efeitos de longo prazo do envolvimento emocional com a IA, desenvolver políticas que minimizem os riscos e fortalecer o apoio social na vida real.
Essa é a opinião compartilhada por Cecilia Danesi, não envolvida no estudo e codiretora do mestrado em governança ética da IA , cujas inscrições estão abertas na Pontifícia Universidade de Salamanca (UPSA). "Essas investigações são extremamente necessárias, desde que sejam independentes e imparciais e tenham certas garantias ou focos, como não focar apenas em questões técnicas, mas também incluir perspectivas sociais, como diversidade, gênero ou os efeitos dessas ferramentas em adolescentes, pessoas vulneráveis e grupos minoritários que são excluídos do processo de desenvolvimento do produto e onde o impacto pode ser maior", enfatiza.
O especialista em efeitos da IA também se refere à dependência que os estudos alertam, principalmente nos grupos “propensos a certos tipos de vícios, ao uso compulsivo dessas ferramentas”.
São modelos que causam enorme impacto na sociedade e na vida das pessoas devido ao número de usuários, disponibilidade e fácil acesso a eles.
Cecilia Danesi, codiretora do mestrado em governança ética da IA na UPSA
Danesi aponta mais um efeito a ser considerado: excesso de confiança. "Transformamos a inteligência artificial e seus modelos de linguagem em oráculos que não podem ser contrariados, e isso nos torna mais irascíveis e menos respeitosos com a diversidade e as diferenças que existem na sociedade", alerta.
Assim como os autores de ambos os estudos, ele defende estudos e auditorias contínuos, revisando e avaliando periodicamente como esses sistemas funcionam para garantir o uso "saudável", garantindo que eles não se desenvolvam em resultados prejudiciais e prevenindo o impacto emocional negativo e a dependência. “São modelos que têm um impacto enorme na sociedade e na vida das pessoas devido ao número de usuários, à sua disponibilidade e ao seu fácil acesso”, argumenta.
Por fim, Danesi alerta sobre um uso não incluído diretamente no estudo que o preocupa particularmente: " neurodireitos para proteger o cérebro humano do avanço tecnológico". O pesquisador ressalta que países como o Chile já avançaram na inclusão delas em suas regulamentações e pede que tanto o consentimento informado quanto os riscos dessas tecnologias sejam considerados. "Esses são perigos muitas vezes invisíveis e intangíveis, e precisamos trabalhar duro para conscientizar a população sobre o uso desses tipos de ferramentas", conclui.
RAUL LIMÓN . El Pais, Espanha