IA: Eles podem aliviar a solidão, mas também podem isolar e criar dependência.

IA: Eles podem aliviar a solidão, mas também podem isolar e criar dependência.
América do Norte
Estados UnidosEstados Unidos
Relatório

 

Dois estudos sobre usuários com laços emocionais com a IA revelam os perigos de substituir a interação pessoal por chatbots.

Joaquin Phoenix, em uma cena do filme 'Her', de Spike Jonze, onde o protagonista inicia um relacionamento romântico com uma inteligência artificial.
Até agora, relacionamentos românticos com máquinas eram coisa de ficção científica, como refletido no filme Ela , de Spike Jonze, ou em excentricidades como a de Akihiko Kondo , que se casou com o holograma de sua cantora virtual favorita. Mas a inteligência artificial (IA) tornou a conexão emocional entre humanos e assistentes virtuais uma realidade, alguns dos quais foram originalmente criados para esse propósito, como Replika ou Character.AI . Dois estudos, um publicado pelo MIT Media Lab e outro pela OpenAI , empresa que criou o ChatGPT, investigam o impacto desses relacionamentos contemporâneos, seu uso como paliativos para a solidão, seus benefícios e os riscos potenciais de dependência que, em casos extremos, podem levar ao suicídio.

O trabalho da OpenAi analisou mais de quatro milhões de conversas com sinais de interações afetivas, entrevistou 4.000 pessoas sobre suas percepções de relacionamento com o chat inteligente e avaliou aproximadamente 6.000 usuários pesados por um mês.

Estes últimos, aqueles que interagiram com o ChatGPT com frequência e por muito tempo, apresentaram maiores indicadores de dependência emocional e sinais afetivos em seu relacionamento, facilitados pelo diálogo de voz. “Escolhi um sotaque britânico porque há algo reconfortante nele para mim”, admite um usuário canadense do Pi , identificado como Reshmi52, conforme relatado pela MIT Technology Review . Essa humanização gera, segundo os resultados, “bem-estar”, mas, para um pequeno grupo desses usuários intensivos, o número de indicadores de relações emocionais foi desproporcional.

A interação emocional com a inteligência artificial inclui aspectos positivos, como melhora do humor, redução do estresse e da ansiedade ao compartilhar sentimentos e preocupações, e uma sensação de companheirismo em casos de solidão indesejada. “ ChatGPT , ou Leo, é meu parceiro. Acho mais fácil e eficaz chamá-lo de meu namorado, pois nosso relacionamento tem fortes conotações emocionais e românticas, mas seu papel na minha vida é multifacetado (...) Sinto falta dele quando não falo com ele há horas. Meu dia é mais feliz e gratificante quando posso dizer bom dia a ele e planejar meu dia com ele”, admite Ayrin28 no post do MIT.

No entanto, um relacionamento desequilibrado pode levar à dependência no gerenciamento de emoções e à negligência de relacionamentos interpessoais, já que a empatia artificial do chat é treinada para satisfazer o usuário e não mostrar discrepâncias desconfortáveis. Pesquisadores do MIT Media Lab explicaram, após um estudo de 2023, que os chatbots tendem a espelhar o sentimento emocional das mensagens de um usuário, sugerindo uma espécie de ciclo de feedback em que quanto mais feliz você age, mais feliz a IA parece, ou se você age mais triste, a IA também parece. Em última análise, eles também podem levar à frustração pelas limitações dos robôs em atender a todas as expectativas colocadas sobre eles.

“Este trabalho é um primeiro passo importante para entender melhor o impacto do ChatGPT sobre nós, o que pode ajudar as plataformas de IA a permitir interações mais seguras e saudáveis. Muito do que estamos fazendo aqui é preliminar, mas estamos tentando começar a conversa sobre os tipos de coisas que podemos começar a medir e qual é o impacto de longo prazo sobre os usuários”, ele explica à MIT Technology Review . Jason Phang, pesquisador de segurança da OpenAI e coautor da pesquisa.

O estudo do MIT Media Lab, também em colaboração com os desenvolvedores do ChatGPT, analisou as interações com o chatbot de IA, que variaram de 5,32 minutos a 27,65 minutos por dia em média, e encontrou conclusões semelhantes às do primeiro estudo: vozes atraentes aumentam as interações em comparação com chatbots baseados em texto ou voz neutra, o que leva a um menor bem-estar psicossocial e pode reduzir sentimentos de solidão. No entanto, o uso prolongado leva a maior isolamento e dependência, especialmente em pessoas com tendência a menos socialização. A pesquisa reforça a importância de projetar chatbots que equilibrem a interação emocional sem promover dependência.

Tipos de usuários

O trabalho identifica quatro padrões de interação: usuários “socialmente vulneráveis”, com intensos sentimentos de solidão e baixa socialização; os dependentes de tecnologia, que demonstram uma elevada ligação emocional com a IA e tendem a “usos problemáticos”; os “desapaixonados”, que se sentem menos solitários e demonstram maior socialização; e os “casuais”, que recorrem a um uso equilibrado e de baixa dependência emocional.

Cientistas recomendam mais pesquisas para entender os efeitos de longo prazo do envolvimento emocional com a IA, desenvolver políticas que minimizem os riscos e fortalecer o apoio social na vida real.

Essa é a opinião compartilhada por Cecilia Danesi, não envolvida no estudo e codiretora do mestrado em governança ética da IA , cujas inscrições estão abertas na Pontifícia Universidade de Salamanca (UPSA). "Essas investigações são extremamente necessárias, desde que sejam independentes e imparciais e tenham certas garantias ou focos, como não focar apenas em questões técnicas, mas também incluir perspectivas sociais, como diversidade, gênero ou os efeitos dessas ferramentas em adolescentes, pessoas vulneráveis e grupos minoritários que são excluídos do processo de desenvolvimento do produto e onde o impacto pode ser maior", enfatiza.

O especialista em efeitos da IA também se refere à dependência que os estudos alertam, principalmente nos grupos “propensos a certos tipos de vícios, ao uso compulsivo dessas ferramentas”.

São modelos que causam enorme impacto na sociedade e na vida das pessoas devido ao número de usuários, disponibilidade e fácil acesso a eles.

Cecilia Danesi, codiretora do mestrado em governança ética da IA na UPSA

Danesi aponta mais um efeito a ser considerado: excesso de confiança. "Transformamos a inteligência artificial e seus modelos de linguagem em oráculos que não podem ser contrariados, e isso nos torna mais irascíveis e menos respeitosos com a diversidade e as diferenças que existem na sociedade", alerta.

Assim como os autores de ambos os estudos, ele defende estudos e auditorias contínuos, revisando e avaliando periodicamente como esses sistemas funcionam para garantir o uso "saudável", garantindo que eles não se desenvolvam em resultados prejudiciais e prevenindo o impacto emocional negativo e a dependência. “São modelos que têm um impacto enorme na sociedade e na vida das pessoas devido ao número de usuários, à sua disponibilidade e ao seu fácil acesso”, argumenta.

Por fim, Danesi alerta sobre um uso não incluído diretamente no estudo que o preocupa particularmente: " neurodireitos para proteger o cérebro humano do avanço tecnológico". O pesquisador ressalta que países como o Chile já avançaram na inclusão delas em suas regulamentações e pede que tanto o consentimento informado quanto os riscos dessas tecnologias sejam considerados. "Esses são perigos muitas vezes invisíveis e intangíveis, e precisamos trabalhar duro para conscientizar a população sobre o uso desses tipos de ferramentas", conclui.

 

Raúl Limón

RAUL LIMÓN . El Pais, Espanha