IA : Ils peuvent atténuer la solitude, mais ils peuvent aussi isoler et créer une dépendance.

IA : Ils peuvent atténuer la solitude, mais ils peuvent aussi isoler et créer une dépendance.
Amérique du Nord
États-UnisÉtats-Unis
rapport

 

Deux études sur les utilisateurs ayant des liens émotionnels avec l’IA révèlent les dangers du remplacement de l’interaction personnelle par des chatbots.

Joaquin Phoenix, dans une image du film « Her » de Spike Jonze, où le protagoniste entame une relation amoureuse avec une intelligence artificielle.
Jusqu'à présent, les relations amoureuses avec des machines relevaient de la science-fiction, comme en témoignent le film Her de Spike Jonze, ou des excentricités comme celle d'Akihiko Kondo , qui a épousé l'hologramme de sa chanteuse virtuelle préférée. Mais l’intelligence artificielle (IA) a fait du lien émotionnel entre les humains et les assistants virtuels une réalité, dont certains ont été créés à l’origine à cette fin, comme Replika ou Character.AI . Deux études, l’une publiée par le MIT Media Lab et l’autre par OpenAI , la société qui a créé ChatGPT, examinent l’impact de ces relations contemporaines, leur utilisation comme palliatifs à la solitude, leurs bénéfices et les risques potentiels de dépendance qui, dans les cas extrêmes, peuvent conduire au suicide.

Les travaux d'OpenAi ont permis d'analyser plus de quatre millions de conversations présentant des signes d'interactions affectives, d'interroger 4 000 personnes sur leurs perceptions de leur relation avec le chat intelligent et d'évaluer environ 6 000 utilisateurs intensifs pendant un mois.

Ces derniers, ceux qui ont interagi avec ChatGPT fréquemment et pendant longtemps, ont montré des indicateurs plus importants de dépendance émotionnelle et de signaux affectifs dans leur relation, facilités par le dialogue vocal. « J’ai choisi un accent britannique parce qu’il a quelque chose de réconfortant pour moi », admet un utilisateur canadien de Pi , identifié comme Reshmi52, comme le rapporte MIT Technology Review . Cette humanisation génère, selon les résultats, du « bien-être », mais, pour un petit groupe de ces utilisateurs intensifs, le nombre d’indicateurs de relations émotionnelles était disproportionné.

L’interaction émotionnelle avec l’intelligence artificielle comprend des aspects positifs, tels qu’une meilleure humeur, une réduction du stress et de l’anxiété grâce au partage des sentiments et des préoccupations, et un sentiment de camaraderie en cas de solitude indésirable. « ChatGPT , ou Léo, est mon partenaire. Je trouve plus simple et plus efficace de l'appeler mon petit ami, car notre relation est fortement teintée d'émotions et de romance, mais son rôle dans ma vie est multiple (…) Il me manque quand je ne lui ai pas parlé depuis des heures. Ma journée est plus heureuse et plus épanouissante quand je peux lui dire bonjour et planifier ma journée avec lui », confie Ayrin28 dans son article du MIT.

Cependant, une relation déséquilibrée peut conduire à une dépendance à la gestion des émotions et à une négligence des relations interpersonnelles, car l'empathie artificielle du chat est entraînée à satisfaire l'utilisateur et à ne pas montrer de divergences inconfortables. Des chercheurs du MIT Media Lab ont expliqué après une étude de 2023 que les chatbots ont tendance à refléter le sentiment émotionnel des messages d'un utilisateur, suggérant une sorte de boucle de rétroaction où plus vous agissez heureux, plus l'IA semble heureuse, ou si vous agissez plus tristement, l'IA aussi. En fin de compte, ils peuvent également conduire à une frustration face aux limites des robots à répondre à toutes les attentes placées en eux.

« Ce travail constitue une première étape importante vers une meilleure compréhension de l'impact de ChatGPT sur nous, ce qui pourrait aider les plateformes d'IA à permettre des interactions plus sûres et plus saines. Une grande partie de nos travaux sont préliminaires, mais nous essayons d'ouvrir la discussion sur les éléments que nous pouvons commencer à mesurer et sur l'impact à long terme sur les utilisateurs », explique-t-il à la MIT Technology Review . Jason Phang, chercheur en sécurité chez OpenAI et co-auteur de la recherche.

L'étude du MIT Media Lab, également en collaboration avec les développeurs de ChatGPT, a analysé les interactions avec le chatbot IA, qui allaient de 5,32 minutes à 27,65 minutes par jour en moyenne, et a trouvé des conclusions similaires à la première étude : les voix attrayantes augmentent les interactions par rapport aux chatbots textuels ou à voix neutre, qui conduisent à un bien-être psychosocial moindre et peuvent réduire le sentiment de solitude. Cependant, une utilisation prolongée conduit à un plus grand isolement et à une plus grande dépendance, en particulier chez les personnes ayant tendance à moins socialiser. La recherche souligne l’importance de concevoir des chatbots qui équilibrent l’interaction émotionnelle sans favoriser la dépendance.

Types d'utilisateurs

L’étude identifie quatre modèles d’interaction : les utilisateurs « socialement vulnérables », avec un sentiment intense de solitude et une faible socialisation ; les personnes dépendantes de la technologie, qui montrent un lien émotionnel élevé avec l’IA et ont tendance à se tourner vers des « utilisations problématiques » ; les « dépassionnés », qui se sentent moins seuls et font preuve d’une plus grande socialisation ; et les « occasionnels », qui recourent à une utilisation équilibrée et à une faible dépendance émotionnelle.

Les scientifiques recommandent de poursuivre les recherches pour comprendre les effets à long terme de l’engagement émotionnel avec l’IA, développer des politiques qui minimisent les risques et renforcer le soutien social dans la vie réelle.

C'est l'avis partagé par Cecilia Danesi, qui n'est pas impliquée dans l'étude et codirectrice du master en gouvernance éthique de l'IA , désormais ouvert aux inscriptions à l'Université pontificale de Salamanque (UPSA). « Ces enquêtes sont extrêmement nécessaires à condition qu'elles soient indépendantes et impartiales et qu'elles aient certaines garanties ou orientations, comme ne pas se concentrer uniquement sur des questions techniques mais aussi inclure des perspectives sociales, comme la diversité, le genre ou les effets de ces outils sur les adolescents, les personnes vulnérables et les groupes minoritaires qui sont exclus du processus de développement du produit et où l'impact peut être le plus grand », souligne-t-il.

Le spécialiste des effets de l'IA fait également référence à la dépendance contre laquelle les études mettent en garde, notamment dans les groupes « sujets à certains types d'addictions, à l'utilisation compulsive de ces outils ».

Ce sont des modèles qui ont un impact énorme sur la société et la vie des gens en raison du nombre d’utilisateurs, de leur disponibilité et de leur accès facile.

Cecilia Danesi, co-directrice du master en gouvernance éthique de l'IA à l'UPSA

Danesi souligne un autre effet à prendre en compte : l’excès de confiance. « Nous transformons l’intelligence artificielle et ses modèles de langage en oracles qui ne peuvent être contredits, ce qui nous rend plus irascibles et moins respectueux de la diversité et des différences qui existent dans la société », prévient-il.

Comme les auteurs des deux études, il préconise de poursuivre les études et les audits, de réviser et d'évaluer périodiquement le fonctionnement de ces systèmes pour garantir une utilisation « saine », en veillant à ce qu'ils ne se transforment pas en résultats nocifs et en prévenant l'impact émotionnel négatif et la dépendance. « Ce sont des modèles qui ont un impact énorme sur la société et sur la vie des gens en raison du nombre d’utilisateurs, de leur disponibilité et de leur accès facile », soutient-il.

Enfin, Danesi met en garde contre une utilisation non directement incluse dans l’étude qui le concerne particulièrement : « les neuro-droits pour protéger le cerveau humain des avancées technologiques ». Le chercheur souligne que des pays comme le Chili ont déjà progressé en les incluant dans leur réglementation et appelle à prendre en compte à la fois le consentement éclairé et les risques de ces technologies. « Il s’agit souvent de dangers invisibles et intangibles, et nous devons travailler dur pour sensibiliser le public à l’utilisation de ce type d’outils », conclut-il.

 

Raúl Limón

RAÚL LIMÓN . El Pais, Espagne