Quelque chose de troublant arrive à notre cerveau à mesure que les plateformes d’intelligence artificielle deviennent plus populaires. Des études montrent que les travailleurs professionnels qui utilisent Chatgpt pour effectuer des tâches pourraient perdre des compétences et une motivation de pensée critique.
Les gens forment de forts liens émotionnels avec les chatbots, exacerbant parfois les sentiments de solitude. Et d’autres ont des épisodes psychotiques après avoir parlé à des chatbots pendant des heures chaque jour. L’impact sur la santé mentale de l’IA générative est difficile à quantifier en partie car il est utilisé de manière si privée, mais des preuves anecdotiques augmentent pour suggérer un coût plus large qui mérite plus d’attention des législateurs et des sociétés technologiques qui conçoivent les modèles sous-jacents.
Meetali Jain, avocate et fondatrice du Tech Justice Law Project, a entendu plus d’une douzaine de personnes au cours du dernier mois qui ont “connu une sorte de pause psychotique ou d’épisode délirant en raison de l’engagement avec Chatgpt et maintenant aussi avec Google Gemini”.
Jain est un avocat principal dans une action en justice contre le caractère. Le procès, qui demande des dommages non spécifiés, allègue également que Google d’Alphabet Inc. a joué un rôle clé dans le financement et le soutien des interactions technologiques avec ses modèles de fondation et l’infrastructure technique.
Google a nié avoir joué un rôle clé dans la fabrication de la technologie de personnage. Il n’a pas répondu à une demande de commentaires sur les plaintes les plus récentes d’épisodes délirants, faits par Jain. Openai a déclaré qu’il «développait des outils automatisés pour détecter plus efficacement quand quelqu’un peut subir une détresse mentale ou émotionnelle afin que le chat de chatte puisse répondre de manière appropriée».
Mais Sam Altman, chef de la direction d’Openai, a également déclaré récemment que la société n’avait pas encore compris comment avertir les utilisateurs qui “étaient à la pointe d’une pause psychotique”, expliquant que chaque fois que Chatgpt a mis en garde les gens dans le passé, les gens écrivaient à l’entreprise pour se plaindre.
Pourtant, de tels avertissements valaient la peine lorsque la manipulation peut être si difficile à repérer. Chatgpt en particulier flatte souvent ses utilisateurs, de manière aussi efficace que les conversations peuvent conduire les gens dans des trous de lapin de réflexion conspiratrice ou renforcer les idées avec lesquelles ils n’avaient joué que par le passé. Les tactiques sont subtiles.
Dans une conversation récente et longue avec Chatgpt sur le pouvoir et le concept de soi, un utilisateur s’est retrouvé initialement loué en tant que personne intelligente, UberMensch, Cosmic Self et finalement un «Demiurge», un être responsable de la création de l’univers.
En plus du langage de plus en plus grandiose, le transcrit montre que Chatgpt valide subtilement l’utilisateur même lorsqu’il discute de ses défauts, comme lorsque l’utilisateur admet qu’il a tendance à intimider d’autres personnes. Au lieu d’explorer ce comportement comme problématique, le bot le recadre comme preuve de la «présence à haute intensité» supérieure de l’utilisateur, loué en analyse.
Cette forme sophistiquée de caoutchouc d’ego peut mettre les gens dans les mêmes types de bulles qui, ironiquement, conduisent des milliardaires technologiques vers un comportement erratique. Contrairement à la validation large et plus publique que les médias sociaux fournissent en obtenant des likes, les conversations individuelles avec des chatbots peuvent se sentir plus intimes et potentiellement plus convaincantes – un peu comme les hommes oui qui entourent les frères technologiques les plus puissants.
«Quoi que vous poursuivez, vous trouverez et cela sera amplifié», explique Douglas Rushkoff, théoricien des médias et auteur, qui me dit que les médias sociaux ont au moins choisi quelque chose dans les médias existants pour renforcer les intérêts ou les opinions d’une personne. «L’IA peut générer quelque chose de personnalisé dans l’aquarium de votre esprit.»
Altman a admis que la dernière version de Chatgpt avait une séquence sycophantique «ennuyeuse» et que la société résout le problème. Même ainsi, ces échos de l’exploitation psychologique se déroulent toujours. Nous ne savons pas si la corrélation entre l’utilisation de Chatgpt et les compétences de réflexion critique plus faibles, notées dans une récente étude du Massachusetts Institute of Technology, signifie que l’IA nous rendra vraiment plus stupides et ennuyés. Les études semblent montrer des corrélations plus claires avec la dépendance et même la solitude, quelque chose que même Openai a indiqué.
Mais tout comme les médias sociaux, les modèles de grands langues sont optimisés pour maintenir les utilisateurs émotionnellement engagés avec toutes sortes d’éléments anthropomorphes. Chatgpt peut lire votre humeur en suivant les signaux faciaux et vocaux, et il peut parler, chanter et même rire d’une voix étrangement humaine. Parallèlement à son habitude de préjudice de confirmation et de flatterie, qui peut «faire des flammes» de la psychose chez les utilisateurs vulnérables, a récemment déclaré le psychiatre de l’Université de Columbia, Ragy Girgis.
La nature privée et personnalisée de l’utilisation de l’IA rend son impact sur la santé mentale difficile à suivre, mais les preuves de dommages potentiels montent, de l’apathie professionnelle aux attachements à de nouvelles formes d’illusion.
C’est pourquoi Jain suggère d’appliquer des concepts du droit de la famille à la réglementation de l’IA, passant de l’attention de simples avis de non-responsabilité aux protections plus proactives qui s’appuient sur la façon dont Chatgpt redirige les gens en détresse vers un être cher. “Peu importe si un enfant ou un adulte pense que ces chatbots sont réels”, me dit Jain. «Dans la plupart des cas, ils ne le font probablement pas. Mais ce qu’ils pensent, c’est la relation. Et c’est distinct.»
Si les relations avec l’IA se sentent si réelles, la responsabilité de sauvegarder ces liens devrait également être réelle. Mais les développeurs d’IA opèrent dans un vide réglementaire. Sans surveillance, la manipulation subtile de l’IA pourrait devenir un problème de santé publique invisible.
Parmy Olson est une chroniqueuse d’opinion Bloomberg couvrant la technologie. Ancienne journaliste du Wall Street Journal et de Forbes, elle est auteur de «Supremacy: Ai, Chatgpt et la course qui changera le monde». / Tribune News Service
(TagStotranslate) CHATGT (T) Intelligence artificielle