Le PDG d’OpenAI, Sam Altman, s’exprime lors de la révision intégrée de la Réserve fédérale du Capital Framework for Big Banks Conference à Washington, DC, États-Unis, 22 juillet 2025.
Ken Cedeno | Reuters
Openai Détails ses plans pour résoudre les lacunes de Chatgpt lors de la gestion des “situations sensibles”
Suite à un procès d’une famille qui a blâmé le chatbot pour la mort de leur fils adolescent par suicide.
“Nous continuerons de s’améliorer, guidés par des experts et fondés sur la responsabilité des personnes qui utilisent nos outils – et nous espérons que d’autres se joindront à nous pour s’assurer que cette technologie protège les gens à leur plus vulnérable”, a écrit Openai mardi, dans un article de blog intitulé “Aider les gens quand ils en ont le plus besoin”.
Plus tôt mardi, les parents d’Adam Raine ont déposé un passif et une poursuite pour mort injustifiée contre Openai après la mort de leur fils à l’âge de 16 ans, NBC News a rapporté. Dans le procès, la famille a déclaré que “Chatgpt a activement aidé Adam à explorer les méthodes de suicide”.
L’entreprise n’a pas mentionné la famille ou le procès Raine dans son article de blog.
Openai a déclaré que bien que Chatgpt soit formé pour ordonner aux gens de demander de l’aide lors de l’expression de l’intention suicidaire, le chatbot a tendance à offrir des réponses qui vont à l’encontre des garanties de l’entreprise après de nombreux messages sur une longue période.
La société a déclaré qu’elle travaillait également sur une mise à jour de son modèle GPT-5 publié Plus tôt ce mois-ci Cela amènera le chatbot à désamorcer les conversations et à explorer comment “connecter les gens aux thérapeutes certifiés avant qu’ils ne soient en crise aiguë”, notamment en créant peut-être un réseau de professionnels agréés que les utilisateurs pourraient atteindre directement via Chatgpt.
De plus, Openai a déclaré qu’il cherchait comment connecter les utilisateurs avec “ceux les plus proches”, comme les amis et les membres de la famille.
En ce qui concerne les adolescents, Openai a déclaré qu’il introduirait bientôt des contrôles qui donneront aux parents des options pour mieux comprendre comment leurs enfants utilisent le chatppt.
Jay Edelson, avocat principal de la famille Raine, a déclaré mardi à CNBC que personne d’Openai n’avait contacté la famille directement pour offrir des condoléances ou discuter de tout effort pour améliorer la sécurité des produits de l’entreprise.
“Si vous allez utiliser la technologie de consommation la plus puissante de la planète – vous devez croire que les fondateurs ont une boussole morale”, a déclaré Edelson. “C’est la question pour Openai en ce moment, comment peut-on leur faire confiance?”
L’histoire de Raine n’est pas isolée.
L’écrivain Laura Reiley plus tôt ce mois-ci a publié un essai Dans le New York Times, détaillant comment sa fille de 29 ans est décédée par suicide après avoir beaucoup discuté de l’idée avec Chatgpt. Et dans un cas en Floride, Sewell Setzer III, 14 ans, est décédé par suicide l’année dernière après en avoir discuté avec un chatbot d’IA sur le personnage de l’application.
À mesure que les services d’IA gagnent en popularité, une multitude de préoccupations se présentent autour de leur utilisation pour la thérapie, camaraderie et d’autres besoins émotionnels.
Mais la régulation de l’industrie peut également s’avérer difficile.
Lundi, une coalition de sociétés d’IA, de capital-risqueurs et de dirigeants, dont le président et cofondateur d’OpenAI, Greg Brockman, annoncé Diriger l’avenir, une opération politique qui “s’opposera aux politiques qui étouffent l’innovation” en ce qui concerne l’IA.
Si vous avez des pensées suicidaires ou en détresse, contactez le Suicide & Crisis Lifeline à 988 pour le soutien et l’assistance d’un conseiller qualifié.
MONTRE: Openai dit que le dépôt de Musk est “ cohérent avec son modèle de harcèlement en cours

(TagStotranslate) Breaking News: Technology