ChatGPT : des cas de « suicide assisté par IA » poussent à imposer de nouvelles limites
Des cas de suicide impliquant ChatGPT amènent OpenAI à revoir le fonctionnement du chatbot. Outre des efforts pour recadrer la façon dont le service traite de certaines discussions sensibles et difficiles, l’entreprise prévoit un contrôle parental.
Quelle peut être la responsabilité d’une entreprise spécialisée dans l’IA générative dans une affaire de suicide, si la victime aux penchants suicidaires passait de longues heures à discuter avec un chatbot ? Voilà la question difficile qui traversera le procès qui se prépare aux États-Unis à la suite de la mort d’un jeune homme de 16 ans.
Cette affaire n’est pas isolée. Le suicide d’une femme de 29 ans a aussi été rapporté outre-Atlantique, l’an dernier, là encore avec en toile de fond des échanges impliquant l’agent conversationnel d’OpenAI. Plus récemment, un homme de 56 ans est suspecté d’être passé à l’acte, tuant au passage sa mère de 83 ans, après des mois de tchat.