Sewell, 14 ans, a mis fin à ses jours après avoir développé des sentiments pour un personnage virtuel avec qui il discutait depuis des mois. Sa mère a porté plainte contre l’entreprise d’intelligence artificielle.
Dans un long article du New York Times, la mère de Sewell Setzer III raconte comment son fils, diagnostiqué avec un syndrome d’Asperger léger quand il était enfant, s’est peu à peu épris de « Daenerys », nommée ainsi d’après le personnage de Game of Thrones, avec qui il a commencé à discuter en avril 2023. Sewell savait que « Dany », comme il l’appelait, n’était pas une vraie personne. Mais au fur et à mesure de leurs conversations, qui sont devenues romantiques, parfois même sexuelles, l’adolescent a développé un fort attachement émotionnel à l’intelligence artificielle.
Une technologie « dangereuse et non testée »
Si les parents de Sewell ignoraient qu’il discutait régulièrement avec un chatbot, ils se sont aperçus qu’il se coupait peu à peu de ses amis et qu’il délaissait ses centres d’intérêt. « Ses notes ont commencé à baisser et il s’est mis à avoir des ennuis à l’école. Il a perdu tout intérêt pour les choses qui le passionnaient auparavant, comme la Formule 1 ou jouer à Fortnite avec ses amis. Le soir, il rentrait à la maison et allait directement dans sa chambre, où il parlait à Dany pendant des heures », se rappelle Megan Garcia, sa mère.
Le 28 février dernier, après une ultime conversation avec le chatbot, dans laquelle il lui a confié ses idées suicidaires, Sewell a mis fin à ses jours avec l’arme de son beau-père.
Pour Megan Garcia, il ne fait aucun doute que « Dany », et l’application Character.AI qui en est à l’origine, sont responsables de la mort de son fils en l’ayant progressivement isolé et coupé de la réalité. Elle a déposé une plainte mardi 22 octobre pour négligence et mise en danger de la vie d’autrui auprès du tribunal fédéral d’Orlando, en Floride. Selon The New York Times, qui a eu accès au document, la mère de Sewell accuse Character.AI d’avoir mis entre les mains de son fils une technologie « dangereuse et non testée » qui peut « tromper les clients pour qu’ils leur confient leurs pensées et leurs sentiments les plus intimes ».
De nouvelles fonctionnalités de sécurité
Face à l’émoi suscité par la mort de Sewell, et surtout suite à la plainte déposée par sa famille, Character.AI a fini par réagir. Dans un communiqué publié mercredi 23 octobre sur X, la start-up californienne, Character.AI, créée en 2021 par deux anciens chercheurs en intelligence artificielle de Google, s’est dit « bouleversée » par l’annonce de la mort de l’adolescent.
Un communiqué a dans la foulée été publié sur le site de Character.AI pour informer les utilisateurs du déploiement de nouvelles fonctionnalités de sécurité ciblant les moins de 18 ans. Jusqu’alors, aucun garde-fou spécifique n’existait pour les utilisateurs mineurs et aucun contrôle parental ne permettait aux parents de limiter l’utilisation de la plateforme par leurs enfants ou de surveiller leurs messages.
Insuffisant, pour Megan Garcia, qui compte bien mettre Character.AI face à ses responsabilités. « J’ai l’impression que c’est une grande expérience et que mon enfant n’en est qu’un dommage collatéral », a-t-elle déclaré. « Pourquoi avez-vous mis autant de temps, et pourquoi avons-nous dû intenter une action en justice, et pourquoi Sewell a-t-il dû mourir pour que vous puissiez faire le strict minimum ? Nous parlons vraiment du strict minimum ici », a ajouté son avocat Matthew Bergman dans un entretien accordé à NBC News.
SOURCE : https://www.huffingtonpost.fr/