Publicité
Publicité

Présenté comme un meurtrier d'enfants, il porte plainte contre ChatGPT

Europe 1 Avec AFP // Crédit photo : Jaque Silva / NurPhoto / NurPhoto via AFP . 1 min
Présenté comme un meurtrier d'enfants, il porte plainte contre ChatGPT
Présenté comme un meurtrier d'enfants, il porte plainte contre ChatGPT © Jaque Silva / NurPhoto / NurPhoto via AFP

Après avoir été présenté comme un meurtrier d'enfants par ChatGPT, un internaute norvégien a porté plainte contre l'éditeur du robot conversationnel dans son pays. Depuis cet incident, le modèle a été mis à jour et ne présente plus le norvégien comme un meurtrier, mais les fausses informations peuvent rester dans les systèmes internes.

Un internaute norvégien, horrifié que ChatGPT l'ait présenté à tort comme un criminel ayant tué deux de ses enfants, a porté plainte dans son pays contre l'éditeur du robot conversationnel, a annoncé jeudi une association qui milite pour le respect de la vie privée.

La suite après cette publicité
La suite après cette publicité

"ChatGPT donne régulièrement de fausses informations (...) qui peuvent gravement nuire à la réputation d'une personne, accusant indûment des gens de corruption, de maltraitance d'enfants ou même de meurtre", écrit dans un communiqué l'ONG Noyb, basée à Vienne.

Une mise à jour du modèle pour régler l'incident

Après déjà une première plainte en Autriche en avril 2024, elle se tourne cette fois vers l'autorité norvégienne de protection des données (Datatilsynet) pour dénoncer le cas de cet internaute, Arve Hjalmar Holmen, qui avait obtenu ce surprenant résultat après avoir demandé à ChatGPT d'écrire son portrait. "Certains se disent qu'il n'y a pas de fumée sans feu. C'est ce qui me fait le plus peur, que quelqu'un puisse accorder de la véracité à ces dires", confie le plaignant, cité dans le communiqué.

La suite après cette publicité
La suite après cette publicité

Depuis cet incident, le groupe américain, créateur de cette interface d'intelligence artificielle (IA) générative, a mis à jour son modèle et ne présente plus Arve Hjalmar Holmen comme un meurtrier. Mais ces fausses données peuvent rester dans les systèmes internes, déplore Noyb (pour "None of your business", signifiant en anglais "Ce ne sont pas vos affaires").

"En permettant sciemment à son modèle d'IA de créer des résultats diffamatoires, OpenAI viole le principe d'exactitude" inscrit dans le Règlement général européen sur la protection des données (RGPD), estime l'ONG qui réclame "une suppression" des éléments incriminés, des améliorations de la technologie et "une amende administrative".

La suite après cette publicité
La suite après cette publicité

"Vous ne pouvez pas diffuser de fausses informations"

Contactée par l'AFP, la start-up n'a pas réagi à ce stade. Dans des procédures similaires par le passé, elle s'était défendue en faisant valoir une clause de non-responsabilité.

Pour Joakim Söderberg, avocat chez Noyb, ce "n'est manifestement pas suffisant" : "vous ne pouvez pas diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout ce que vous avez dit n'est peut-être pas vrai..."

La suite après cette publicité

Lancé en novembre 2022 par OpenAI, ChatGPT a été pris d'assaut par des utilisateurs impressionnés par sa capacité à fournir une réponse détaillée et circonstanciée à une question, ou à générer du contenu écrit, sonore ou visuel sur requête en langage courant.

Les modèles se sont depuis multipliés, principalement aux Etats-Unis et en Chine, changeant le quotidien de millions d'internautes.