L'Italie mène-t-elle la fronde contre l'intelligence artificielle ? Elle est devenue vendredi le premier pays dans le monde occidental à bloquer ChatGPT pour des craintes liées à l'utilisation des données, deux mois après avoir banni un autre programme commercialisé comme un "ami virtuel". Dans un communiqué, l'Autorité italienne de protection des données personnelles prévient que sa décision a un "effet immédiat" et accuse le robot conversationnel de ne pas respecter la réglementation européenne et de ne pas vérifier l'âge des usagers mineurs.
>> LIRE AUSSI - ChatGPT 4 : la nouvelle version de l’intelligence artificielle dont tout le monde parle
Limitation provisoire du traitement des données des utilisateurs italiens
Cette décision aura pour conséquence "la limitation provisoire du traitement des données des utilisateurs italiens vis-à-vis d'OpenAI", l'entreprise à l'origine de l'application, selon le document. ChatGPT est apparu en novembre et a rapidement été pris d'assaut par des utilisateurs impressionnés par sa capacité à répondre clairement à des questions difficiles, à écrire des sonnets ou du code informatique. Financé par le géant informatique Microsoft, qui l'a ajouté à plusieurs de ses services, il est parfois présenté comme un potentiel concurrent au moteur de recherche Google.
L'institution italienne souligne que ChatGPT "a subi le 20 mars une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant". Après les premiers signalements, OpenAI avait brièvement interrompu le service, puis reconnu un bug dans un outil tiers, désormais résolu, qui avait affecté 1,2% de ses abonnés et un nombre indéfini des utilisateurs gratuits.
L'autorité lui reproche aussi "l'absence d'une note d'information aux utilisateurs, dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'entraîner les algorithmes faisant fonctionner la plateforme". En outre, alors que le robot est destiné aux personnes ayant plus de 13 ans, elle "met l'accent sur le fait que l'absence de tout filtre pour vérifier l'âge des utilisateurs expose les mineurs à des réponses absolument non conformes par rapport à leur niveau de développement".
Désinformation et logiciels malveillants
La même institution avait bloqué début février pour des raisons similaires l'application Replika, qui propose de bavarder avec un avatar sur-mesure. Certains utilisateurs s'étaient plaint de recevoir des messages et images trop osés, proches du harcèlement sexuel.
Cette fois encore, l'Autorité demande à OpenAI de "communiquer d'ici à 20 jours les mesures entreprises" pour remédier à cette situation, "sous peine d'une sanction allant jusqu'à 20 millions d'euros ou jusqu'à 4% du chiffre d'affaires mondial annuel", le maximum prévu par le Règlement européen sur les données personnelles (RGPD). Cette affaire montre que le RGPD, qui a déjà entraînée pour les géants de la tech des milliards de dollars d'amendes, pourrait devenir également l'ennemi des nouvelles IA génératrices de contenus.
Selon Nello Cristianini, professeur à l'université de Bath (Royaume-Uni), "les considérations les plus importantes" sont "l'utilisation sans base légale appropriée de données personnelles pour l'entraînement des modèles et la possibilité grandissante de voir ces données reproduites de manière inexacte". L'IA nourrit de plus des craintes bien plus profondes que la seule exploitation des données personnelles et l'Union européenne prépare actuellement un projet de régulation qui pourrait être finalisé d'ici début 2024, pour une application quelques années plus tard.
>> LIRE ÉGALEMENT - Un animateur radio virtuel piloté par une intelligence artificielle
Des criminels prêts à tirer parti de l'intelligence artificielle
Europol a ainsi averti lundi que des criminels étaient prêts à tirer parti de l'intelligence artificielle pour commettre des fraudes et d'autres cybercrimes. ChatGPT a aussi été bloqué peu après sa sortie dans plusieurs écoles ou universités dans le monde, après des craintes de tricherie aux examens, et des entreprises ont déconseillé à leurs employés d'utiliser l'application. "On a vu des salariés fournir les plans stratégiques de leur entreprise à ChatGPT pour lui demander d'en faire une présentation par slides. Les idiots! Car toutes les données vont dans ChatGPT qui peut les régurgiter si un concurrent lui demande la stratégie de cette entreprise", a expliqué Françoise Soulie Fogelman, conseillère du Hub FranceIA, lors d'un colloque.
Mercredi, le milliardaire Elon Musk, un des fondateurs d'OpenAI dont il a ensuite quitté le conseil d'administration, et des centaines d'experts mondiaux, ont réclamé une pause de six mois dans la recherche sur les IA plus puissantes que GPT-4, la dernière mouture du logiciel sur lequel repose ChatGPT lancée lancé mi-mars, en évoquant "des risques majeurs pour l'humanité".