Publicité
Publicité

L'intelligence artificielle risque de tomber dans de mauvaises mains, selon un rapport

Europe1 .fr avec AFP - Mis à jour le . 1 min
Les experts internationaux s'inquiètent de voir les technologies issues de l'intelligence artificielle être utilisées à mauvais escient.
Les experts internationaux s'inquiètent de voir les technologies issues de l'intelligence artificielle être utilisées à mauvais escient. © THOMAS SAMSON / AFP

Utilisation malveillante de drones, falsification de vidéos, manipulation d'élections par des bots… Les risques induits par l'essor de l'intelligence artificielle inquiètent les spécialistes.

Dans un rapport publié mercredi, des experts internationaux sonnent l'alarme sur les risques d'une utilisation malveillante de l'intelligence artificielle par "des États voyous, des criminels, des terroristes".

La suite après cette publicité
La suite après cette publicité

La cybercriminalité renforcée ? Selon eux, dans les dix prochaines années, l'efficacité croissante de l'IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Elle est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociaux grâce à des comptes automatisés (bots).

Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle (IA), cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

La suite après cette publicité
La suite après cette publicité

Parades nécessaires. Ces experts appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l'intelligence artificielle . "Nous pensons que les attaques qui seront permises par l'utilisation croissante de l'IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer", souligne le rapport. Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs "scénarios hypothétiques" d'utilisation mal intentionnée de l'IA. Ils soulignent que des terroristes pourraient modifier des systèmes d'IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des crashs, des collisions ou des explosions.