La France fera un usage "responsable" de l'intelligence artificielle dans le domaine militaire. Elle ne développera pas non plus de "robots tueurs", a promis vendredi la ministre française des Armées Florence Parly, en annonçant la création d'un comité éthique pour la défense.
Pas de "Terminator" au 14-Juillet
"Terminator ne défilera pas au 14-Juillet", a résumé la ministre lors d'un discours consacré à l'IA et la défense, sur le campus de Saclay, en région parisienne. "Le développement de l'IA est désormais un lieu de compétition stratégique, une course à la puissance technologique, économique mais aussi militaire", et "je compte faire de l'IA une priorité de notre défense nationale", a-t-elle souligné, en évoquant "une technologie indispensable pour garantir notre supériorité opérationnelle".
Mais "la France a des valeurs, la France respecte ses engagements internationaux, et la France sera fidèle à cette marque de fabrique", a-t-elle déclaré. "Nous choisissons la voie de la responsabilité, celle de protéger à la fois nos valeurs et nos concitoyens, tout en embrassant les opportunités fabuleuses offertes par l'IA."
Trois "grands principes" de développement
"La position française est sans ambiguïté : la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain", a-t-elle insisté, en écho aux inquiétudes sur les systèmes d'armes létaux autonomes (SALA).
"Ces systèmes n'existent pas aujourd'hui sur nos théâtres d'opérations", mais "le débat est légitime", a commenté Florence Parly. "Nous développerons l'intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d'un contrôle humain suffisant, et la permanence de la responsabilité du commandement", a-t-elle détaillé. "Quel que soit le degré d'automatisation, voire d'autonomie de nos systèmes d'armes actuels et futurs, ceux-ci resteront subordonnés au commandement humain".