Intelligence artificielle : « Jusqu’à présent, l’IA militaire n’a pas été utilisée dans le sens de la retenue »

Vues:

Date:

Une révolution qu’il considère « équivalente à celle de l’atome ». Le ministre des Armées, Sébastien Lecornu, a rappelé jeudi que la France a fait de l’intelligence artificielle une priorité, et que « la maîtrise de l’IA militaire sera demain l’un des marqueurs majeurs de qui est, ou non, une grande puissance ».

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

Comment l’IA inonde-t-elle désormais les programmes militaires ? Dans quels domaines va-t-elle évoluer ? Faut-il s’en méfier ? 20 Minutes fait le point sur l’utilisation de l’intelligence artificielle dans le domaine de la défense.

Comment l’armée française utilise-t-elle l’IA dans ses programmes ?

L’Intelligence artificielle au sein de l’armée est une réalité depuis plusieurs années déjà. Aujourd’hui, le ministère des Armées recense plus de 400 cas d’usage. À titre d’exemple, l’IA embarque déjà dans le Rafale pour détecter plus rapidement des cibles. La Marine a aussi confié à l’Amiad (Agence ministérielle pour l’intelligence artificielle de défense) un projet pour trier les sons afin d’orienter les analystes en guerre acoustique dans les sous-marins (les oreilles d’or) sur les seuls signaux à forte valeur ajoutée. Le Griffon, véhicule blindé de l’armée de Terre, intègre aussi l’IA pour aider ses six caméras à « repérer des cibles cachées jusqu’à trois kilomètres des capteurs et ce même en lisière de forêt » explique encore le ministère des Armées, qui veut désormais « passer à la vitesse supérieure » pour « ne pas être déclassés dans un contexte de rapprochement de la guerre et de ruptures technologiques majeures. »

Laure de Roucy-Rochegonde, directrice du centre géopolitique des technologies de l’Ifri (Institut français des relations internationales), autrice de La guerre à l’ère de l’intelligence artificielle, confirme que « l’ambition d’intégrer l’IA dans les trois armées est désormais bien présente ». Et si l’armée française a longtemps « abordé l’IA comme un outil d’aide à la décision, presque comme un collaborateur numérique », le théâtre ukrainien, « qui a servi de laboratoire pour l’IA, lui a permis de mieux comprendre les cas d’usage. »

La guerre en Ukraine a-t-elle changé notre vision de l’utilisation de l’IA sur le front ?

En février 2024, le magazine américain Time présentait la guerre en Ukraine comme « The first AI War », « La première guerre de l’Intelligence artificielle ». « Sur le front ukrainien, on trouve des usages de l’IA dans des domaines très différents, cela va du renseignement à la maintenance en passant par le ciblage… » énumère Laure de Roucy-Rochegonde, persuadée que ce conflit représente « une bascule » en matière d’IA.

L’un des rôles clés de l’IA pour les Ukrainiens est notamment d’intégrer de la reconnaissance de cibles et d’objets à l’imagerie satellite. L’objectif est aussi de « géolocaliser et d’analyser des données de source ouverte, telles que les contenus des réseaux sociaux, afin d’identifier les soldats russes, les armes, les systèmes, les unités ou leurs mouvements ». Pour cela, les Ukrainiens sont soutenus par bon nombre de géants technologiques américains, comme la société Palantir.

Que sont exactement les systèmes d’armes autonomes, et va-t-on vers des robots de combat ?

Une des grandes applications attendue de l’IA en matière militaire, est l’arme autonome, voire le robot de combat. Mais de quoi parle-t-on exactement ? « La définition de l’arme autonome est un débat sans fin, qui fait l’objet de négociations interminables à l’ONU, nous explique Laure de Roucy-Rochegonde. Pour moi, c’est un système capable d’identifier et d’ouvrir le feu sur une cible, sans intervention d’un opérateur humain, dans un environnement changeant. Pour l’instant, cela n’existe pas. Néanmoins, nous avons observé en Ukraine un niveau accru d’autonomie, avec notamment des drones capables de poursuivre leur mission, y compris pour ouvrir le feu, même quand ils perdent le contact avec leur opérateur ».

Le prochain tournant attendu dans l’IA de défense, « se portera sur les modèles de langage, type ChatGPT, pour accélérer la fabrication des ordres, qui représentent parfois plusieurs pages » poursuit la chercheuse. « L’étape suivante, ce seront les modèles de raisonnement. Couplés à des modèles de robotique avancés, ils pourraient nous amener vers des systèmes robotisés sur le champ de bataille, avec des capacités de plus en plus grandes. »

L’IA pourrait-elle « rationaliser » l’emploi de la force, voire limiter le nombre de morts sur le front ?

« C’est un grand débat, mais je n’y crois pas » nous dit Laure de Roucy-Rochegonde. « C’est une vision angéliste de la technologie, et c’est éloigné de la réalité de la guerre, poursuit-elle. D’abord, selon le niveau d’engagement et le caractère existentiel du conflit, on peut supposer qu’une fois les flottes de robots détruites de chaque côté, des hommes iraient se battre à leur tour, s’il y va de la survie de leur territoire. Ensuite, je ne crois pas que l’intelligence artificielle ait intrinsèquement la capacité à réduire l’intensité des conflits, car cela reste une technique qui dépend de la manière dont elle est utilisée. Et jusqu’à présent, elle n’a pas été utilisée dans le sens de la retenue. »

La chercheuse prend l’exemple du conflit entre Israël et le Hamas. « On a vu de manière terrible les effets du recours à l’intelligence artificielle à Gaza, où cela a accéléré la cadence des frappes, et où cela a permis de faire des bombardements massifs. » Elle pointe notamment un logiciel, « Lavender », qui, couplé à un système de surveillance de masse, agrège des informations provenant des réseaux sociaux, des contacts téléphoniques, et « permet à l’IA d’établir une « note de sécurité » aux Gazaouis, en fonction de leur probabilité qu’ils appartiennent au Hamas ».

Notre dossier sur l’Intelligence artificielle

Cette utilisation de l’IA s’est révélée « désastreuse » lors de l’opération « Glaive de fer ». « Il y a eu beaucoup d’erreurs concernant les cibles, liées à des homonymies, ou de mauvais numéros de téléphone. L’IA n’a absolument pas été utilisée dans une visée de réduire le nombre de victimes civiles. »

Laissera-t-on un jour une machine décider à notre place ?

« Tout le monde dit aujourd’hui que c’est inimaginable de laisser la décision à la machine, observe la chercheuse. Mais dans les faits, nous sommes déjà en train de perdre de la capacité à exercer notre discernement, parce que tout va très vite, parce que les données sont déjà trop nombreuses pour la seule intelligence humaine… Or, c’est un écueil contre lequel il faut bien évidemment lutter. » Y compris en France, qui a longtemps eu une approche prudente du sujet ? « Il y a eu à un moment une forme de prudence, liée à des questions morales, réputationnelles, mais les positions évoluent, et il me semble que plusieurs de ces tabous sont en train de se lever ».

La source de cet article se trouve sur ce site

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

PARTAGER:

spot_imgspot_img
spot_imgspot_img