Nos amis les militaires sont aussi dans l’aventure de l’IA
Aujourd’hui les drones et les robots font partie intégrante de l’appareil militaire des grandes puissances, des petites et même de groupes sub-étatiques ; les drones sont utilisés par des groupes terroristes. De plus, ils permettent également de passer outre les limites du corps humain.
On a pas attendu les 30 dernières années pour commencer à s’intéresser à ce genre de technologie. Dès la seconde guerre mondiale, les allemands avaient déployés des engins assez révolutionnaires à l’époque : Le Goliath et le Fritz X, une bombe radio-guidée planante à destination de la lutte contre les navires. En 1945, l’armée des USA testait des bombardiers B17 radiocommandés pour valider le pilotage à distance. Nom de l’opération : Aphrodite.
Les robots et drones modernes sont beaucoup plus perfectionnés que leurs ancêtres et s’améliorent chaque jour. Ils permettent de remplir énormément de tâches différentes, de la destruction de cibles en passant par la reconnaissance. Par exemple, le Syrano , premier robot opérationnel de l’armée française, est spécialisé dans la reconnaissance. Il excelle dans ses missions grâce à sa vitesse de 40km/h, son rayon d’action de 10 km et ses dispositifs intégrés comme une caméra thermique ou bien un télémètre laser. Il permet des reconnaissances armées et profondes sans mettre en jeu la vie des personnels.
Autre exemple mais cette fois ci avec un drone de combat américain le MQ-9 Reaper. Il a un rayon d’action de 1850 km et peut emporter plusieurs types d’explosifs comme par exemple des bombes à guidage laser, des missiles sol-air ou bien des missiles air-air. Il peut donc s’adapter aux différentes situations et cibles.
Ce drone est utilisé par beaucoup de force militaires de l’OTAN et par l’armée française dans ses opérations au Sahel, nommée opération Barkhane.
Un autre domaine dans lequel les robots peuvent aider, c’est la logistique. Le robot quadrupède BigDog développé par Boston Dynamics peut accompagner les soldats avec ses 6 km/h sur des terrains difficiles ou les véhicules traditionnels ne peuvent aller. Il a un rayon d’action de 20 km et peut également porter jusqu’à 150 kg de matériel sur son dos.
N’oublions pas les exosquelettes utilisés pour augmenter la charge transportable par un homme, lui permettant de parcourir de très longues distance sans fatigue excessive.
Il est évident que les drones et les robots militaires permettent de limiter l’utilisation de soldats humains pour des missions à risques. De plus, ils peuvent intervenir sur des terrains inaccessibles pour l’homme comme par exemple des zones radioactives. Cependant, il y a plusieurs inconvénients comme par exemple le coût de recherche et de production. Le drone de reconnaissance américain MQ-1 Predator a engrangé 2,4 milliards de dollars de frais de recherche et une unité de ce drone coûte 4,5 millions de dollars. Enfin, dans un futur proche ou les drones et robots seront de plus en plus autonomes, on doit se poser la question de savoir comment s’applique les lois de la guerre sur eux. En effet, les lois sur la guerre concernent les hommes. Alors, comment peut-on punir une intelligence artificielle si elle commet un crime comme bombarder un village de civils. On va devoir établir de nouvelles lois pour réglementer et contrôler l’utilisation de l’intelligence artificielle dans les conflits de demain. Cette étique ne semble pas effleurer certains états ou groupes terroristes …
Dans le présent, l’IA devient incontournable pour gérer ces machines !
Ce rapport (au format PDF) est certes un peu long, mais il explique très bien les ambitions du ministère des Armées.
Florence PARLY :
« Nous choisissons la voie de la responsabilité, celle de protéger à la fois nos valeurs et nos concitoyens, tout en embrassant les opportunités fabuleuses qui sont offertes par l’intelligence artificielle. »
“Je compte bien faire de l’IA une priorité de notre défense nationale”. Florence Parly annonce la couleur, en vantant “les opportunités fabuleuses qui sont offertes par l’intelligence artificielle”.
Le ministère des Armées met sur pied une Cellule de Coordination de l’Intelligence Artificielle de Défense (CCIAD), qui réunira une dizaine d’experts “chargée d’animer les actions ministérielles en faveur de l’IA”. Côté budget, la Loi de programmation militaire a prévu une enveloppe de 700 millions, “soit une moyenne annuelle d’un peu plus de 100 millions d’euros”, note le rapport.
Cette initiative s’accompagne de la création d’un comité ministériel “destiné à se prononcer (…) sur les questions éthiques que pourraient soulever les développements futurs de l’IA appliquée au domaine militaire”. Car effectivement, les applications militaires de cette technologie posent de nombreuses questions.
Lire également :
Entre robots tueurs et « combat collaboratif », ce rapport jette les bases de la doctrine française à l’égard de cette technologie.
Objectifs principaux :
Les forces armées françaises ont désormais l’autorisation de développer des « soldats augmentés » en s’inspirant des recommandations avisées d’un comité d’éthique militaire. Explications.
Article : La France va avoir des soldats « augmentés »
Publié sur FUTURA TECH le 11 décembre 2020 par Louis Neveu
Autre point : L’armée française lance son programme de science-fiction pour anticiper les menaces
Publié sur Les Echos le 12 décembre 2020
Quelles seront les menaces qui pèseront sur la France à l’horizon 2030-2060 ? Le ministère de la Défense a présenté la « Red Team », une équipe de dix auteurs, illustrateurs et créateurs de science-fiction chargés d’imaginer les défis technologiques et militaires du futur.
La société française Preligens, a séduit le ministère des Armées qui participe à sa levée de fonds de 20 millions d’euros via son fonds Definvest. Cette pépite est spécialisée dans l’analyse automatisée d’informations géospatiales.
Preligens développe des technologies d’analyse automatique de données qui reposent sur des techniques d’intelligence artificielle et plus particulièrement de vision par ordinateur et d’apprentissage profond. Ces logiciels traitent d’importantes quantités de données issues de différentes sources, et notamment des données géospatiales.
Le but est de mettre à disposition des analystes des technologies de pointe pour les accompagner dans une prise de décision rapide et moins coûteuse et pour les aider à anticiper d’éventuelles menaces. Ces technologies intéressent tout particulièrement le secteur de la défense et du renseignement. La jeune pousse compte d’ailleurs étendre ses compétences à d’autres sources de données afin de répondre à de nouveaux usages dans ce secteur de la défense.
Basée à Paris, l’entreprise dispose aussi de bureaux à Washington DC et Londres, et emploie 80 personnes (120 à cout terme).
Articles complémentaires :
La DGA a notifié à la PME Preligens le marché TORNADE portant sur l’acquisition de licences logicielles de solutions d’IA pour le traitement et l’exploitation de grandes masses de données au profit des armées françaises.
Le communiqué de la DGA : Contrat Preligens
Regarder également : Preligens, l’entreprise dont l’IA détecte les mouvements militaires pour l’armée française
Safran acquiert l’entreprise d’IA Preligens pour €220 mlns
E
Lire également :
Le Parlement européen devrait voter ce mercredi en faveur d’un rapport concernant l’usage militaire de l’intelligence artificielle. Selon le texte, la ligne rouge doit être le contrôle humain pour décider du passage à l’action des systèmes d’armes létales autonomes.
Le développement de l’intelligence artificielle (IA) conduit le Parlement européen à s’interroger sur ses conséquences dans le cadre d’une utilisation militaire. Lors d’un vote mercredi 20 janvier 2021, les eurodéputés devraient insister sur le respect des principes liés aux droits de l’homme et sur un contrôle humain significatif dans l’utilisation et le développement de l’IA à des fins militaires et civiles.
Concernant les systèmes d’armes létales autonomes (SALA), les députés européens estiment pensent qu’ils ne devraient être utilisés qu’en dernier recours et ne devraient être considérés comme licites que s’ils sont soumis à un contrôle humain. Interrogé Gilles Lebreton (RN – groupe ID), rapporteur du texte dit :
Pourquoi l’Union européenne doit-elle légiférer en la matière ?
L’intelligence artificielle connaît un développement fulgurant et va investir de plus en plus le domaine militaire, d’une part, et les autres domaines comme les activités régaliennes de l’État. On s’est mis d’accord pour cibler trois domaines : défense, justice et santé. On souligne la nécessité d’élaborer un cadre juridique et commun au niveau européen pour essayer de conjurer les dangers prévisibles en matière militaire.
Ce qui crée le plus d’inquiétudes, ce sont les SALA, les systèmes d’armes létales autonomes…
On les surnomme les robots-tueurs. On a beaucoup de règles dans le rapport qui cherche à moraliser en quelque sorte l’utilisation des SALA. Il faut qu’il y ait notamment toujours un contrôle humain possible sur ce type d’armement. En aucun cas, il ne doit s’agir de robots qui seraient capables de décider tout seul, à un moment donné, de donner la mort. Il faut toujours un contrôle, une supervision humaine. On a aussi insisté sur la nécessité d’un système technique qui permette de déconnecter le robot en cas de dysfonctionnement.
La Défense est une compétence et non européenne…
On demande ici à ce que l’Union européenne persuade les États européens de parler d’une seule voix sur la question. Il y a déjà une négociation qui est engagée sur le domaine des SALA au sein de l’ONU depuis plusieurs années avec des experts et des représentants des principaux États qui se réunissent et qui tentent difficilement de trouver justement des règles juridiques communes. Nous pensons que, puisque ça patine, l’Union européenne peut apporter une espèce d’autorité pour essayer d’inciter tout le monde à avancer.
Publié sur Ouest-France le 19 janvier 2021 par Fabien CAZENAVE.
Voir aussi : L’UE se penche sur l’intelligence artificielle et ses usages militaires
Publié sur La Croix le 19 janvier 2021 par Jean-Baptiste François
Le Parlement européen doit adopter cette semaine de nouvelles lignes directrices sur l’utilisation militaire de l’IA, qui pose de nombreuses questions de droit et d’éthique.
C’est une révolution dans la vie des citoyens auquel l’Europe veut se préparer activement : l’avènement de l’intelligence artificielle (IA). La Commission, en attendant une proposition législative attendue en ce début d’année, a publié en février 2020 un Livre Blanc, pour intégrer cette nouvelle technologie qui bouleverse l’intervention humaine, le droit, la vie privée… Mais le document se gardait bien d’évoquer l’art de la guerre, pourtant concerné.
Sujets à étudier :
L’intelligence artificielle (IA) est intrinsèquement à double usage civil et militaire, comme les systèmes informatiques. Une réglementation efficace en la matière devrait faire en sorte que l’IA utilisée par le secteur de la défense soit responsable, équitable, traçable, fiable et gouvernable. Or, malgré l’évidence des risques liés aux SALA (systèmes d’armes létales autonomes), celles-ci ne font à ce jour l’objet d’aucune réglementation internationale ad hoc.
Dans quelle mesure les règles du droit international (tant public que privé) et du droit de l’Union européenne sont-elles adaptées à l’essor de ces technologies ? Le rapport que le Parlement européen a adopté le mercredi 20 janvier cherche à répondre à cette interrogation.
Ces principes sont bien connus des opérateurs d’IA du secteur civil :
L’examen du droit international conventionnel ne contient pas d’interdiction de recourir aux SALA. Si l’on examine le droit international coutumier, on constate que les membres de la communauté internationale sont profondément divisés sur le point de savoir si le non-recours aux SALA constitue l’expression d’une opinio juris (conscience d’être lié par une obligation juridique, conviction que l’on doit adopter, un comportement donné).
L’Assemblée générale de l’ONU a adopté en décembre 2018 une résolution intitulée « Favoriser le comportement responsable des États dans le cyberespace dans le contexte de la sécurité internationale ». En novembre 2020, elle a adopté quinze projets de résolutions, dont deux concurrents, portant sur la sécurisation du cyberespace : l’un américain, appuyé par les pays de l’UE notamment, l’autre russe, qui prévoit la création d’un autre groupe de travail pour remplacer ceux existant dès 2021. Au nom de l’Union européenne, la représentante de l’Allemagne a expliqué qu’elle s’opposerait au projet de résolution russe qui va à l’encontre de la résolution A/73/27 puisque les travaux sont en cours et non finalisés.
Une analyse complète est disponible sur : Quels principes juridiques pour les systèmes d’armes létales autonomes ?
Publié sur The Conversation le 14 février 2021.
Autre article sur le sujet : Quels principes juridiques pour les systèmes d’armes létales autonomes ?
Publié sur La Tribune le 25 février 2021 par Nathalie Devillier
En 1997, le grand maître des échecs, Gary Kasparov, s’inclinait devant Deep Blue, le supercalculateur d’IBM. De quoi y voir la supériorité de la machine sur l’homme… Mais à y regarder de plus près, l’ordinateur était pourtant encore loin d’être infaillible. Après avoir gagné une première confrontation, un an plus tôt, contre une version moins élaborée de Deep Blue, le champion russe n’avait perdu que deux parties sur les six disputées [quatre s’étant terminées sur un pat].
Un peu plus de vingt ans plus tard, le logiciel AlphaGo affronta les meilleurs joueurs de Go, un jeu de stratégie d’origine chinois aux règles plus compliquées que celles des Échecs. Et la machine s’imposa notamment contre Fan Hui [champion européen] et Lee Sedol, considéré comme étant le meilleur joueur du monde dans les années 2000. Une première. Cependant, si sa victoire fut totale en parties lentes contre Fan Hui [5-0], elle le fut beaucoup moins en partie rapides [3-2]. En revanche, Lee Sedol ne put remporter qu’une seule manche sur les cinq disputées face au programme.
En 2018, une nouvelle étape fut franchie avec AlphaZero. Élaboré par DeepMind Technologies et basé sur un système d’apprentissage par renforcement, cet algorithme s’imposa face aux meilleures intelligences artificielles du moment dans les domaines des échecs [Stockfish], du jeu de go [AlphaGo] et du shogi [Elmo]. Ayant appris les règles de ces trois jeux sans intervention humaine, cette machine s’était entraînée en disputant des millions de parties contre elle-même avant d’affronter les autres algorithmes, reposant par ailleurs sur des données collectées lors de parties réelles jouées par des humains.
« AlphaZero joue d’une manière extrêmement innovante, ni comme un humain, ni comme une machine, avec une stratégie de jeu très dynamique », avait alors expliqué Demis Hassabis, le Pdg fondateur de DeepMind, au quotidien Les Échos.
Cela étant, la supériorité d’AlphaZero ne fut, là encore, pas totale. Y compris contre d’autres algorithmes. Si il remporta 91,2% des victoire au shogi, le système de DeepMind Technologies eut un peu plus de mal au go [61% des victoires] et aux échecs, avec « seulement » 155 victoires [et 6 défaites] sur 1.000 parties jouées.
En février dernier, Elon Musk, le Pdg de Tesla et de SpaceX, affirma que, avec les progrès de l’intelligence artificielle, l’ère des avions de chasse allait être bientôt « révolue ». Et d’insister, plus tard, via Twitter : « Le concurrent [du F-35] devrait être un drone piloté à distance par un humain, mais aux capacités augmentées par un système autonome. Le F-35 n’aurait aucune chance contre un tel appareil ».
Certes, le propos de l’entrepreneur renvoyait à une expérience qui, réalisée en 2016 par l’US Air Force Research Laboratory et l’entreprise Psibernetix, avait mis aux prises le colonel Gene Lee, un pilote de chasse expérimenté; à une intelligence artificielle appelée « Alpha », lors de simulations de combats aériens. Et la machine démontra des capacités surprenantes.
« J’ai été surpris par la manière dont elle était consciente et réactive. Elle semblait être consciente de mes intentions et réagir instantanément à mes changements en vol et à mes déploiements de missiles. Elle savait comment déjouer le tir que je faisais. Elle changeait instantanément entre les actions défensives et offensives en fonction des besoins » confiera le colonel Lee au magazine Popular Science.
Depuis, dans le cadre du programme Air Combat Evolution [ACE] qui vise à renforcer les interactions « homme-machine », la DARPA, l’agence chargée de l’innovation au Pentagone, a lancé la compétition AlphaDogFight, qui voit s’affronter plusieurs équipes ayant mis au point des algorithmes d’intelligence artificielle « capables d’effectuer des manœuvres de combat aérien simulées à portée visuelle. »
Pour le moment, il s’agit de faire s’affronter les algorithmes entre-eux, comme AlphaZero avec Stockfish, AlphaGo et Elmo. L’épidémie de covid-19 ayant perturbé cette compétition, les huit équipes encore en lice vont enfin pouvoir se mesurer les 19 et 20 août prochains depuis le Johns Hopkins Applied Physics Laboratory [APL] à Laurel [Maryland]. L’évènement sera retransmis en direct via ZoomGov [AlphaDogfight Trials TV ou ADT TV] et Youtube.
Parmi les équipes présentes figurent Aurora Flight Sciences, EpiSys Science, Georgia Tech Research Institute, Heron Systems, Lockheed Martin, Perspecta Labs, PhysicsAI et SoarTech. Le meilleur algorithme se mesurera ensuite à un « vrai » pilote de F-16, via un simulateur, a indiqué la DARPA, le 7 août.
« Que l’humain ou la machine remporte le combat aérien final importe peu étant donné que les essais AlphaDogfight visent à accroître la confiance dans l’intelligence artificielle », a commenté le colonel Dan Javorsek, le responsable du programme. Cependant, a-t-il ajouté, « si une intelligence artificielle gagne le respect d’un pilote de F-16, nous aurons fait un pas de plus vers la réalisation d’une interface homme-machine efficace pour le combat aérien, ce qui est l’objectif du programme ACE. »
Reste que, même après ce « duel » simulé, qui permettra sans doute de voir si l’instinct peu contrer la logique d’une machine [tout en ne confondant pas réflexe et réflexion…], le débat ne sera pas encore clos. Récemment, le directeur du Joint Artificial Intelligence Center [JAIC] au Pentagone, le général Jack Shanahan, a fait savoir qu’il était question d’organiser un combat aérien entre un drone autonome et un avion de chasse en juillet 2021.
Dans le cadre de son programme Air Combat Evolution [ACE], qui doit permettre de renforcer l’interface « homme-machine » dans le domaine du combat aérien, la DARPA, vient d’organiser la compétition « AlphaDogfight », opposant des algorithmes d’intelligence artificielle mis au point par huit équipes concurrentes.
Le combat commencera par la sélection du meilleur algorithme dans le panel en compétition ; sont présentés :
L’algorithme ayant dominé les sept autres devait ensuite se mesurer à un pilote de l’US Air Force, placé aux commandes d’un simulateur de F-16 Viper, lors de cinq combats aériens.
L’algorithme de Heron Systems s’est avéré plus performant, c’est donc lui qui a gagné le « ticket » pour affronter « Banger », un pilote de chasse en chair et en os, ayant plus de 2.000 heures de vol au compteur. Et ce dernier n’a rien pu faire : il a été dominé lors des cinq combats aériens simulant autant de scénario de base différents. Et l’algorithme et l’IA sortir vainqueur des 6 combats !
Cette première confrontation n’est qu’un début. Il est question d’en organiser d’autres dans les semaines à venir.
Quoi qu’il en soit, et comme l’avait souligné colonel Dan Javorsek, le responsable du programme ACE, « que l’humain ou la machine remporte le combat aérien final importe peu étant donné que les essais AlphaDogfight visent à accroître la confiance dans l’intelligence artificielle. Mais si une intelligence artificielle gagne le respect d’un pilote de F-16, nous aurons fait un pas de plus vers la réalisation d’une interface homme-machine efficace pour le combat aérien, ce qui est notre objectif. »
Boeing vient de mettre à l’épreuve une intelligence artificielle capable de piloter un escadron d’avions. Dans une opération menée à Cloncurry en Australie, la firme a testé sa technologie de vol autonome avec cinq mini-jets mesurant 3,4 mètres. Les avions devaient décoller, voler en différentes formations, et atterrir de manière complètement autonome.
Chaque appareil intègre un pilote automatique basé sur l’intelligence artificielle, composé d’un dispositif de commande ainsi que d’un système de partage de données. Le but de la manœuvre était de les faire voler entièrement sans pilote et de tester la capacité des jets à communiquer entre eux pour collaborer sur une mission.
Les tests ont eu lieu sur une période de dix jours, avec des vitesses allant jusqu’à 270 kilomètres par heure. Les chercheurs ont commencé avec deux appareils, puis ont ajouté un jet supplémentaire à chaque décollage, jusqu’à ce que les cinq soient en opération simultanément. L’intelligence artificielle intégrée dans chaque appareil devait apprendre à mener à bien la mission, et les premiers jets ont aidé à former ceux qui ont été ajoutés par la suite.
Boeing développe ce pilotage automatique dans l’optique de missions de reconnaissance ou de frappes ciblées dans des zones avec un système de défense aérienne. Cette intelligence artificielle pourra être intégrée dans des drones quadrirotors et des jets plus grands, et fera partie des futures plateformes autonomes de Boeing.
Pour la première fois, L’US Air Force a testé l’utilisation d’une intelligence artificielle dans un avion militaire. Artuµ, basé sur l’IA µZero, était en charge du radar et devait coopérer avec le pilote humain afin d’atteindre des objectifs.
L’IA est moins en moins cantonnée aux drones. Pour la première fois, un avion de l’US Air Force a décollé avec une IA à bord. Baptisée Artuµ, elle a joué le rôle de copilote, aux côtés d’un pilote humain.
Artuµ est basé sur l’intelligence artificielle µZero, une IA développée pour les jeux et capable de battre les humains aux échecs, au jeu de go, ainsi qu’à certains jeux vidéo, en s’entraînant sans connaissances préalables. Ici, Artuµ était aux commandes du radar d’un avion espion U-2 Dragon Lady, après s’être entraîné sur plus d’un demi-million de simulations.
Dans une mission contre un autre ordinateur, Artuµ était en charge de trouver les lanceurs ennemis, tandis que le pilote humain devait repérer les avions hostiles. Les deux ont dû travailler en équipe et partager le radar mais c’est bien l’IA qui était aux commandes du système et qui avait le dernier mot sur son utilisation.
« Nous savons que, pour combattre et gagner dans un conflit futur avec un adversaire de même niveau, nous devons avoir un avantage numérique décisif », a indiqué Charles Brown Jr., chef d’état-major de l’US Air Force. L’objectif n’est pas de remplacer le pilote humain dans un futur proche mais de travailler en équipe. Une IA peut être assez facilement dupée par les tactiques ennemies, et des contremesures seront très certainement développées en ce sens.
Autres articles :
En Russie ; développé en collaboration avec Android Technics, le tank russe Marker a réussi à parcourir 30 kilomètres sans pilote à son bord. Le chemin, inconnu à l’avance, était semé d’obstacles et recouvert de neige. Ce premier test va servir d’exemple pour poursuivre le développement de véhicules militaires autonomes.
Le Centre national pour le développement des technologies et de la robotique de la Fondation russe pour la recherche avancée a annoncé qu’un prototype de véhicule terrestre sans pilote et modulaire avait parcouru une distance de 30 kilomètres lors d’un test dans la région de Tcheliabinsk, révèle le Defence Blog. Le véhicule a été construit en collaboration avec Android Technics, qui a notamment développé le robot FEDOR (Final Experimental Demonstration Object Research) envoyé en orbite par la Russie en 2019, vers la Station spatiale internationale (ISS).
« Le parcours du véhicule a été tracé à travers un territoire non préparé, une steppe boisée recouverte de neige », détaille le communiqué. Ainsi, le système développé permet un réglage autonome de l’itinéraire de déplacement en cas d’obstacles; arbres, montées, ravins, buissons…
« Le système autonome de contrôle des mouvements du système, ayant reçu un plan de la route avec les coordonnée d’un point donné, a assuré l’arrivé du véhicule à la ligne d’arrivée en une heure et demie, en s’appuyant sur les données du système de vision construit sur des algorithmes d’apprentissage automatique », poursuit la Fondation russe, rattachée au pouvoir central.
Article complet : Un tank autonome a parcouru une distance de 30 kilomètres en Russie
Publié sur L’Usine Nouvelle le 31 décembre 2020 par Alice Vitard
Avec la menace d’attaques d’essaims de drones autonomes armés, les champs de bataille du futur seront hyperactifs et l’humain ne pourra compter que sur l’Intelligence artificielle pour se défendre. À condition de lui donner plus d’autonomie.
Des drones qui évoluent par essaim fondent de toutes parts sur des troupes au sol. Chargés d’explosifs, ils font un carnage en s’abattant sur des soldats incapables de lutter contre autant de petits aéronefs armés. Ce scénario envisageable est l’une des plus grandes craintes des militaires. S’ils arrivent en nombre suffisant, ces drones tueurs autonomes seraient trop rapides pour que les soldats puissent tenter quoi que ce soit, selon le général John Murray, chef de l’United States Army Futures Command, la branche militaire dédiée à la modernisation des armées américaines.
Lors d’un webinaire tenu dans le cadre du Center for Strategic & International Studies, le général a expliqué que, dans une telle situation, l’humain est à même de prendre les premières décisions mais que la nuée de drones ne lui permettra pas de résister longtemps. Pour lui, la seule façon de s’en sortir, c’est d’exploiter des systèmes de combat renforcés par de l’Intelligence artificielle (IA). Ils permettraient d’améliorer la reconnaissance et l’identification des cibles et surtout de gagner en réactivité.
Pour l’armée américaine, tout comme en France et la plupart des autres pays, il n’est pas question de conférer de l’autonomie à des systèmes de combats intelligents. C’est toujours l’humain qui doit contrôler et décider. Mais, dans le cadre d’un tel scénario, le général considère qu’il faudrait que le niveau de contrôle de l’humain sur l’IA soit franchement diminué. Cela signifie laisser plus d’autonomie à l’IA avec les risques éthiques ou de perte de contrôle que cela pourrait comporter.
Le général Murray a tenté de rassurer, en expliquant qu’un exercice baptisé Project Convergence avait été mené en septembre en Arizona. Lors de celui-ci, des systèmes de combats dopés à l’IA combinés à des satellites en basse orbite, avaient réduit considérablement le temps nécessaire pour identifier, traquer et détruire les menaces aériennes. La précision apportée par ces IA débrayées oscillait entre 98 et 99 %. Un taux qui fait dire au haut gradé qu’avec l’hyperactivité des champs de bataille du futur, l’humain n’aura pas d’autre choix que de donner plus d’autonomie à la machine pour assurer sa propre défense.
Autres articles liés :
Petit reportage diffusé par Terra Bellum sur Youtube
Le 16 novembre 2019
Je ne fais pas beaucoup de recommandation de site ; mais celui-ci en vaut la peine !
Prenez deux minutes pour jeter un coup d’oeil.
Boeing and the Royal Australian Air Force have successfully completed the first test flight of a Loyal Wingman uncrewed drone.
Boeing et la Royal Australian Air Force ont effectué avec succès le premier vol d’essai d’un drone sans équipage Loyal Wingman.
A Boeing test pilot was monitoring from a ground control station in South Australia’s outback during the autonomous plane’s flight, according to a joint statement from Boeing and the RAAF. The Australian government has invested US$31 million in the product, which Boeing said previously has drawn interest from countries including the U.S. Air Vice-Marshal Cath Roberts, RAAF Head of Air Force Capability, said in a statement, « The Loyal Wingman project is a pathfinder for the integration of autonomous systems and artificial intelligence to create smart human-machine teams. »
Selon une déclaration conjointe de Boeing et de la RAAF, un pilote d’essai de Boeing assurait la surveillance depuis une station de contrôle au sol dans l’outback de l’Australie du Sud pendant le vol de l’avion autonome. Le gouvernement australien a investi 31 millions de dollars dans le produit, qui, selon Boeing, a déjà suscité l’intérêt de pays tels que les États-Unis. Le vice-maréchal de l’air Cath Roberts, chef de la capacité des forces aériennes de la RAAF, a déclaré dans un communiqué : « Le projet Loyal Wingman est un pionnier de l’intégration des systèmes autonomes et de l’intelligence artificielle pour créer des équipes homme-machine intelligentes. »
Quelques sources :
Voir également : L’IA et la réalité augmentée aux commandes des avions de chasse
Diffusé sur BFM le 19 février 2021
Conséquence : Les humains doivent s’effacer, c’est un combat entre machines
Les moyens de défense basés sur l’intelligence artificielle vont représenté une réponse cruciale face à l’apparition de nouvelles attaques de plus en plus sophistiquées. L’IA a été exploitée en vue de comprendre l’état « normal » d’un environnement numérique et de détecter les variations au moment où elles se produisent, signalant un abandon des approches coutumières de la cyberdéfense.
Nouvelle étape de l’évolution de la physionomie des attaques, les hackers tirent désormais profit de l’apprentissage automatique pour déployer des algorithmes neuronaux malveillants capables de s’adapter, d’apprendre et de s’améliorer pour échapper à la détection, indiquant le prochain changement de paradigme du paysage de la cybersécurité : les attaques basées sur l’IA.
Une récente étude menée par le cabinet Forrester a révélé que 88 % des professionnels de la sécurité s’attendent à une généralisation des attaques basées sur l’IA.
« L’IA offensive » exploitera la capacité d’apprentissage et d’adaptation de l’IA, inaugurant une nouvelle ère dans laquelle les attaques hautement personnalisées et imitant les humains sont évolutives, et se propagent à la vitesse d’une machine. L’IA offensive pourrait toucher le réseau d’une cible et utiliser les informations qu’elle voit pour lancer une attaque, comprenant automatiquement où se trouvent des données précieuses.
Nous assistons déjà aux premiers signes : les« deepfake » générés par l’IA et conçu pour répandre de fausses informations constitue un phénomène extrêmement préoccupant pour les géants des réseaux sociaux.
S’appuyant sur davantage de données, l’IA défensive est basée sur l’apprentissage automatique non supervisé. Elle possède une compréhension complète de chaque utilisateur et de chaque périphérique de l’ensemble du réseau qu’elle protège, et se sert de cette compréhension évolutive pour détecter des variations qui pourraient être caractéristiques d’une attaque en cours ou même émergente. Grâce à cette « vue aérienne » de l’activité numérique, la cyber IA repérera l’IA offensive dès lors que cette dernière commencera à manipuler des données.
Les humains doivent s’effacer : c’est un combat entre machines. Lorsque cette avancée majeure de l’innovation des assaillants va inévitablement se produire, l’examen, la réponse et les mesures correctives devront être réalisés à la vitesse et avec l’intuition de l’IA. Seule l’intelligence artificielle peut lutter contre l’intelligence artificielle.
Nous ne sommes qu’au début d’une nouvelle ère de la cyberdéfense, mais nous pouvons avoir des raisons d’être optimistes : c’est une nouvelle étape de la guerre cybernétique à laquelle les défenseurs se préparent depuis longtemps, garantissant ainsi que lorsque retentira la détonation du pistolet de départ de la course aux armements basés sur l’IA, les « bons » auront une longueur d’avance.
L’Organisation du Traité de l’Atlantique Nord (OTAN) travaille à l’établissement d’un cadre de normes et de règles quant à l’utilisation de l’intelligence artificielle dans le domaine militaire. L’OTAN a qualifié l’IA comme une technologie nécessaire pour conserver un avantage sur ses adversaires potentiels mais étant composée de 30 états membres avec chacun des priorités différentes quant à la question, le sujet est évidemment complexe.
Si l’OTAN semble prendre les devants sur la question de l’utilisation de l’IA dans le monde militaire, c’est parce que l’organisation considère qu’elle constitue un cadre propice à l’adoption d’une telle réglementation. Elle rassemble en effet 30 pays et c’est en ce sens qu’intervient Mircea Geoana, secrétaire général délégué de l’OTAN :
“Nous avons plus que jamais besoin les uns des autres. Aucun pays ou aucun continent ne pourra à lui seul rivaliser dans cette ère de compétition entre les grandes puissances”
L’OTAN publiera d’ici cet été sa propre stratégie concernant les normes d’utilisations de l’IA. Le but est de proposer aux différents états membres d’exploiter les systèmes de l’IA de manière éthique et responsable, d’identifier les applications militaires mais aussi de fournir “une plateforme permettant aux alliés de l’OTAN, de tester leur IA afin de savoir si elle est conforme à ces nouvelles normes” comme l’explique David Van Weel, secrétaire général adjoint de l’OTAN. Ce dernier fait également référence au fait que la création de cette stratégie intervient tandis que la Chine accélère son utilisation de l’IA dans le secteur militaire :
“Je ne suis pas sûr qu’ils aient les mêmes débats sur les principes d’utilisation éthique et responsable de l’IA ou qu’ils n’appliquent certainement pas nos valeurs démocratiques à ces technologies”.
Des directives éthiques seront élaborées sur la manière de gouverner les systèmes d’IA, par exemple en garantissant que les systèmes peuvent être arrêtés à tout moment par un humain. David Van Weel poursuit ses déclarations quant à la question de l’éthique :
“Si un adversaire utilisait des systèmes autonomes utilisant l’IA d’une manière n’étant pas compatibles avec nos valeurs, cela impliquerait que nous aurions à nous défendre contre ces systèmes et à mener une campagne de dissuasion contre leur utilisation”.
La création de cette stratégie intervient dans un contexte où les membres de l’OTAN sont à des stades très différents quant à l’utilisation de l’IA dans le domaine militaire. Si les États-Unis donnent clairement la priorité à l’IA, en Europe, la plupart des pays hormis la France et les Pays-Bas, annoncent ne pas utiliser l’IA ou alors très peu dans le domaine de la défense. Ulrike Frank, spécialiste en politique au conseil européen des relations internationales a précisé à ce sujet :
“Il n’est absolument pas étonnant que les États-Unis aient une stratégie militaire basée sur l’IA avant même d’utiliser l’IA dans d’autres domaines. Mais les européens eux, ont décidés de faire l’inverse.”.
Cela ferait écho aux traditions européennes quant à l’utilisation des nouvelles technologies dans le monde militaire et met en évidence les différentes approches quant à la réglementation de l’IA de manière plus générale.
Un autre sujet semble aussi être le cadre de désaccords entre les membres de l’OTAN : celui des systèmes d’armes létales autonomes (SALA). Quand le Royaume-Uni, les Etats-Unis et la France cherchent à développer ces technologies, la Belgique et l’Allemagne, elles, s’inquiètent de leurs développements.
Source : L’OTAN travaille à l’encadrement de l’utilisation de l’intelligence artificielle dans le domaine militaire
Publié sur ActuIA le 14 avril 2021 par
Autre article : L’OTAN cherche à encadrer l’utilisation de l’intelligence artificielle à des fins militaires
Publié sur L’Usine Digitale le 31 mars 2021 par Alice Vitard