Quelques articles en vrac
- Le Pentagone teste l’IA générative lors d’exercices militaires
L’utilisation de l’IA et des données n’est pas une nouveauté pour le Pentagone. D’ailleurs, Matthew Strohmeyer, colonel de l’US Air Force, mène des exercices basés sur des données au sein du département de la Défense des États-Unis depuis des années. Selon Bloomberg, il a récemment utilisé avec succès un LLM dans ce cadre, une première ouvrant la voie à une nouvelle ère d’utilisation de l’IA dans les opérations militaires.
Publié sur ActuIA par Marie-Claude Benoit le 11 juillet 2023 - Ukraine : le projet secret de l’ex-patron de Google pour fournir à Kiev des drones kamikazes animés par l’IA
L’ex-PDG de Google, Eric Schmidt, a créé la startup White Stork dont les ambitions sont restées relativement secrètes jusqu’à peu. Le but : proposer des drones kamikazes à faible coût, utilisables immédiatement par l’Ukraine, ou par les États-Unis en cas de conflit.
Publié sur GEO par Charline Vergne le 30 janvier 2024 - Une société d’IA lance un système militaire qu’elle dit ne vouloir proposer « qu’aux démocraties »
Une société vient de créer un nouveau système de défense militaire basé sur l’intelligence artificielle. Un système innovant, mais qui pourrait avoir quelques failles.
Publié sur GEO par Joséphine de Rubercy le 21 juillet 2023
L’armée de l’Air & de l’Espace mise sur l’intelligence artificielle « ARGOS » pour la protection de ses bases
En novembre 2021, l’armée de l’Air & de l’Espace [AAE] et l’École des Mines de Nancy signèrent une lettre d’intention en vue de développer un partenariat dans le domaine de la « surveillance autonome, piloté par de l’intelligence artificielle [IA], dans le monde physique et cyber ». L’objectif était alors d’évaluer l’intérêt de la robotique pour la surveillance et la protection d’une base aérienne.
Ainsi, il était question de tester le robot quadrupède SCAR [Système Complexe d’Assistance Robotisée], fourni par l’entreprise américain Boston Dynamics. En quelque sorte, il s’agissait de « défricher le terrain » et de permettre aux élèves ingénieurs de l’École des Mines de développer des algorithmes d’intelligence artificielle en fonction de cas d’usage propres à la surveillance d’une emprise militaire. Un démonstration fut réalisée sur la base aérienne de Nancy-Ochey [BA 133], à l’origine de ce projet.
Depuis, cette collaboration entre l’AAE et le TechLab Mines Nancy s’est concrétisée par le système ARGOS [Acquisition, Reconnaissance et Gardiennage par Observation robotiSée]. Contrairement à ce que l’on pourrait penser au premier abord, il ne s’agit pas d’un robot « patrouilleur » mais d’un algorithme d’intelligence artificielle pouvant être intégré sur n’importe quelle plateforme robotisée.
« L’innovation n’est pas le robot en lui-même, mais plutôt ce que nous retrouvons à l’intérieur : l’intelligence artificielle », souligne le commandant « Rémy », le correspondant « innovation » de la BA 133, dans les pages du dernier numéro d’Air Actualités. « Pour ce faire, précise le capitaine « Bastien », de l’Agence de l’innovation de défense [AID], les chercheurs des Mines ont commencé par développer des capteurs et des effecteurs pour ensuite les appliquer sur les vecteurs [robots] ».
Publié sur Zone Militaire par Laurent Lagneau le 3 mars 2024
La guerre à l’heure de l’IA
Est-il possible d’inculper une arme autonome pour des crimes de guerre ? La réponse à cette question reste encore ambiguë, alors que la face des conflits armés se trouve totalement changée par l’utilisation de machines guidées par l’intelligence artificielle (IA).
À l’heure où les développements de cette technologie dans le domaine militaire avancent plus vite que les institutions chargées de les réguler, Laure de Roucy-Rochegonde, chercheuse à l’IFRI et chercheuse associée au CERI (Sciences Po), présente dans « La guerre à l’ère de l’intelligence artificelle. Quand les machines prennent les armes » les défis posés par le déploiement de ces « robots tueurs » en temps de guerre. À l’instar, en leur temps, du « père de la bombe atomique » Robert Oppenheimer et de ses collaborateurs, les artisans de l’IA sont aujourd’hui confrontés aux implications morales de leurs recherches, et de leurs possibles usages destructeurs.
De manière intéressante, les premières alertes sur les risques posés par les Sala sont venues de professionnels de la robotique. Ainsi, le 17 août 2007, le roboticien Noel Sharkey exprimait au Guardian son inquiétude face au développement de « robots entièrement autonomes » capables de prendre des décisions en matière de létalité, et appelait à leur régulation à l’échelle internationale. En septembre 2009, avec Jürgen Altmann, Peter Asaro et Robert Sparrow, ils formaient l’Icrac dont l’objectif est « l’interdiction du développement, de déploiement et de l’emploi de systèmes armés autonomes ».
L’entreprise canadienne ClearPath Robotics a quant à elle été la première à soutenir publiquement la Campaign to Stop Killer Robots, le 13 août 2014. Dans sa déclaration, elle affirmait vouloir continuer à travailler avec ses clients issus du monde militaire, mais s’engageait à « ne pas fabriquer des robots armés retirant l’homme de la boucle » et insistait sur le fait qu’elle avait choisi « de privilégier son éthique plutôt des revenus potentiels ».
L’étude complète : La guerre à l’heure de l’IA par Laure de Roucy-Rochegonde au éditions PUF