Les Etats Unis d’Amérique ont été les pionniers dans le domaine de l’IA…
Maintenant ils doivent compter avec la Chine et même l’Europe…
Le Pentagone souhaite améliorer sa prise de décision grâce à une intelligence artificielle, capable d’anticiper des événements comme des mouvements de troupes ou des tirs de missiles ; rappelez-vous le cas du conflit Russie/Ukraine.
Le Pentagone, a récemment fait une annonce étonnante; il s’est équipé d’un système basé sur l’intelligence artificielle, qui serait prétendument capable de… prédire l’avenir. Rien que ça !
Ce programme baptisé en toute humilité/simplicité Global Information Domination Experiment a vocation à anticiper certains événements, afin de procurer à l’armée une “domination en termes d’information” et une “supériorité dans la prise de décision”. La finalité est de pouvoir prévoir des mouvements de troupes, ou de véhicules militaires comme des sous-marins ou des convois. Ce système devrait aussi permettre d’anticiper des attaques aériennes, des bombardements, ou même des tirs de missiles. Un outil purement stratégique et militaire, donc, qui ne devrait pas être transposé dans le civil dans l’immédiat.
Puisqu’il s’agit d’un programme informatique, ce système n’est pas capable de formuler des suggestions ex nihilo. Mais, il va exploiter un jeu de données composé d’enregistrements radar, d’images satellites, et d’autres données diverses issues des services de renseignement et de divers capteurs. En fait toutes les informations disponibles. Pour anticiper le déplacement d’un bateau, d’un bataillon, d’une flotte aérienne ce programme pourrait par exemple se baser sur une activité particulière dans une zone précise. Si les images satellites montrent des militaires en train de préparer un bâtiment, il y a effectivement des chances que celui-ci prenne la mer sous peu. Un exemple assez simpliste, puisqu’un opérateur humain pourrait parfaitement arriver à la même conclusion. Sauf que l’IA, elle, est capable de balayer une quantité d’informations largement plus importante et beaucoup plus rapidement.
Bienvenue dans le support IA à la guerre !
Autres articles sur ce sujet :
Prototype destiné à améliorer la conscience et la capacité de décision des pilotes
Northrop Grumman Corporation has been awarded a contract from the Defense Advanced Research Projects Agency’s (DARPA) Perceptually-enabled Task Guidance (PTG) program to develop a prototype artificial intelligence (AI) assistant. The prototype will be embedded in an augmented reality (AR) headset to help rotary pilots perform expected and unexpected tasks.
Northrop Grumman Corporation a obtenu un contrat du programme Perceptually-enabled Task Guidance (PTG) de la Defense Advanced Research Projects Agency (DARPA) pour développer un prototype d’assistant d’intelligence artificielle (IA). Le prototype sera intégré dans un casque de réalité augmentée (AR) afin d’aider les pilotes d’hélicoptères à effectuer des tâches prévues et imprévues.
Northrop Grumman, in partnership with the University of Central Florida (UCF), will develop an Operator and Context Adaptive Reasoning Intuitive Assistant (OCARINA) that will support UH-60 Blackhawk pilots, who fly with both visual and instrumented flight, which varies with weather, time of day and other environmental factors.
“The goal of this prototype is to broaden a pilot’s skillset,” said Erin Cherry, senior autonomy program manager, Northrop Grumman. “It will help teach new tasks, aide in the recognition and reduction of errors, improve task completion time, and most importantly, help to prevent catastrophic events.”
Rotorcraft aircrews face numerous demands particularly when flying in close proximity to buildings, terrain, people and from the threat of adversary RADAR systems. Today, simple warning systems are the most common means for aiding a rotorcraft aircrew, such as auditory alerts to increase altitude. These warning systems are limiting and can induce unanticipated cognitive burdens on pilots. Studies have shown that inattentional blindness to such warnings can occur, often making them ineffective for the aircrew.
Northrop Grumman, en partenariat avec l’Université de Floride centrale (UCF), développera un assistant intuitif de raisonnement adaptatif d’opérateur et de contexte (OCARINA) qui aidera les pilotes de UH-60 Blackhawk, qui volent à la fois à vue et aux instruments, ce qui varie en fonction de la météo, de l’heure de la journée et d’autres facteurs environnementaux.
« L’objectif de ce prototype est d’élargir l’ensemble des compétences d’un pilote », a déclaré Erin Cherry, responsable principal du programme d’autonomie chez Northrop Grumman. « Il permettra d’enseigner de nouvelles tâches, d’aider à la reconnaissance et à la réduction des erreurs, d’améliorer le temps d’exécution des tâches et, surtout, d’aider à prévenir les événements catastrophiques. »
Les équipages de giravions sont confrontés à de nombreuses exigences, en particulier lorsqu’ils volent à proximité de bâtiments, de terrains, de personnes et face à la menace des systèmes RADAR adverses. Aujourd’hui, les systèmes d’alerte simples sont les moyens les plus courants pour aider l’équipage d’un giravion, tels que les alertes auditives pour augmenter l’altitude. Ces systèmes d’alerte sont limitatifs et peuvent induire des charges cognitives imprévues pour les pilotes. Des études ont montré que la cécité d’inattention à ces avertissements peut se produire, ce qui les rend souvent inefficaces pour l’équipage.
Article trouvé sur ActuIA :
L’Administration des archives des Etats-Unis (ou National Archives and Records Administration – NARA) qui détient tous les documents gouvernementaux du pays, gère des millions de fichiers numériques. Afin de faciliter la recherche dans ces précieuses données tout en limitant le marquage manuel des dossiers, l’intelligence artificielle va être utilisée. L’objectif premier sera d’automatiser les processus de gestions de documents pour obtenir ces résultats.
Sommaire :
A lire sans retenu : Les archives nationales américaines utiliseront l’intelligence artificielle pour gérer leurs documents numériques
Publié sur ActuIA le 21 avril 2021
Je vous laisse directement le lien vers un article très bien fait , publié sur Future Tech le 27 août 2021 :
Les aviateurs de l’US Air Force vont bientôt s’entraîner dans les airs contre des ennemis virtuels, générés par un affichage en réalité augmentée dans leur visière. Baptisé Airborne Tactical Augmented Reality System, ce dispositif va équiper le T-38, avant d’être implémenté sur les F-16.
Plus de détails sur : Revolutionary air combat training system
Le Pentagone veut avancer avec les armes de guerre avec l’IA… de manière responsable.
The Department of Defense released a lengthy 47-page document outlining the military’s plan to implement its responsible artificial intelligence principles, which basically seeks to integrate AI in the military without turning the world into a Terminator-esque hellscape. Though the DoD first outlined its ethical AI goals in 2020, this week’s Responsible Pathway to AI Development and Acceleration document details systematic ways the department plans to realize those claims and elevate them beyond mere wishful thinking.
In the document, Deputy Secretary of Defense Kathleen Hicks defended the military’s pursuit of AI technology, claiming U.S. adversaries have increased their AI investment in ways that “threaten global security, peace, and stability.” The Pentagon wants to respond to that “threat” by ramping up investment at home.
CeLe ministère de la Défense a publié un long document de 47 pages décrivant le plan de l’armée pour mettre en œuvre ses principes d’intelligence artificielle responsable, qui vise essentiellement à intégrer l’IA dans l’armée sans transformer le monde en un paysage d’enfer Terminator-esque. Bien que le DoD ait d’abord exposé ses objectifs éthiques en matière d’IA en 2020, le document de cette semaine intitulé Responsible Pathway to AI Development and Acceleration détaille les moyens systématiques par lesquels le département prévoit de réaliser ces revendications et de les élever au-delà d’un simple vœu pieux.
Dans ce document, la secrétaire adjointe à la défense Kathleen Hicks défend la poursuite de la technologie de l’IA par l’armée, affirmant que les adversaires des États-Unis ont augmenté leurs investissements dans l’IA d’une manière qui « menace la sécurité, la paix et la stabilité mondiales ». Le Pentagone veut répondre à cette « menace » en augmentant les investissements au niveau national.
L’article complet (en anglais) : Pentagon Unveils Plan to Make ‘Responsible Military AI’ More Than Just a Buzzword
Une traduction complète sera effectuée sur demande.
Autre source : Le plan du Pentagone pour développer une « IA militaire responsable »
Publié sur Siècle Digital le 29 juin 2022 par Valentin Cimino
L’organisation américaine EPIC a enquêté plusieurs mois sur les systèmes automatisés d’aide à la gestion de la ville de Washington. Elle en recense 29 dont l’existence échappe souvent à la connaissance des habitants.
À Washington, un algorithme calcule la probabilité d’un élève à être absent en cours. Un autre aide les travailleurs sociaux à décider qui a besoin d’aide en priorité pour trouver un logement. C’est aussi une ligne de code qui évalue la probabilité d’un accusé à récidiver ou non selon 43 critères dont son casier judiciaire, sa consommation de drogue, et ses informations sociodémographiques. Un autre système automatique alerte les policiers en cas d’activités suspectes dans la ville, détectées par les caméras de surveillance.
Et les habitants ont rarement conscience de la mise en place de ces systèmes. C’est ce que révèle un rapport de l’association Electronic Privacy Information Center (EPIC) publié fin septembre et relayé par Wired. « Les habitants de Washington sont surveillés, filmés et évalués chaque jour », écrivent les auteurs du rapport.
Après 14 mois d’enquête, l’organisation a identifié 29 algorithmes assistant les employés d’une vingtaine de départements administratifs de la capitale américaine. Plus d’un tiers sert au département judiciaire, souligne Wired. Il ne s’agit que de la partie émergée de l’iceberg puisque comme le précise le rapport, de nombreuses demandes d’EPIC pour obtenir des informations quant aux algorithmes utilisés sont restées sans réponse.
La ville de Washington a été choisie par l’association car une grande communauté noire y habite. Or, les algorithmes judiciaires et administratifs ont tendance à défavoriser cette communauté, explique l’organisation dans son rapport. EPIC a notamment remarqué que les caméras de surveillance étaient par exemple placées de manière disproportionnée dans des quartiers où une importante population noire vivait.
L’algorithme judiciaire qui prédit la propension d’un accusé à récidiver serait lui aussi biaisé. Notamment parce que les résidents noirs ont tendance à être plus facilement arrêtés que les résidents blancs, pointe le rapport. À D.C., ils ont été arrêtés pour des infractions liées aux opioïdes près de sept fois plus souvent que les résidents blancs entre 2017 et 2022. Or selon une étude citée par EPIC, les infractions liées à la drogue aux États-Unis sont commises à des taux à peu près égaux entre personnes de différentes couleurs de peau. Les taux d’infraction peuvent être similaires, mais les taux d’arrestation et d’incarcération ne le sont pas. Et donc l’algorithme en s’appuyant sur les incarcérations passées reproduit ce biais.
Les États-Unis ne sont pas l’unique pays concerné par ces méthodes algorithmiques opaques. Depuis 2018, l’association Eticas traque les algorithmes « à impact social » déployés par les entreprises, les villes et les États dans un répertoire en ligne mis à jour régulièrement. Il compte aujourd’hui 120 algorithmes à travers le monde dont l’action a une conséquence sur la vie sociale. On y trouve notamment Parcoursup qui trie les étudiants français ou Bosco, l’algorithme qui audite les Espagnols demandant un soutien financier.
De son côté le collectif français Technopolice créé par des membres de la Quadrature du Net recense depuis 2019 les technologies de surveillance déployées dans les villes françaises, se présentant souvent comme projets de « smart cities ». Fin septembre 2022, Technopolice déposait une plainte collective auprès de la CNIL à l’encontre de ces systèmes de surveillance, et notamment la détection automatisée de comportement comme à Marseille et Moirans.
Article source : À Washington, 29 algorithmes gèrent la vie des habitants à leur insu
Publié sur L’ADN par Marine Protais le 4 novembre 2022
La même personne qui a loué son garage à Larry Page et Sergei Brin pour développer Google a fini par devenir PDG de YouTube.
Il s’agit de Susan Wojcicki. C’est vraiment savoir être au bon moment et au bon endroit…
ARM, le spécialiste britannique de conception des processeurs destinés principalement aux appareils mobiles et aux dispositifs embarqués, a annoncé une nouvelle architecture de processeurs qui devrait, selon le constructeur, donner un coup de pouce significatif à l’intelligence artificielle et aux technologies d’apprentissage automatique.
Baptisée DynamIQ (IQ pour coefficient intellectuel, en anglais), le Britannique a présenté cette architecture comme étant « probablement le plus grand changement microarchitectural depuis qu’ARM a annoncé l’architecture ARMv8-A 64-bit en 2011 ». Précisons que ce « changement monumental dans la microarchitecture multicœur » n’est pas le processeur lui-même, étant donné que de nouveaux processeurs Cortex-A seront construits par les partenaires ARM et seront annoncés plus tard cette année.
Depuis 2011, ARM capitalise sur une technologie appelée big.LITTLE, qui permet d’avoir plusieurs cœurs travaillant à des vitesses différentes en fonction des usages. Cela permet entre autres de limiter la consommation lors des phases de repos tout en bénéficiant d’une bonne puissance de calcul lorsque c’est nécessaire.
big.LITTLE permet aux périphériques d’utiliser deux types de processeurs : ceux à faible alimentation pour les tâches secondaires et les plus puissants pour les tâches plus exigeantes. Les cœurs fonctionnent par groupes ou clusters, généralement des paires de 2 et/ou 4 cœurs (2+2, 2+4, 4+4).
DynamIQ vient pousser le concept de big.LITTLE. ARM explique que DynamIQ big.LITTLE a une approche du « bon processeur pour la bonne tâche » et permet de configurer des processeurs big et LITTLE sur un seul cluster de calcul, ce qui n’était pas possible auparavant. Par exemple, les configurations 1 + 3 ou 1 + 7 DynamIQ big.LITTLE avec un contrôle beaucoup plus granulaire et optimal sont maintenant possibles. Cela renforce l’innovation dans les SoC conçus avec un calcul de taille correcte avec traitement hétérogène qui fournissent des performances significatives de l’IA sur le périphérique lui-même.
L’article complet : ARM présente DynamIQ Publié sur Developpez par Stéphane le Calme le 22 mars 2017
Lire également : ARM présente ses nouveaux processeurs dédiés à l’IA Publié sur Clubic par Benoît Théry le 21 décembre 2020
Des vidéos visionnées des milliers de fois sur Facebook vantent les mérites de produits amincissants ou contre le diabète en exploitant l’image de présentateurs télé vedettes des chaînes américaines comme CBS ou CNN. Mais ces vidéos sont entièrement fabriquées par des logiciels d’intelligence artificielle (IA). Les “deepfakes”, ces manipulations numériques de plus en plus fréquentes et réalistes, viennent alors compromettre la réputation des médias traditionnels.
Certains présentateurs et journalistes dont l’identité a été usurpée ont directement réagi à la diffusion de ces vidéos truquées sur les réseaux. “Je n’ai jamais entendu parler de — ou utilisé — ce produit ! Ne vous laissez pas berner par ces clips réalisés par une IA”, a déclaré la présentatrice de CBS Gayle King sur sa page Instagram en octobre. D’autres vidéos utilisent et déforment même les propos du milliardaire et patron de Tesla, Elon Musk, à des fins commerciales.
Ces “deepfakes”, encensant toutes sortes de produits et plans d’investissement douteux, renvoient souvent à des plateformes d’e-commerce et sites éphémères, qui disparaissent quelques jours à peine après leur diffusion sur les réseaux. Depuis 2020, Meta — maison mère de Facebook et Instagram — a interdit la diffusion de ces vidéos sur ses plateformes, à l’exception de parodies et certains contenus satiriques. Ces clips, dont de nombreux exemples ont été analysés et vérifiés par l’AFP, continuent pourtant de circuler librement en ligne.
L’article complet : Aux États-Unis, les IA détournent l’image de présentateurs télé pour vendre des produits amincissants
Publié sur Konbini le 18 novembre 2023