L’IA est déjà intégrée à l. a. robotique, ce qui pourrait donner naissance à de nouvelles armes puissantes.

Crédit : U.S. Air Power/Airman 1re classe Isaiah Pedrazzini

L’intérêt pour l’intégration de robots dans les opérations de sécurité, de police et militaires n’a cessé de croître au cours des dernières années. C’est une voie déjà explorée en Amérique du Nord et en Europe.

L’incorporation de robots dans ces domaines peut être considérée comme similaire à l’inclusion de chiens dans les rôles policiers et militaires au XXe siècle. Les chiens servaient, entre autres, de gardes, de sentinelles, de porteurs de messages et de détecteurs de mines.

Les robots d’help, conçus pour jouer un rôle de soutien auprès des humains, imitent nos compagnons à quatre pattes non seulement dans leur forme, mais également dans leur fonction. Equipé d’une technologie de surveillance et succesful de transporter du matériel, des munitions, and so on. dans le cadre des chaînes de réapprovisionnement, il peut réduire considérablement le risque de préjudice pour les soldats humains sur le champ de bataille.

Cependant, les robots d’help prendront sans doute une autre measurement si on leur ajoute des systèmes d’armes. Essentiellement, ces avions deviendront des variantes au sol des drones MQ-9 Predator actuellement utilisés par l’armée américaine.

En 2021, Ghost Robotics a présenté l’un de ses robots à quatre pattes, appelé Q-UGV, qui était armé d’un fusil sans pilote à utilization spécial 4. L’événement de démonstration était centré sur l’armement de robots d’help.

Il est vital de noter remark chaque facet de cette fusion d’armes et de robots fonctionne différemment. Bien que le robotic lui-même soit semi-autonome et puisse être contrôlé à distance, l’arme montée n’a aucune capacité autonome et est entièrement contrôlée par l’opérateur.

En septembre 2023, le Corps des Marines des États-Unis a mené un check de validation de principe impliquant un autre robotic à quatre pattes. Ils ont mesuré ses capacités à « acquérir et poursuivre des cibles à l’aide d’une arme antichar légère M72 ».






Des Marines américains testent une arme antichar montée sur un robotic “Goat”.

Ce check a relancé le débat éthique sur l’utilisation de systèmes d’armes automatiques et semi-automatiques en temps de guerre. Ce ne serait pas un grand pas pour aucune de ces plates-formes d’intégrer l. a. détection des menaces basée sur l’IA et l. a. capacité de « se verrouiller » sur des cibles. En fait, des systèmes de imaginative and prescient de ce sort sont déjà disponibles sur le marché libre.

En 2022, 12 grandes entreprises de robotique ont signé une lettre ouverte hébergée sur le website Internet de Boston Dynamics, qui a créé un robotic polyvalent ressemblant à un chien appelé Spot. Dans l. a. lettre, les entreprises s’opposent à l. a. militarisation des robots disponibles dans le trade.

Cependant, l. a. lettre indique également que les entreprises ne s’opposent pas aux « applied sciences existantes utilisées par les États et leurs agences gouvernementales pour se défendre et faire respecter leurs lois ». À ce stade, il convient de se demander si le cheval n’a pas déjà pris du retard en termes d’armement de l’IA. Des systèmes d’armes dotés de applied sciences intelligentes intégrées dans des robots sont déjà utilisés au battle.

Ce mois-ci, Boston Dynamics a publié une vidéo montrant remark l. a. société a ajouté le chatbot ChatGPT alimenté par l’IA à son robotic Spot. On peut voir l. a. system répondre aux questions et aux conversations menées par l’un des ingénieurs de l’entreprise en utilisant plusieurs « personnalités » différentes, comme un majordome anglais. Les réponses viennent du chatbot IA, mais Spot prononce les mots.

Il s’agit d’une avancée majeure pour l’industrie, et potentiellement sure. Mais même si Boston Dynamics tient sa promesse de ne pas utiliser ses robots comme armes, d’autres sociétés pourraient ne pas ressentir l. a. même selected. Il existe également un risque que ces robots soient utilisés à mauvais escient par des personnes ou des organisations dépourvues de sens ethical. Comme le notice l. a. lettre ouverte : « Dans l. a. mesure du imaginable, nous examinerons attentivement les packages prévues par nos purchasers pour éviter une militarisation potentielle. »

Place du Royaume-Uni

Le Royaume-Uni a déjà pris place sur l. a. militarisation de l’IA à travers l. a. Protection AI Technique, publiée en 2022. Le file exprime l’goal d’intégrer rapidement l’IA dans les systèmes du ministère de l. a. Défense pour renforcer l. a. sécurité et moderniser les forces armées.






Boston Dynamics a ajouté ChatGPT à son chien robotic, Spot.

Il convient toutefois de noter que l’annexe au file stratégique reconnaît spécifiquement les défis potentiels associés aux systèmes d’armes létaux autonomes.

Par exemple, des données du monde réel sont utilisées pour « former » ou améliorer les systèmes d’IA. Avec ChatGPT, ces informations sont collectées sur Web. Même si elles aident les systèmes d’IA à devenir plus utiles, toutes ces informations du « monde réel » peuvent également transmettre de fausses hypothèses et des préjugés au système lui-même. Cela peut conduire à des biais algorithmiques (où l’IA favorise un groupe ou une choice par rapport à un autre) ou à des réponses inappropriées et disproportionnées de l. a. section de l’IA. En tant que telles, les données d’entraînement typiques pour les systèmes d’armes doivent être soigneusement examinées dans une optique de guerre éthique.

Cette année, l. a. Chambre des Lords a créé une fee spéciale sur l’intelligence artificielle dans les systèmes d’armes. Sa challenge est de découvrir remark les forces armées peuvent tirer benefit du progrès technologique, tout en minimisant les risques grâce à l. a. mise en œuvre de garanties ways, juridiques et éthiques. L’adéquation de l. a. politique britannique et de l’élaboration des politiques internationales est également examinée.

Les chiens robotiques ne pointent pas encore leurs armes sur les forces opposées. Mais tous les éléments sont réunis pour que ce scénario devienne une réalité, si rien n’est fait. Le rythme rapide du développement de l’intelligence artificielle et de l. a. robotique crée une tempête parfaite qui pourrait déboucher sur de nouvelles armes puissantes.

Le récent sommet sur l. a. sécurité de l’IA qui s’est tenu à Bletchley Park a european des résultats positifs en termes de réglementation de l’IA, tant au Royaume-Uni qu’à l’échelle internationale. Cependant, des signes de divergence philosophique sont apparus entre les objectifs du sommet et ceux du Comité sur l’intelligence artificielle dans les systèmes d’armes.

Le sommet visait à définir l’intelligence artificielle, à évaluer ses capacités et ses limites et à créer un consensus mondial concernant son utilisation éthique. Il a cherché à le faire par le biais d’une annonce, un peu comme l. a. lettre ouverte de Boston Dynamics. Cependant, aucun d’eux n’est contraignant. L. a. Fee cherche à intégrer l. a. technologie de manière claire et rapide, tout en respectant l’éthique, l. a. réglementation et le droit world.

L’utilisation répétée du terme « garde-fous » en relation avec le Sommet de Bletchley et sa Déclaration suggère des engagements volontaires. Le Premier ministre britannique Rishi Sunak a déclaré que les will pay ne devraient pas se précipiter pour réglementer.

L. a. noblesse de telles déclarations diminue à l. a. lumière de l’enthousiasme de certains partis à intégrer l. a. technologie dans les plates-formes d’armes.

Creation à l. a. dialog

Cet article est republié à partir de The Dialog sous une licence Ingenious Commons. Lisez l’article unique.

l. a. quotation: L’IA est déjà intégrée aux robots – et l’un des résultats pourrait être de nouvelles armes puissantes (16 novembre 2023) Récupéré le 16 novembre 2023 sur

Ce file est soumis au droit d’auteur. Nonobstant toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.