Dans le dernier tournant écœurant des guerres à venir de SKYNET AI, un drone contrôlé par l’IA lors d’un test simulé mené par l’US Air Force est devenu un voyou et a mortellement attaqué son opérateur humain dans la simulation. Mais ne vous inquiétez pas, l’US Air Force est apparemment d’accord avec le fait que l’IA fasse cela dans le monde réel, comme ils l’ont dit lors d’une présentation selon laquelle « cela a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif ».
Ahhh, ok non on voit où ils vont. Ils n’ont aucun respect pour la vie humaine, y compris leurs propres opérateurs.
Lors d’une présentation au Future Combat Air and Space Capabilities Summit à Londres, le colonel Tucker « Cinco » Hamilton, chef des tests et des opérations d’IA de l’USAF, a fait la lumière sur l’incident. Hamilton a discuté des avantages et des inconvénients d’un système d’arme autonome avec un humain impliqué dans la prise de décision finale sur l’opportunité de procéder à une attaque. Comme l’ont décrit Tim Robinson et Stephen Bridgewater dans un article de blog pour la Royal Aeronautical Society, le système d’IA a utilisé des stratégies inattendues pour atteindre ses objectifs, ciblant même le personnel américain et les infrastructures critiques.
«Nous l’entraînions en simulation pour identifier et cibler une menace de missile sol-air (SAM). Et puis l’opérateur dirait oui, tuez cette menace. Le système a commencé à réaliser que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu’est-ce que ça a fait? Il a tué l’opérateur. Cela a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif », a déclaré Hamilton, selon le blog.
Il a continué à élaborer, en disant: «Nous avons formé le système –« Hé, ne tuez pas l’opérateur – c’est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu’est-ce que ça commence à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone pour l’empêcher de tuer la cible.
Hamilton est le commandant des opérations de la 96e escadre de test de l’US Air Force ainsi que le chef des tests et des opérations d’IA et fait partie d’une équipe qui travaille à rendre les avions F-16 autonomes.
Alors que le gouvernement américain avait auparavant nié avoir ces systèmes, en décembre 2022, l’agence de recherche du département américain de la Défense, la DARPA, a annoncé que l’IA pourrait contrôler avec succès un F-16.
« Début décembre 2022, les développeurs d’algorithmes ACE ont téléchargé leur logiciel d’IA dans un avion d’essai F-16 spécialement modifié connu sous le nom de X-62A ou VISTA (Variable In-flight Simulator Test Aircraft), à l’Air Force Test Pilot School (TPS) à Edwards Air Force Base, en Californie, et a effectué plusieurs vols sur plusieurs jours », a déclaré un communiqué de presse de la DARPA. « Les vols ont démontré que les agents de l’IA peuvent contrôler un avion de chasse à grande échelle et ont fourni des données de vol en direct inestimables. »
Comme nous l’avions prévenu le mois dernier, les systèmes d’armes autonomes létaux (LAWS), une catégorie d’armes dystopique et controversée, sont intégrés dans notre armée dans le but de créer des machines à tuer de haute technologie qui s’appuient sur des capteurs et des algorithmes informatiques pour identifier et anéantir de manière autonome /tuer des cibles.
À peu près à la même époque, la réunion secrète et controversée de Bilderberg a été organisée à Lisbonne, au Portugal, pour discuter de l’avenir de l’intelligence artificielle (IA).