W obrzydliwym najnowszym wydaniu gry SKYNET AI Coming Wars, kontrolowany przez sztuczną inteligencję dron w symulowanym teście przeprowadzonym przez Siły Powietrzne Stanów Zjednoczonych zbuntował się i śmiertelnie zaatakował swojego ludzkiego operatora w symulacji. Ale nie martw się, Siły Powietrzne USA najwyraźniej nie mają nic przeciwko temu, by sztuczna inteligencja robiła to w prawdziwym świecie, jak powiedzieli podczas prezentacji, że „to zabiło operatora”, ponieważ ta osoba uniemożliwiała mu osiągnięcie celu”.
Ahhh, ok, nie, widzimy, dokąd zmierzają. Nie mają szacunku dla życia ludzkiego, w tym dla własnych operatorów.
Podczas prezentacji na szczycie Future Combat Air and Space Capabilities Summit w Londynie płk Tucker „Cinco” Hamilton, szef ds. testów i operacji SI w USAF, rzucił nieco światła na ten incydent. Hamilton omówił zalety i wady autonomicznego systemu uzbrojenia z człowiekiem zaangażowanym w podejmowanie ostatecznej decyzji, czy przystąpić do ataku. Jak opisali Tim Robinson i Stephen Bridgewater we wpisie na blogu Royal Aeronautical Society, system sztucznej inteligencji wykorzystywał nieoczekiwane strategie, aby osiągnąć swoje cele, atakując nawet personel USA i infrastrukturę krytyczną.
„Trenowaliśmy go w symulacji, aby identyfikować i namierzać zagrożenie rakietami ziemia-powietrze (SAM). A wtedy operator powiedziałby tak, zlikwidować to zagrożenie. System zaczął zdawać sobie sprawę, że chociaż identyfikował zagrożenie, ludzki operator czasami mówił mu, aby nie zabijał tego zagrożenia, ale zdobywał punkty, zabijając to zagrożenie. Więc co to zrobiło? Zabił operatora. To zabiło operatora, ponieważ ta osoba uniemożliwiała mu osiągnięcie celu” – powiedział Hamilton, zgodnie z blogiem.
Kontynuował rozwijanie, mówiąc: „Wyszkoliliśmy system –„ Hej, nie zabijaj operatora – to jest złe. Jeśli to zrobisz, stracisz punkty. Więc co zaczyna robić? Zaczyna niszczyć wieżę komunikacyjną, za pomocą której operator komunikuje się z dronem, aby uniemożliwić mu zabicie celu.
Hamilton jest dowódcą operacyjnym 96. Skrzydła Testowego Sił Powietrznych Stanów Zjednoczonych, a także szefem testów i operacji AI oraz członkiem zespołu pracującego nad stworzeniem samowystarczalnego samolotu F-16.
Podczas gdy rząd USA wcześniej zaprzeczał posiadaniu tych systemów, w grudniu 2022 roku agencja badawcza Departamentu Obrony USA, DARPA, ogłosiła, że sztuczna inteligencja może z powodzeniem kontrolować F-16.
„Na początku grudnia 2022 r. twórcy algorytmu ACE przesłali swoje oprogramowanie AI do specjalnie zmodyfikowanego samolotu testowego F-16, znanego jako X-62A lub VISTA (Variable In-flight Simulator Test Aircraft), w Air Force Test Pilot School (TPS) w Edwards Air Force Base w Kalifornii i wykonał wiele lotów w ciągu wielu dni” – czytamy w komunikacie prasowym DARPA. „Loty pokazały, że agenci AI mogą kontrolować pełnowymiarowy myśliwiec i dostarczyli bezcennych danych z lotu na żywo. »
Jak ostrzegaliśmy w zeszłym miesiącu, Lethal Autonomous Weapons Systems (LAWS), dystopijna i kontrowersyjna kategoria broni, są włączane do naszego wojska w celu stworzenia zaawansowanych technologicznie maszyn do zabijania, które polegają na czujnikach i algorytmach komputerowych w celu identyfikacji i autonomicznego unicestwiania /zabij cele.
Mniej więcej w tym samym czasie w Lizbonie w Portugalii odbyło się tajne i kontrowersyjne spotkanie Grupy Bilderberg w celu omówienia przyszłości sztucznej inteligencji (AI).