Algorytm rozpoznający obrazy figurkę żółwia wziął za karabin. Inny karabin pomylił z... helikopterem. Sztuczna inteligencja grająca w grę wyścigową odkryła, że najlepszy wynik osiągnie, rezygnując ze ścigania i zamiast tego rozbijając się o przeszkody. Roomba uznała, że najlepszym sposobem na sprzątanie mieszkania bez wpadania na meble będzie robienie tego tyłem z maksymalną prędkością, bo czujniki zderzeń umieszczone są z przodu urządzenia. Wojskowy robot-zwiadowca dał się podejść żołnierzowi, który schował się w wielkim, kartonowym pudle. Mała naklejka na znaku drogowym sprawiła, że Tesla w strefie z ograniczeniem do 35 mil na godzinę rozpędziła się do 85.
To wszystko prawdziwe przypadki tego, jak łatwo można nabrać “zaawansowane" algorytmy “sztucznej inteligencji". I jak one same mogą wprowadzić w osłupienie własnych twórców. Może z wyjątkiem rozpędzonej Tesli, wszystkie powyższe przypadki można byłoby uznać za komiczne i trywialne. Problem w tym, że niemal takie same algorytmy, prezentujące raczej sztuczną głupotę niż sztuczną inteligencję, wkrótce będą zabijać ludzi nie pytając nikogo o zdanie.
Historyjka opowiedziana przez pułkownika Hamiltona była niemal na pewno zmyślona. Przeraziła jednak ludzi na tyle, że w ciągu kilkudziesięciu godzin zagościła w większości światowych mediów.
Hamilton, szef testów i operacji sztucznej inteligencji United States Air Force, podzielił się anegdotką na spotkaniu brytyjskiego Królewskiego Stowarzyszenia Aeronautycznego. Według wojskowego, podczas jednego z testów, sterowany przez AI dron, którego zadaniem było niszczenie wrogich stanowisk obrony przeciwlotniczej, miał zaatakować własnego operatora.
Powodem miało być to, że algorytm maszyny nauczono, że jej zadaniem jest zdobycie jak największej liczby punktów - a punktowane było niszczenie sprzętu wroga. Tyle że czasami zdalny operator miał z różnych powodów powstrzymywać ją przed zrzucaniem bomb. "Co więc zrobiła? Zabiła operatora, bo to on zapobiegał wykonaniu przez nią zadania" mówił Hamilton. Kiedy maszynie wyraźnie zabroniono z kolei zabijania pilota, ta zdecydowała się zniszczyć.. maszt radiowy za pomocą, którego wysyłano jej komendy.
Po pierwszych publikacjach zarówno Hamilton jak i USAF szybko zaczęły zaprzeczać, jakoby taki test w ogóle miał kiedykolwiek miejsce. Całość miała być tylko "eksperymentem myślowym" wyjaśniającym zawiłości etyki stosowania autonomicznej, działającej bez lub jedynie z ograniczonym nadzorem człowieka broni.
"Departament Sił Powietrznych nie przeprowadził podobnych symulacji z dronami sterowanymi przez AI i jest zdecydowany stosować technologie AI w sposób etyczny i odpowiedzialny" stwierdziła rzeczniczka amerykańskich sił powietrznych Ann Stefanek.
Scenariusz przedstawiony przez Hamiltona faktycznie wydawał się nieco naciągany. Skąd dron miał wiedzieć, kto jest jego operatorem? Skąd miał wiedzieć, że akurat ta antena wysyła mu komendy?
Ale cała historyjka może mieć drugie dno. Nie była przestrogą. Była reklamą. Mówiła: sztuczna inteligencja jest groźna, ale jest też bardzo potężna. Jak pisze amerykański autor Cory Doctorow, "dron, który jest dość inteligentny, by “zdawać sobie sprawę", że w wykonaniu zadania, jakim jest zabijanie wrogów, przeszkadza człowiek w konkretnej wieży kontroli lotów, to bardzo inteligentny dron. Wystarczy trochę go doszlifować i wysłać na pole bitwy".
Według jej promotorów, autonomiczna, sterowana przez sztuczną inteligencję broń ma być rewolucją równie wielką, co wprowadzenie na wyposażenie wojska karabinów maszynowych czy czołgów. Dziś najbardziej zaawansowane drony wyszukują cele, ale rozkaz do ataku musi wydać im człowiek. W przyszłości o życiu i śmierci decydować będzie sterujący maszyną algorytm.
To ma mieć wiele zalet. Przede wszystkim taką, że autonomiczna maszyna ma być w stanie podejmować decyzje zdecydowanie szybciej od człowieka. Jeśli na polu bitwy spotkają się dwa czołgi, zwycięsko z takiego starcia zazwyczaj wyjdzie ten, który pierwszy odda celny strzał. Nawet ułamek sekundy zawahania się może kosztować załogę życie. Komputer się nie zawaha.
Wojskowi nie mogą się doczekać. Wg. raportu amerykańskiego Government Accountability Office, tamtejszego odpowiednika NIK, Pentagon na programy budowy autonomicznej broni wydał w 2019 r. 89 mln dol. W 2021 r. już 278 mln. Wśród programów opracowywanych w USA są m.in. “Skyborg", który ma stworzyć “wirtualnego pilota", który będzie w stanie przejąć stery dronów czy myśliwców F-35 bez udziału człowieka, czy "Tank X", czyli bezzałogowy, autonomiczny czołg.
Amerykanie są jednak tylko jednym z wielu graczy. Choć oficjalnie żaden w pełni autonomiczny system uzbrojenia nie wszedł jeszcze na wyposażenie wojska, prace wrą w Europie, Chinach, Rosji, Turcji i wielu nawet niezbyt zamożnych krajach. Wszystko dzięki temu, że tworząc inteligentną broń, inżynierowie mogą opierać się na "cywilnych" doświadczeniach z AI taką jak ChatGPT.
Raport dotyczący AI opracowany w ubiegłym roku przez Uniwersytet Stanforda stwierdził, że koszt prowadzenia badań nad systemami rozpoznawania obrazu - które mogą służyć równie dobrze do tworzenia inteligentnych odkurzaczy co robotów - zabójców - spadły od 2015 r. o 63 proc., a czas opracowywania systemów spadł o 94 proc. "Podobne technologie opracowuje już wiele państw" mówił agencji AP Zachary Kallenborn, ekspert ds. innowacyjnych systemów uzbrojenia z George Mason University. "To ewidentnie nie jest wcale bardzo trudne".
W 2017 r. Władimir Putin stwierdził, że ktokolwiek zdominuje tę technologię, zdominuje świat. "Najskuteczniejsze systemy uzbrojenia to te, które działają szybko i skutecznie w trybie automatycznym".
Zwolennicy autonomicznej broni uspokajają, że będzie ona bardziej humanitarna i bezpieczniejsza. Robot nie ulega emocjom. Robot się nie boi, nie nienawidzi, nie mści. Nie ostrzela w panice autobusu z uchodźcami. O tym, że rzeczywistość nie jest tak idealna, wielokrotnie przekonywali się już jednak sami wojskowi.
Doskonałą ilustracją tego faktu jest eksperyment opisany w książce "Four Battlegrounds: Power in the Age of Artificial Intelligence," przez byłego analityka Pentagonu Paula Scharre. Podczas jednego z testów prowadzonych przez DARPA, amerykańską agencję ds. zaawansowanych programów wojskowych, grupa marines dostała za zadanie uniknąć wykrycia przez robota-wartownika, którego algorytmy nauczono wykrywania ludzi.
Robot stał w szczerym polu, na środku ronda, więc nie dało się do niego zakraść, czołgając się między krzakami. Mimo to, wszystkich ośmiu marines, którym polecono go zaskoczyć, zdołało podejść do maszyny i dotknąć ją bez wykrycia.
Jeden z nich miał powoli przesuwać się w stronę robota, udając drzewo. Dwóch uniknęło wykrycia, bo zamiast podejść do robota, pokonało 300-metrowy dystans, wykonując serię salt. Dwóch kolejnych ukryło się pod wielkim, kartonowym pudłem i podeszło do robota, chichocząc przez całą drogę.
"AI nauczono wykrywania chodzących ludzi" pisze autor. "A nie ludzi robiących salta czy chowających się pod pudełkiem. Proste sztuczki, które przejrzałby każdy człowiek, wystarczyły, by przełamać algorytm". DARPA nie zaprzeczyła temu, że incydent faktycznie miał miejsce. Jej rzecznik stwierdził jedynie, że "pozostaje dużo do zrobienia".
Eksperyment brzmi komicznie, ale ilustruje poważny problem. Algorytmy można przechytrzyć. Można je też ogłupić, stosując proste sztuczki i zmusić do zrobienia rzeczy, których nie chcą ich twórcy. Algorytm może wziąć dziewczynkę ze skakanką za uzbrojonego żołnierza, może pomylić karetkę z czołgiem. Wystarczy, że światło będzie świeciło ze złej strony, albo że wzorek na spódniczce algorytm uzna za wojskowe moro. AI nie jest zimnym, logicznym i niezawodnym arbitrem życia i śmierci. Jest programem komputerowym, który popełnia i będzie popełniać głupie błędy.
Desperackie czasy popychają jednak ludzi do desperackich rozwiązań. Eksperci przestrzegają, że, mimo że autonomiczna broń jest potencjalnie niebezpieczna dla wszystkich z jej użytkownikami włącznie, wojna w Ukrainie może stać się pierwszym konfliktem, na którym maszyny zaczną zabijać, nie czekając na rozkaz. Im dłużej trwa konflikt, im więcej żołnierzy ginie na froncie, im bardziej obie strony grzęzną w miejscu, tym większe prawdopodobieństwo, że ktoś spuści AI ze smyczy.
"To logiczny i nieunikniony następny krok" mówił w styczniu ukraiński minister ds. transformacji cyfrowej Mychaiło Fedorow. "Ukraina prowadzi w tej dziedzinie wiele badań. Myślę, że istnieje duży potencjał na to, że zostaną sfinalizowane w ciągu najbliższych sześciu miesięcy"
Ukraina już jest o krok od stosowania podobnych systemów. Nad polami bitew krążą już zarówno ukraińskie jak i rosyjskie "drony-kamikadze" - formalnie określane terminem "amunicja krążąca". Te niewielkie, tanie pojazdy mogą przez kilka godzin patrolować wskazany obszar i wyszukiwać cele. Kiedy operator wskaże jeden z nich, dron nurkuje w jego stronę i detonuję wybuchową głowicę. Wyeliminowanie człowieka z tego procesu byłoby wyjątkowo proste - maszyna po prostu mogłaby atakować pierwszy "czołg", który wypatrzy - lub wydaje jej się, że wypatrzyła.
"Technologia, która pozwalałaby naszym dronom na w pełni autonomiczne działanie, w zasadzie już istnieje" mówi AP Wahid Nawabi, prezes firmy AeroVironment produkującej stosowane przez Ukrainę amerykańskie drony-kamikadze Switchblade.
Rosja miała już wysłać na pole walki jedną autonomiczną maszynę. Na zdjęciach udostępnionych w marcu zeszłego roku na Telegramie, Ukraińcy pokazywali wrak drona KYB-BLA produkowanego przez należącą do koncernu Kałasznikowa firmę ZALA Aero. Dron, zdaniem producenta, ma być zdolny do atakowania celów w trybie w pełni autonomicznym. Nie wiadomo jednak, czy faktycznie ten tryb został uaktywniony. Co więcej, eksperci twierdzą, że “sztuczna inteligencja" Kałasznikowa to tylko marketing. Gregory C. Allen z Centrr for Strategic and International Studies twierdzi, że systemy identyfikacji celu wykorzystywane przez drona wykorzystują algorytmy wcześniej szkolone na potrzeby... rolnictwa.
Ale techniczne problemy ze sztuczną inteligencją nie są jedynym, co spędza sen z oczu aktywistów, którzy starają się powstrzymać marsz robotów-zabójców. I nie chodzi nawet o "dehumanizację" czy etykę oddawania decyzji dotyczących życia i śmierci kawałkowi komputerowego kodu.
Problemy są natury politycznej, strategicznej i prawnej. Prawnej, bo dziś w prawie międzynarodowym (a i w kodeksach karnych żadnego z państw) nie ma żadnych przepisów, które regulowałyby kwestie stosowania autonomicznej broni. Kto będzie odpowiedzialny, jeśli dron-kamikadze przez pomyłkę wysadzi w powietrze furmankę wraz z pasażerami? Producent drona? Żołnierz, który go wystrzelił? Jego dowódca? Programista? Sam dron?
Większym problemem może być jednak problem geopolityczny. Jedną z głównych ról sił zbrojnych jest odstraszanie. Przeciwnik nie zaatakuje nas, jeśli uzna, że taki atak byłby nieopłacalnie kosztowny. Tanie, wszechobecne drony zmniejszają (pozornie) koszt agresji. Jednocześnie jednak pozbawiają ludzi kontroli nad tym, co dzieje się na polu bitwy, co rodzi ryzyko szybkiej eskalacji konfliktu, zwłaszcza jeśli podobną stroną dysponują obie strony. Mały konflikt może błyskawicznie zmienić się w niszczycielską wojnę totalną.
Po trzecie, broń autonomiczna ma być stosunkowo tania. A to oznacza, że stać na nią będzie nie tylko nawet niezbyt zamożne państwa, ale i innych “graczy", takich jak organizacje terrorystyczne czy partyzantki. "Jeśli nie będziemy ostrożni, taka broń może upowszechnić się o wiele łatwiej niż broń jądrowa" - pisze Toby Walsh, autor książki "Machines Behaving Badly" i działacz organizacji prowadzących kampanie przeciw broni autonomicznej. “Jeśli potrafimy zrobić maszynę, która zabije jednego człowieka, to potrafimy sprawić, żeby zabiła tysiąc ludzi". Największe obawy budzi fakt, że wyposażone w algorytmy rozpoznawania ludzkich twarzy drony mogą posłużyć do precyzyjnego zabijania konkretnych ludzi, np. należących do określonych grup etnicznych. Prowadzić efektywne, algorytmiczne ludobójstwo.
Sekretarz Generalny ONZ Antonio Guteress wielokrotnie nazywa broń autonomiczną "moralnie odpychającą" i "politycznie nie do zaakceptowania". Parlament Europejski dwukrotnie przegłosował rezolucje wzywające do objęcia jej globalnym traktatem. Czerwony Krzyż wzywa do zapisania w prawie międzynarodowym - reguł dotyczących jej stosowania. W sumie do stworzenia traktatu w sprawie robotów-zabójców wzywa ponad 90 państw.
Tyle że nic z tego nie wynika. Co prawda prace nad traktatem trwają już od 2014 r., ale od lat nie osiągnięto w tej kwestii niczego. Dziewięć lat dyskusji w ramach tzw. Konwencji o Zakazie lub Ograniczeniu Pewnych Broni Konwencjonalnych dowiodły jedynie, że państwa takie, jak USA i Rosja absolutnie nie są zainteresowane zakazami. Wyścig zbrojeń jest ważniejszy niż upewnienie się, że ten dżinn pozostanie zamknięty w butelce.
A to oznacza, że algorytmy, które z trudem radzą sobie z odkurzaniem mieszkania, mogą wkrótce zacząć podejmować najważniejsze decyzje na świecie. Wojna zawsze była nieludzka. Teraz stanie się nieludzka w zupełnie nowy sposób.