INTERIA.PL Pixabay
Wojciech Brzeziński 05:00 08.05.21

Czy grozi nam bunt maszyn?

P

P iłka odbiła się od metalowej dłoni i spadła na podłogę, tocząc się w kąt. Początkowo bez jakiejkolwiek reakcji ze strony robota. Dopiero dwie sekundy później metalowe palce zacisnęły się, próbując schwytać obiekt, którego dawno już tam nie było. Pierwsze próby wyglądały nieporadnie, ale wkrótce system stał się sprawniejszy. Opóźnienie między dostrzeżeniem spadającego obiektu a zaciśnięciem palców zmniejszyło się wraz z kolejnymi lekcjami, z dwóch i pół sekundy do 0,2 sekundy. Maszyna uczyła się reagować tak jak człowiek.

Reklama

Fakt, że zbudowany w Korei robot nauczył się łapać piłeczkę, może nie robić wstrząsającego wrażenia w czasach, w których "sztuczna inteligencja" pisze powieści, wysyła ludzi do więzienia czy pilotuje statki kosmiczne. Ale ten eksperyment może otworzyć nową drogę do tworzenia inteligentnych programów i robotów, które myślą w sposób zbliżony do naszego. W przeciwieństwie do wielu stosowanych dziś algorytmów, które "inteligencją" nazywają sprytne sposoby na wyłuskiwanie danych z gigantycznych baz. 

Koreański system próbuje symulować działanie naszego mózgu. Fotodioda przetwarza światło na impulsy elektryczne, symulując działanie oka. Tranzystor udaje synapsę, a obwód scalony odtwarza działanie neuronu. System z czasem uczy się zaciskać podłączoną do niego dłoń, gdy wykryje ruch spadającej piłki i działa w sposób podobny do tego, jak przetwarzane są obrazy odbierane przez nasze własne oczy. Maszyna uczy się reagować na bodźce, a nie tylko szukać odpowiedzi na problem w wewnętrznej bazie danych. W magazynie "New Scientist" Jonathan Aitken z Uniwersytetu Sheffield tłumaczy: 

Życie tworzone w laboratorium

Reklama

Marzenie o tworzeniu sztucznego życia towarzyszyło człowiekowi od zawsze. Od mitu o Talosie, wielkim, mechanicznym człowieku z brązu, który miał bronić brzegów starożytnej Krety, przez Pigmaliona, który zakochał się w stworzonej przez siebie rzeźbie, ożywionej następnie przez Afrodytę, po barona Frankensteina, który rzucił prometejskie wyzwanie śmierci. Tworzenie inteligentnych istot było czasem traktowane jako obietnica, czasem jako nadzieja, czasem jako przestroga. Teraz wydaje się, że te mitologiczne i popkulturalne przykłady są traktowane przede wszystkim jako wskazówki i instrukcje na przyszłość. 

Mamy pewne sukcesy w tworzeniu od zera życia biologicznego. Zespół bioinżynierów z Uniwersytetu Stanforda pod kierunkiem prof. Elizabeth Strychalski ogłosił pod koniec kwietnia, że udało im się stworzyć bakterie, których kod genetyczny złożony z zaledwie 480 genów napisali od zera, które rozmnażały się w laboratorium dokładnie tak jak naturalne. Ale o ile bioinżynieria wydaje się być dopiero na początku drogi do przyszłości rodem z science-fiction, o tyle sztuczna inteligencja wydaje się tam docierać już dziś. 

Europejska Agencja Kosmiczna ogłosiła właśnie, że AI będzie sterowała ruchami satelitów tak, by unikały one orbitalnych śmieci. Inna sztuczna inteligencja pilotowała właśnie pierwszy w historii helikopter na Marsie, bo przy 20-minutowym opóźnieniu nie mógł tego zrobić zdalnie żaden człowiek. Bliżej nas, AI nauczyła się flirtować (dość mizernie, choć stwierdzenie "masz najpiękniejsze kły, jakie kiedykolwiek widziałem", ma swój urok), japoński algorytm zaprojektowany do rozpoznawania różnych typów drożdżówek nauczył się rozpoznawać raka na tomografiach, a generujący tekst algorytm GPT-3 napisał, wspólnie z ludzkim współautorem K. Allado-Mcdowell, swoją pierwszą powieść. To informacje zaledwie z ostatnich trzech tygodni. 

Łatwo można by założyć, że jesteśmy u progu rzeczywistości rodem z Matrixa lub przynajmniej z Cyberpunka 2077. Że lada chwila komputer, przed którym siedzimy, zapyta nas niewinnie: "kiedy będzie kompot?". Ale sami naukowcy zajmujący się sztuczną inteligencją, przestrzegają przed takim upraszczaniem sprawy. 

Czeka nas bunt maszyn?

Prof. Melanie Mitchell ze słynnej "fabryki geniuszy", czyli Instytutu Santa Fe, opublikowała właśnie pracę pt. "Dlaczego AI jest trudniejsza niż myślimy", w której rozprawia się z mitami na temat sztucznej inteligencji.

Pierwszym błędem, który robią ludzie, pisze Mitchell, jest zakładanie, że inteligencja wąska leży w tym samym kontinuum co inteligencja ogólna - czyli, że jeśli nasze komputery będą uczyły się coraz lepiej tłumaczyć norweski na chorwacki, czy coraz skuteczniej rozpoznawać na zdjęciach Fafika, to prędzej czy później uzyskają świadomość. Tymczasem większość największych osiągnięć sztucznej inteligencji, z którymi mamy do czynienia, odnosi się właśnie do takich bardzo wąskich zakresów wiedzy i umiejętności. "Jeśli ludzie widzą, że maszyna robi coś niesamowitego w takim wąskim obszarze, często zakładają, że jesteśmy o wiele bliżej ogólnego AI". Ogólna sztuczna inteligencja to taka, która jest w stanie odtworzyć całe działanie naszego mózgu. I, tak jak nasz mózg, potrafiąca rozwalać dowolny problem, a nie tylko ten, do którego została zaprojektowana. 

Większość dzisiejszych "sztucznych inteligencji" to tak naprawdę algorytmy wyszukujące ukrytych wzorów w gigantycznych bazach danych. Przykładowo, żeby rozpoznać kota na zdjęciu, algorytm dostaje do przejrzenia tysiące czy miliony zdjęć oznaczonych "tu jest kot" i "tu nie ma kota". Maszyna sama wybiera sobie kryteria, według których uczy się odróżniać zdjęcia z kotem od zdjęć z psem czy świnką morską. Najlepsze algorytmy będą potem w stanie rozpoznać kota - lub jego brak - na każdym kolejnym pokazanym mu zdjęciu. Ale nigdy nie rozpozna na przykład konia. Do tego będzie potrzebny osobny algorytm, uczony zupełnie niezależnie. Tak samo uczy się komputery tłumaczenia języków, rozpoznawania znaków drogowych, czy rozpoznawania raka na zdjęciach rentgenowskich.  

Słowem, najprawdopodobniej jeszcze długo nie grozi nam bunt superinteligentnych maszyn, motyw tak kochany przez Hollywood. Choć trzeba przyznać, że tu zdania są podzielone, bo pracujący dla Google futurolog Ray Kurtzweil przewiduje, że "osobliwość", czyli moment, w którym inteligencja komputerowa przewyższy ludzką, nastąpi około 2049 roku. Nie oznacza to jednak, że na dziś AI - niezwykle pomocna i zmieniająca świat na lepsze w wielu dziedzinach - nie może stanowić problemu w innych. 

I tak, z jednej strony algorytmy wspomagają dziś precyzyjną medycynę, ułatwiają poruszanie się w sieci, kierują samochodami bez kierowcy czy pomagają monitorować stan planety. Z drugiej, wspomagają masowe szpiegowanie ludności przez autorytarne państwa, sterują nowymi, na wpół niezależnymi od człowieka broniami, wreszcie podejmują decyzje, które mogą rujnować ludzi, nie dając im prawa obrony - na przykład, kiedy wykorzystywane są w procesach rekrutacyjnych, do przyznawania bankowych pożyczek, czy też rekomendując sędziom wyroki, które powinny zapadać w konkretnych sprawach. To ostatnie to nie fantastyka. Już od ponad pięciu lat program COMPAS wspomaga pracę amerykańskich sędziów, typując oskarżonych, którzy jego zdaniem stwarzają największe ryzyko recydywy. Śledztwo ProPublica wykazało, że bez względu na typ rozpatrywanej sprawy, system wskazuje czarnych podsądnych jako potencjalnie niebezpiecznych dwukrotnie częściej niż białych. 

Dwa problemy

Z działaniem sztucznej inteligencji wiążą się dwa problemy. Z pozoru sprzeczne, w praktyce nierozerwalnie ze sobą powiązane. Z jednej strony "inteligentne" systemy mogą być dla nas groźne, gdy działają źle. Z drugiej - gdy działają zbyt dobrze. 

Systemy, które mogą obdzierać nas z prywatności, podglądać nasze życie i składać na nasz temat raporty - czy to agencji reklamowej, czy agencji wywiadu - stanowią już dziś realne i bardzo niebezpieczne zagrożenie. W Chinach obywateli podgląda już ponad 600 milionów kamer wyposażonych w systemy rozpoznawania twarzy, a ich obserwacje, w porównaniu z tysiącami innych danych, mają służyć nadawaniu każdemu "kredytu społecznego", od którego może zależeć znalezienie pracy, szkoły dla dziecka czy wręcz to, czy kasjerka sprzeda mu bilet na pociąg. 

Z drugiej strony, jeśli system błędnie rekomenduje wsadzenie do więzienia niewinnego człowieka, bo "tak wyszło z danych" to, rzecz jasna równie wielki problem. Zwłaszcza że ze swojej natury takie systemy często nie są w stanie pokazać swojego toku rozumowania, kierując się znanymi wyłącznie sobie kryteriami. Prawdziwym problemem jest jednak nie program sam w sobie, a to, że ludzie bezkrytycznie takich podpowiedzi słuchają. Jesteśmy przyzwyczajeni do tego, że komputer jest nieomylny. Skoro algorytm rekomendacyjny potrafi, analizując nasze dotychczasowe zachowanie, podpowiedzieć nam film czy piosenkę, która nam się spodoba, to dlaczego algorytm sądowy nie miałby być równie skuteczny w typowaniu przestępców? 

- Prawdziwym zagrożeniem nie jest to, że inteligentniejsze od nas maszyny przejmą stery naszego przeznaczenia - pisze filozof świadomości Daniel Dennett. - Prawdziwym zagrożeniem jest to, że sami przekażemy bezmyślnym maszynom władzę dalece przekraczającą ich kompetencje. 

Co proponuje Komisja Europejska?

Do niedawna rozwój sztucznej inteligencji przebiegał w sposób w zasadzie niekontrolowany. Pewnie, istniały etyczne wytyczne, mówiące o tym co wolno, a czego raczej nie, ale były one często na tyle elastyczne, że algorytmy zagroziły już niemal wszędzie. 

Unia Europejska chce jednak lepszej kontroli nad potencjalnie niebezpiecznymi zastosowaniami sztucznej inteligencji. Proponowany przez Komisję Europejską dokument zakłada, że zakazane w Unii będzie stosowanie AI do manipulowania ludźmi "na sposoby niekorzystne dla nich", prowadzenie masowej inwigilacji czy tworzenie systemów "kredytu społecznego". Pozostałe zastosowania dokument dzieli na "wysokiego ryzyka" - takie jak systemy odpowiadające za krytyczną infrastrukturę, edukację, rekrutację, przydzielanie wiz, czy wreszcie systemy stosowane przez policję i wymiar sprawiedliwości. Takie systemy mają być pod szczególnym nadzorem - przede wszystkim mają być sprawdzane pod kątem tego, czy ich wyniki nie zawierają zakodowanych przez twórców uprzedzeń, wypaczających je ze względu na wiek, płeć, kolor skóry czy narodowość. Bez odpowiedniego certyfikatu nie będą mogły funkcjonować w UE. 

Także systemy stosowane w przypadku obszarów "niskiego ryzyka" będą musiały być bardziej transparentne. Odbiorca musi na przykład wiedzieć, że wideo, które ogląda, zostało wygenerowane przez komputer a nie nagrane na żywo. 

Eksperci wskazują, że propozycja Komisji Europejskiej jest pełna luk - wiele jej przepisów jest sformułowanych tak, że mogą dotyczyć niemal wszystkich firm z branży cyfrowej lub w zasadzie nikogo. Spod ograniczeń wyłączone jest też wojsko i, w pewnym stopniu, agencje bezpieczeństwa publicznego. Mimo to, propozycja Unii może być ważnym krokiem na drodze do uregulowania świata sztucznej inteligencji. Tak jak było w przypadku przepisów RODO, które szybko znalazły naśladowców na całym świecie i które zmusiły międzynarodowe koncerny do poszanowania w większym stopniu prywatności odbiorców.