Reklama

Choć nie ma uniwersalnego zespołu cech, które odpowiadają wszystkim, a o gustach się nie dyskutuje, to coś sprawia, że bardzo szybko jesteśmy w stanie ocenić daną osobę. Seria eksperymentów psychologów z Princeton wykazała, że w tym procesie kluczowe są setne części sekundy - i to tej pierwszej.

Janine Willis i Alexander Todorov ustalili, że na osąd kompetencji, życzliwości czy uczciwości wpływają przede wszystkim cechy fizyczne. Co więcej, przychylność albo uprzedzenie już w niewielkim stopniu zmienia się z czasem. Oznacza to, że pierwsza ocena staje się tą fundamentalną, a oceniający - kiedy może przyglądać się czyjejś twarzy dłużej - najczęściej utwierdza się w swoich przekonaniach.

Najpierw oceniamy, później myślimy

Reklama

Dowiedziono, że ludzie w ułamku sekundy oceniają twarze na podstawie dwóch głównych wskaźników - czy należy się do danej osoby zbliżać, czy jej unikać oraz, czy jest ona słaba, czy silna.

Todorov odkrył, że ludzie reagują intuicyjnie na twarze z taką prędkością, że nasz umysł może nie mieć czasu, by wpłynąć na reakcję - i że nasze intuicje dotyczące zaufania należą do tych, które tworzymy najszybciej.

"Związek między rysami twarzy a charakterem może być w najlepszym razie słaby, ale to nie przeszkadza naszym umysłom oceniać innych ludzi na pierwszy rzut oka. Wyciągamy wnioski nie zamieniwszy, ani słowa. Wygląda na to, że jesteśmy zaprogramowani, by robić to w sposób bezrefleksyjny" - twierdzi Todorov.

Już w 2013 r. grupa naukowców z New York University zauważyła, że mężczyźni są zwykle postrzegani jako bardziej godni zaufania, gdy mają "większe usta, szerszy podbródek, większy nos, a także wydatniejsze brwi ustawione bliżej siebie", podczas gdy "godne zaufania twarze kobiet mają bardziej wydatny podbródek, usta z kącikami skierowanymi do góry i mniejszą odległość między oczami". Brązowe oczy są często postrzegane jako bardziej godne zaufania - niekoniecznie ze względu na kolor, ale raczej na wyżej wymienione cechy, które są kojarzone z brązowymi oczami.

Sytuacja zmieniła się za sprawą nowych technologii. To one sprawiły, że jesteśmy bliscy "przekroczenia" doliny niesamowitości (ang. Uncanny Valley), czyli zjawiska polegającego na wywołaniu nieprzyjemnego uczucia bądź odrazy u osób, które patrzą na robota (ale także na animację bądź rysunek) funkcjonującego podobnie jak człowiek. Z badań wynika, że im robot był bardziej podobny do człowieka, tym sympatyczniejszym się on wydawał - jednak tylko do określonej granicy. Roboty najbardziej zbliżone do człowieka nieoczekiwanie okazywały się niemiłe w odbiorze dla ludzi ze względu na niektóre cechy, które je od nich odróżniały.

Czy przekroczyliśmy już dolinę niesamowitości?

- Zjawisko doliny niesamowitości możemy rozciągnąć do naszych interakcji z różnymi technologiami, nie tylko robotycznymi. Rzeczywiście, duże podobieństwo maszyny do człowieka wywołuje w nas nieprzyjemne odczucia i reakcje psychologiczne. Zespół prof. Aleksandry Przegalińskiej przeanalizował kilka lat temu to zjawisko, mierząc reakcje osób w kontakcie z chatbotami w różnych wersjach - zwykłej, tekstowej, lub nieco bardziej rozbudowanej, która przyjęła formę awatara. Zarówno intensywność reakcji psychologicznych, jak i subiektywne odczucie "niesamowitości" były większe, gdy osoby badane prowadziły rozmowę z awatarem. Możemy sobie zadać też pytanie: co dalej? Kiedy uda się przekroczyć dolinę niesamowitości i stworzyć na przykład serię robotów, które są nieodróżnialne od człowieka, a tym samym nie powinny wywoływać nieprzyjemnych doznań. Badania nie są jednoznaczne, ale z pierwszych tego typu projektów wynika, że projektowanie takich maszyn wymagać będzie dużej ostrożności. Tworzenie robotów, których twarze są identyczne, może wywoływać równie głębokie doznania - mówi dr Kuba Piwowar, ekspert z zakresu technologii, big data i etyki w analizie danych z Instytutu Nauk Humanistycznych SWPS.

Jak obecnie radzimy sobie z rozróżnianiem prawdy od fikcji? Postanowili to sprawdzić naukowcy z University of Texas w Austin. Zbadali czy twarze stworzone za pomocą sztucznej inteligencji są w stanie przekonać osoby, które mają z nimi styczność o ich autentyczności. Doświadczenie objęło trzy eksperymenty. W pierwszym każdy z 315 uczestników otrzymał 128 zdjęć twarzy z puli 800. Mieli oni określić, które z nich są prawdziwe, a które fałszywe. Dowiedziono, że ich skuteczność zbliżona była do 50 proc.

Drugi eksperyment wykazał, że nawet udzielenie uczestnikom kilku wskazówek dotyczących wykrywania twarzy generowanych przez sztuczną inteligencję nie poprawiło w znaczy sposób ich zdolności - skuteczność wzrosła o ok. 10 proc. Jednak naukowców najbardziej zaskoczył wynik ostatniego eksperymentu. Gdy zapytali, które twarze - prawdziwe czy wygenerowane komputerowo - są bardziej wiarygodne, okazało się, że te drugie i to o niemal 8 proc. 

Nauka przez współzawodnictwo

- Przytoczone badanie wykorzystuje sieci neuronowe - a ściślej, generatywne sieci współzawodniczące. Upraszczając, ich działanie można porównać do sposobu, w jaki uczy się ludzki mózg, ale z lekkim twistem. Dwie sieci neuronowe współzawodniczą ze sobą. Pierwsza sieć neuronowa, nazywana generatorem, tworzy jakiś obraz (tutaj: twarz osoby), a zadaniem dyskryminatora jest powiedzieć, czy na wygenerowanym obrazku znajduje się osoba prawdziwa, czy sztucznie stworzona. W momencie, w którym dyskryminator nie umie odróżnić obrazu wygenerowanego sztucznie od prawdziwego, możemy uznać, że pierwsza sieć neuronowa (generator) została wytrenowana - wyjaśnia dr Piwowar.

Ekspert zwraca uwagę, że warunkiem działania jakichkolwiek algorytmów jest obecność danych. - Algorytmy sztucznej inteligencji wymagają ich szczególnie dużo - dlatego obserwujemy teraz taki wzrost zainteresowania (i sukcesów) AI, bo w końcu mają one dane, na których mogą się uczyć. Mam na myśli zdjęcia, które robimy swoimi telefonami i publikujemy w sieci. Należy jednak pamiętać, że wielkie zbiory danych nie są reprezentatywne dla świata, który sztuczna inteligencja próbuje odwzorować. W korpusie Big Data więcej jest twarzy osób białych, młodych, raczej mężczyzn, raczej szczęśliwych - wystarczy włączyć dowolny profil społecznościowy i z ciekawością przeanalizować publikowane tam treści. Ma to ogromne znaczenie dla wyników pracy takich sieci neuronowych - są one mniej dokładne w przypadku analizy zdjęć osób czarnoskórych lub kobiet, co może powodować sporo problemów natury etycznej, ale też prawnej - dodaje. 

Czy robot, który z nami flirtuje ma tego świadomość?

Technologie te wykorzystywane są już w praktyce. Założyciele Synthesii - startupu używającego sztucznej inteligencji do tworzenia filmów - zebrali ostatnio 50 milionów dolarów na prace i rozwój systemu pozwalającego zmienić tekst lub prezentację multimedialną w nagranie z mówiącym awatarem. Ich klienci mogą do tego celu wykorzystać istniejące awatary lub stworzyć własne w ciągu kilku minut.

To nie jedyny przykład. Programiści Sonantic - firmy zajmującej się generowaniem głosu przy użyciu sztucznej inteligencji - dokonali, jak twierdzą, "niewielkiego przełomu w rozwoju deepfake’ów audio". Napisali program, który jest w stanie wypowiedzieć dowolne zdanie, wplatając w nie emocje, a raczej pewne subtelności jak drwinę, flirt czy żarty. Ma to dać poczucie autentyczności. W takim razie, jeśli komputer potrafi z nami flirtować, czy można powiedzieć, że odznacza się pewną świadomością?

 

- To bardzo trudne pytanie, bo badania nad świadomością wciąż trwają, i nie do końca wiemy, jak możemy mierzyć ją w maszynach. Pewnej odpowiedzi, niejako argumentu przeciwko tzw. superinteligencji, czyli w pełni świadomej sztucznej inteligencji, udzielił eksperyment prof. Johna Searle'a. Nazywamy go argumentem chińskiego pokoju. Proszę sobie wyobrazić, że znajdujemy się w pokoju wypełnionym chińskimi symbolami (baza danych) oraz instrukcjami, jak z nimi postępować (program). Niestety, nie znamy chińskiego i nie rozumiemy żadnego symbolu, którym jesteśmy otoczeni. Ktoś z zewnątrz wsuwa do pokoju pytania napisane w języku chińskim. Mamy instrukcję, mamy dane. Możemy więc, postępując zgodnie z tym, co napisane w tej instrukcji, udzielić odpowiedzi na pytanie, zapisać i "oddać" ludziom poza pokojem. Eksperyment Searle'a pokazuje, że - o ile komputery mogą manipulować symbolami - nie znaczy, że "rozumieją" te symbole, podobnie jak osoba w chińskim pokoju, która zna wyłącznie instrukcję oraz ma dostępne dane - mówi ekspert z SWPS.

Tymczasem - nawet jeśli nie ze wspomnianą świadomością - głos sztucznej inteligencji może znaleźć zastosowanie przy dubbingowaniu filmów i sprawdzić, że anglojęzyczny aktor na ekranie przemówi do nas swoim głosem w języku polskim. Sonantic poszedł o krok dalej i za sprawą swojej technologii wygenerował głos Vala Kilmera, który niemal stracił go podczas walki z rakiem gardła.

Czy to wina sztucznej inteligencji, że dyskryminuje?

Co jeszcze przed nami? Magazyn "Nature" wskazał osoby, których praca nadaje ton badaniom nad AI. Dotyczą one takich kwestii, jak roboty społeczne, w których rozwoju upatrujemy wiele szans w kontekście coraz bardziej starzejących się społeczeństw i prekaryzacji zawodów związanych z opieką nad ludźmi; nie bez znaczenia pozostają badania z zakresu medycyny.

- Już dziś funkcjonują algorytmy, które skutecznie wspierają lekarzy w diagnostyce; jako że algorytmy AI potrzebują wiele danych, będą one się też rozwijać w dyscyplinie, w której produkuje się ich olbrzymie ilości, czyli w astronomii, gdzie wykorzystywane są do katalogowania obiektów i sygnałów; osobiście uważam, że najciekawszą, ważną i palącą kwestią jest temat wykluczenia algorytmicznego oraz sposobów radzenia sobie z nim. Chodzi o sytuację, w której algorytmy - wykorzystywane na przykład przez administrację publiczną, ale też banki i inne prywatne przedsiębiorstwa - produkują rezultaty dyskryminujące wobec kobiet, osób kolorowych, mniejszości etnicznych, osób nieheteronormatywnych czy biednych. Działania mające na celu profilaktykę tego zjawiska już są podejmowane zarówno w firmach technologicznych, jak i na uniwersytetach i na poziomie legislacji - zwraca uwagę dr Piwowar.

Ekspert podkreśla, że na każdym etapie badań nad sztuczną inteligencją konieczna jest współpraca i konsultacja z humanistami i humanistkami: etykami, filozofkami, kulturoznawcami, socjolożkami i psychologami.

- Podkreślam to tak dosadnie, bo rzeczywiście istnieje pokusa całkowicie nieograniczonego rozwoju badań nad sztuczną inteligencją. Najgorszym scenariuszem, który może się ziścić, nie jest technologiczna osobliwość i wojna robotów, ale niekontrolowany dostęp do technologii, które mogą nieść wykluczenie lub śmierć, w niepowołanych rękach. Historia rozwoju internetu pokazuje, że nieregulowany rozwój technologii ma swoje plusy, ale niestety - w kontekście logiki kapitalistycznej - także swoje minusy - podsumowuje.