Choć nie ma uniwersalnego zespołu cech, które odpowiadają wszystkim, a o gustach się nie dyskutuje, to coś sprawia, że bardzo szybko jesteśmy w stanie ocenić daną osobę. Seria eksperymentów psychologów z Princeton wykazała, że w tym procesie kluczowe są setne części sekundy - i to tej pierwszej.
Janine Willis i Alexander Todorov ustalili, że na osąd kompetencji, życzliwości czy uczciwości wpływają przede wszystkim cechy fizyczne. Co więcej, przychylność albo uprzedzenie już w niewielkim stopniu zmienia się z czasem. Oznacza to, że pierwsza ocena staje się tą fundamentalną, a oceniający - kiedy może przyglądać się czyjejś twarzy dłużej - najczęściej utwierdza się w swoich przekonaniach.
Dowiedziono, że ludzie w ułamku sekundy oceniają twarze na podstawie dwóch głównych wskaźników - czy należy się do danej osoby zbliżać, czy jej unikać oraz, czy jest ona słaba, czy silna.
Todorov odkrył, że ludzie reagują intuicyjnie na twarze z taką prędkością, że nasz umysł może nie mieć czasu, by wpłynąć na reakcję - i że nasze intuicje dotyczące zaufania należą do tych, które tworzymy najszybciej.
"Związek między rysami twarzy a charakterem może być w najlepszym razie słaby, ale to nie przeszkadza naszym umysłom oceniać innych ludzi na pierwszy rzut oka. Wyciągamy wnioski nie zamieniwszy, ani słowa. Wygląda na to, że jesteśmy zaprogramowani, by robić to w sposób bezrefleksyjny" - twierdzi Todorov.
Już w 2013 r. grupa naukowców z New York University zauważyła, że mężczyźni są zwykle postrzegani jako bardziej godni zaufania, gdy mają "większe usta, szerszy podbródek, większy nos, a także wydatniejsze brwi ustawione bliżej siebie", podczas gdy "godne zaufania twarze kobiet mają bardziej wydatny podbródek, usta z kącikami skierowanymi do góry i mniejszą odległość między oczami". Brązowe oczy są często postrzegane jako bardziej godne zaufania - niekoniecznie ze względu na kolor, ale raczej na wyżej wymienione cechy, które są kojarzone z brązowymi oczami.
Sytuacja zmieniła się za sprawą nowych technologii. To one sprawiły, że jesteśmy bliscy "przekroczenia" doliny niesamowitości (ang. Uncanny Valley), czyli zjawiska polegającego na wywołaniu nieprzyjemnego uczucia bądź odrazy u osób, które patrzą na robota (ale także na animację bądź rysunek) funkcjonującego podobnie jak człowiek. Z badań wynika, że im robot był bardziej podobny do człowieka, tym sympatyczniejszym się on wydawał - jednak tylko do określonej granicy. Roboty najbardziej zbliżone do człowieka nieoczekiwanie okazywały się niemiłe w odbiorze dla ludzi ze względu na niektóre cechy, które je od nich odróżniały.
- Zjawisko doliny niesamowitości możemy rozciągnąć do naszych interakcji z różnymi technologiami, nie tylko robotycznymi. Rzeczywiście, duże podobieństwo maszyny do człowieka wywołuje w nas nieprzyjemne odczucia i reakcje psychologiczne. Zespół prof. Aleksandry Przegalińskiej przeanalizował kilka lat temu to zjawisko, mierząc reakcje osób w kontakcie z chatbotami w różnych wersjach - zwykłej, tekstowej, lub nieco bardziej rozbudowanej, która przyjęła formę awatara. Zarówno intensywność reakcji psychologicznych, jak i subiektywne odczucie "niesamowitości" były większe, gdy osoby badane prowadziły rozmowę z awatarem. Możemy sobie zadać też pytanie: co dalej? Kiedy uda się przekroczyć dolinę niesamowitości i stworzyć na przykład serię robotów, które są nieodróżnialne od człowieka, a tym samym nie powinny wywoływać nieprzyjemnych doznań. Badania nie są jednoznaczne, ale z pierwszych tego typu projektów wynika, że projektowanie takich maszyn wymagać będzie dużej ostrożności. Tworzenie robotów, których twarze są identyczne, może wywoływać równie głębokie doznania - mówi dr Kuba Piwowar, ekspert z zakresu technologii, big data i etyki w analizie danych z Instytutu Nauk Humanistycznych SWPS.
Jak obecnie radzimy sobie z rozróżnianiem prawdy od fikcji? Postanowili to sprawdzić naukowcy z University of Texas w Austin. Zbadali czy twarze stworzone za pomocą sztucznej inteligencji są w stanie przekonać osoby, które mają z nimi styczność o ich autentyczności. Doświadczenie objęło trzy eksperymenty. W pierwszym każdy z 315 uczestników otrzymał 128 zdjęć twarzy z puli 800. Mieli oni określić, które z nich są prawdziwe, a które fałszywe. Dowiedziono, że ich skuteczność zbliżona była do 50 proc.
Drugi eksperyment wykazał, że nawet udzielenie uczestnikom kilku wskazówek dotyczących wykrywania twarzy generowanych przez sztuczną inteligencję nie poprawiło w znaczy sposób ich zdolności - skuteczność wzrosła o ok. 10 proc. Jednak naukowców najbardziej zaskoczył wynik ostatniego eksperymentu. Gdy zapytali, które twarze - prawdziwe czy wygenerowane komputerowo - są bardziej wiarygodne, okazało się, że te drugie i to o niemal 8 proc.
- Przytoczone badanie wykorzystuje sieci neuronowe - a ściślej, generatywne sieci współzawodniczące. Upraszczając, ich działanie można porównać do sposobu, w jaki uczy się ludzki mózg, ale z lekkim twistem. Dwie sieci neuronowe współzawodniczą ze sobą. Pierwsza sieć neuronowa, nazywana generatorem, tworzy jakiś obraz (tutaj: twarz osoby), a zadaniem dyskryminatora jest powiedzieć, czy na wygenerowanym obrazku znajduje się osoba prawdziwa, czy sztucznie stworzona. W momencie, w którym dyskryminator nie umie odróżnić obrazu wygenerowanego sztucznie od prawdziwego, możemy uznać, że pierwsza sieć neuronowa (generator) została wytrenowana - wyjaśnia dr Piwowar.
Ekspert zwraca uwagę, że warunkiem działania jakichkolwiek algorytmów jest obecność danych. - Algorytmy sztucznej inteligencji wymagają ich szczególnie dużo - dlatego obserwujemy teraz taki wzrost zainteresowania (i sukcesów) AI, bo w końcu mają one dane, na których mogą się uczyć. Mam na myśli zdjęcia, które robimy swoimi telefonami i publikujemy w sieci. Należy jednak pamiętać, że wielkie zbiory danych nie są reprezentatywne dla świata, który sztuczna inteligencja próbuje odwzorować. W korpusie Big Data więcej jest twarzy osób białych, młodych, raczej mężczyzn, raczej szczęśliwych - wystarczy włączyć dowolny profil społecznościowy i z ciekawością przeanalizować publikowane tam treści. Ma to ogromne znaczenie dla wyników pracy takich sieci neuronowych - są one mniej dokładne w przypadku analizy zdjęć osób czarnoskórych lub kobiet, co może powodować sporo problemów natury etycznej, ale też prawnej - dodaje.
Technologie te wykorzystywane są już w praktyce. Założyciele Synthesii - startupu używającego sztucznej inteligencji do tworzenia filmów - zebrali ostatnio 50 milionów dolarów na prace i rozwój systemu pozwalającego zmienić tekst lub prezentację multimedialną w nagranie z mówiącym awatarem. Ich klienci mogą do tego celu wykorzystać istniejące awatary lub stworzyć własne w ciągu kilku minut.