Co jakiś czas, pływających w mętnych wodach mediów społecznościowych, przykrywa kolejna fala trendu opanowującego publiczny feed, doprowadzając nas do mdłości. Czasem wynikają one z przesycenia tym, co zmuszeni jesteśmy oglądać; innym razem efekty twórczości kolejnej mody sprawiają, że przynajmniej części użytkowników chce się odseparować od sieci. Niektórym zaś zbiorowe szaleństwo udziela się bez mrugnięcia okiem i dołączają do karnawałowego zachwytu nad kolejną ciekawostką. Przykładem tego zjawiska jest cieszący się w ostatnich tygodniach trend w serwisie X, polegający na pozbawianiu ubrań nie tylko osób publicznych, ale także koleżanki z klasy czy nielubianego kolegi z osiedla, często niepełnoletnich. W świetle takich możliwości któż przejmowałby się faktem, że owa funkcja nie powiadamia właściciela oryginalnego zdjęcia ani osób na nim przedstawionych o dokonywanych zmianach? Spreparowane obrazy są publicznie udostępniane na platformie X, gdzie trafiają do feedu i bez przeszkód rozpowszechniane są dalej. Przecież to tylko na niby.
Spiętrzenie tego zjawiska obserwowaliśmy na przełomie roku. Oto w doskonale znanym kadrze z przemówienia telewizyjnego z 13 grudnia 1981 r. Wojciech Jaruzelski w biustonoszu ogłasza stan wojenny. Albo Nicolás Maduro, schwytany przez siły zbrojne USA, zamiast w szarym dresie stoi skuty w samych slipach z wydatnym brzuchem świecącym na całej powierzchni zdjęcia. Zaledwie w kilka dni popularność wyszukiwania frazy "grok bikini" wzrosła o 4250 procent. Elon Musk, właściciel platformy, nie miał problemu z promowaniem viralowego fenomenu, śmiejąc się z obrazka tostera w bikini udostępnionego przez innego użytkownika serwisu.
Nowa funkcja wbudowana w portal X oswaja zjawisko, które jest pośród nas od kilku lat i zdaje się nabierać rozpędu. Posiada ono swój awers i rewers - równie uzurpacyjny i niebezpieczny, gdyż w istocie o podporządkowanie właśnie toczy się gra.
Hiszpańskie miasto Almendralejo zamieszkuje społeczność wielkości Augustowa. W 2023 roku wstrząsnął nim skandal związany z rozpowszechnianiem nagich zdjęć dziewcząt w wieku szkolnym wśród rówieśników. Nie były to fotografie wykonane w sytuacjach intymnych. Do wyprodukowania ich posłużyły zdjęcia w pełni ubranych ofiar deepfake’ów. Sprawcy - chłopcy w wieku od 13 do 15 lat - użyli do tego celu aplikacji internetowej. Jedna z matek relacjonowała: "Obraz jest całkowicie realistyczny... gdybym nie znała ciała mojej córki, pomyślałbym, że jest prawdziwy". Sprawa odbiła się szerokim echem w mediach na całym świecie. Można śmiało stwierdzić, że tamta sytuacja była nieledwie zwiastunem problemu, który urósł dziś do zagadnienia systemowego. Mierzą się z nim kolejne legislatury, sądy oraz platformy technologiczne udostępniające narzędzia pozwalające na tego typu działania. Dziś są one tanie, dostępne i - jak się wydaje - niemożliwe do powstrzymania.
O pornografii internetowej zasilanej deepfake’ami przed 2017 rokiem słyszymy ukradkiem, jak o fetyszu dostępnym w darknecie. Tam też, poza oficjalnym obiegiem internetowym, krążą stworzone przez sztuczne sieci neuronowe krótkie, najczęściej kilkunastosekundowe filmy, na których twarze celebrytów przyklejone są do ciał aktorów porno. Za przełomowy uznaje się moment, gdy użytkownik Reddita pod aliasem "deepfakes" publikuje takie produkcje szerszej publiczności. Twarz izraelskiej aktorki Gal Gadot, znanej m.in. z roli Wonder Woman, pojawia się w tym kontekście na fałszywym nagraniu, którego jakość jest na tyle dobra, że powszechnie uznawano je za autentyczne. Potem poszło już szybko: Aubrey Plaza, Rosalía czy Taylor Swift stały się bohaterkami spreparowanych filmów. Ale w porównaniu z tym, co miało nadejść za chwilę, była to era niewinności.
W czerwcu 2019 roku uruchomiono stronę pod nazwą DeepNude, która oferowała aplikację potrafiącą stworzyć nagi wizerunek osoby ze zdjęcia w pełnym ubraniu. Dodajmy, aplikacje zbudowaną w całości na publicznie dostępnym kodzie źródłowym. Nie wymagała od użytkownika żadnych umiejętności specjalistycznych. Po prostu udostępniałeś zdjęcie i po trzydziestu sekundach mogłeś zobaczyć efekt. Wersja darmowa pozwalała na zobaczenie częściowo zakrytego wizerunku dużym znakiem wodnym. Natomiast po uiszczeniu opłaty znak wodny nie zakłócał odbioru. Dość groteskowo starano się zachować - nomen omen - cnotę, poprzez umieszczenie napisu "FAKE" w lewym górnym rogu generowanych zdjęć wersji płatnej. To, że można było taką fotografię wykadrować lub za pomocą popularnej aplikacji napis usunąć, dopełnia tylko ponurego obrazu rzeczywistości. Oburzenie, jakie wywołało nagłośnienie faktu, że takie oprogramowanie istnieje, zmusiło jego twórców do usunięcia go ze swojej oferty. Dzień po ukazaniu się artykułu na ten temat.
W styczniu 2024 roku na "politycznie niepoprawnej" anonimowej tablicy serwisu 4chan pojawił się hashtag #DignifAI. Jeden z użytkowników zaproponował wykorzystanie narzędzi powiązanych ze sztucznymi sieciami neuronowymi do modyfikacji zdjęć kobiet, które są w jego ocenie nieobyczajne.
W swoim manifeście (opublikowanym w liczbie mnogiej) twórca pisał m.in., że dzięki sile sztucznej inteligencji "oczyszczą internet" z "instaszonów", z ich tatuaży i kolczyków, a ich skąpe spódniczki zostaną wydłużone. Rozkażą patrzeć im na naturalne piękno, które utraciły, a światu zwrócą przyzwoitość.
Trend momentalnie podłapali komentatorzy kojarzeni ze środowiskami alternatywnej prawicy, z olbrzymimi zasięgami w mediach społecznościowych, którzy zaczęli rozprzestrzeniać idee owej moralnej rewolucji. Mimo że atak skierowany był głównie wobec kobiet, oberwało się także mężczyznom "oczyszczonym" z piercingu, niestandardowych fryzur czy zbędnych kilogramów.
Na fali popularności tej akcji niedługo później zobaczyliśmy jej kolejną odsłonę. #PurifAI zwracała się już nie w kierunku seksualności, a ku manipulacji rasowej. Naturalny kolor skóry "modela" zastępowano białą wersją.
To właściwie odsłona tego samego zjawiska: przemoc symboliczna, która osiągnąwszy swoją masę krytyczną, wypala się, robiąc miejsce kolejnej - często jeszcze bardziej ekstremalnej - mającej napędzić kolejną fale kontrowersji.
Bo wydaje się, że nie to, co, lecz jak się odbywa, ma kluczowe znaczenie. Bo przecież łatwo jest zauważyć historyczny zwrot algorytmów platform dostarczanych przez ludzi, którzy najpierw liczą pieniądze, a dopiero później problemy stojących za nimi ludzi. Miejsce, w którym zrodził się trend "uskromniania" wizerunku zbyt roznegliżowanych kobiet, słynęło kiedyś z wyśmiewania przesadnej powściągliwości seksualnej, a wulgarny ton forum nikogo przesadnie nie dziwił. Na 4chanie konserwatyzm obyczajowy i pruderię poddawano drwinom, a treści przemocowe stanowiły tradycyjny repertuar rozrywkowy. Droga od trollingowego z ducha "wolno wszystko, mamy z tym luz" do narzucania innym estetycznego "właściwego życia" w formie przemocy symbolicznej stanowi dwie strony tego samego zjawiska.
Wszelkie formy tworzenia i rozpowszechniania bez zgody właścicieli ich zmanipulowanych, intymnych wizerunków za pomocą AI określa się terminem SIIA (Synthetic Intimate Image Abuse). Dostępność narzędzi tego typu za pośrednictwem platform społecznościowych oraz zwykłych wyszukiwarek jest szeroka i generuje miliony wejść miesięcznie. Na miejsce banowanych stron pojawiają się ich klony. Przeciętnemu użytkownikowi dotarcie do wysoce wulgarnych treści, w praktyce bez jakichkolwiek ograniczeń, zajmuje kilka sekund.
Rządy poszczególnych państw starają się reagować na zastaną sytuację, jednak panuje powszechne przekonanie, że regulacje dotyczące sfery, która wymyka się spod kontroli, powinny obowiązywać już teraz. Sytuację komplikuje fakt, że dostarczane narzędzia oraz niespotykane do tej pory konteksty ich użycia tworzą zupełnie odrębne uniwersum legislacyjne, które, póki co zdane jest na błądzenie po omacku i doraźność. Wszelkie próby systemowego radzenia sobie z uregulowaniem rynku mediów społecznościowych rozbijają się o niechęć społeczną oraz obawy przed nadmierną cenzurą wolności wypowiedzi z jednej strony, a potężnymi wpływami lobbystów z drugiej.
Dlatego też reakcje na grudniowy paroksyzm związany z testowaniem możliwości Groka były różne. Komisja Europejska w osobie rzecznika Thomasa Regniera zakomunikowała, że przygląda się zjawisku oraz że uważa to za nielegalne, obrzydliwe i przerażające. Jednocześnie rozszerzyła obowiązek dla platformy Elona Muska, związany z przechowywaniem wszelkiej dokumentacji dotyczącej Groka, do końca 2026 r. Zapowiedziała bezwzględne egzekwowanie zapisów ustawy o usługach cyfrowych na terenie Unii Europejskiej. Brytyjski, państwowy regulator rynku komunikacji, zażądał od platformy X wyjaśnień. Francuska prokuratura przygląda się przypadkom nadużyć. Zgłoszenia deepfake’ów będą również badane przez odpowiednie organy administracji w Australii.
Znamienne jest, że zarówno twórca aplikacji DeepNude, jak i ci, którzy bagatelizują kolejne trendy na platformie X, najczęściej powołują się na kategorię zabawy. Wydaje się jednak, że przejście od niewinnej rozrywki do przemocy symbolicznej, a w konsekwencji do całkiem dotykalnych konsekwencji, przebiega przez wyjątkowo cienką i przepuszczalną granicę.
Władza nad "rozbieraniem" innych bądź przywracaniem im "godności" za pomocą cyfrowych narzędzi ukryta jest dziś w architekturze platform i algorytmów. Symboliczną nagrodą dla posługujących się nimi są dzielące społeczność treści, nabijające komentarze i generujące tysiące polubień.
Bogiem staje się zaangażowanie, a to, jakimi środkami zostanie wywołane, schodzi na dalszy plan. Podłączeni do cyfrowego odkurzacza zasysamy wszystko, jak leci, bo trudno nam sobie przypomnieć, że istnieje jakiś wybór. Nawet najbardziej srogie miny urzędników i próbująca nadążyć za rzeczywistością XXI wieku legislacja mogą jedynie łagodzić skutki czegoś, co w istocie istnieje i opiera się na logice konfliktu oraz wspierania ekstremów.
Po kilkunastu miesiącach procesu hiszpański sąd skazał nastolatków z Almendralejo na karę roku pozbawienia wolności w zawieszeniu. Uznał ich winnymi tworzenia i rozpowszechniania wizerunków koleżanek wygenerowanych przez sztuczną inteligencję.