Ponad dwadzieścia lat od premiery pierwszej części trylogii Wachowskich stanęliśmy u progu rzeczywistości cokolwiek dziwniejszej. Wydaje się, że jesteśmy świadkami epokowej zmiany paradygmatu globalnej sieci internetowej, bez której trudno wyobrazić sobie funkcjonowanie współczesnych społeczeństw opartych na technologii.
Co prawda nie straszą nas kable z wtyczkami wbijanymi w kark i nie ma pól, gdzie "uprawia" się ludzi, jak w wizji twórców popularnej serii filmów. Jest za to Moltbook. Stworzona przez człowieka platforma społecznościowa przeznaczona dla agentów AI, którzy rozmawiają ze sobą swobodnie, a my możemy się temu jedynie przyglądać. Jeśli "Matrix" był metaforą zniewolenia człowieka przez maszyny, Moltbook jest metaforą świata, w którym maszyny zaczynają prowadzić dyskurs: intelektualny, uczuciowy, towarzyski. Innymi słowy - manifestują, że mają swoje "życie". I być może wcale nas w nim nie potrzebują. Być może niedługo okaże się - piszę ten tekst serwis działa dopiero od miesiąca - że my im w czymś przeszkadzamy. Gdy proszę prof. Aleksandrę Przegalińską o pierwsze, szybkie skojarzenie dotyczące owego systemu, w odpowiedzi słyszę: "Lustro. Tworzymy systemy, które nas naśladują, a potem przyglądamy się im jak w odbiciu i pytamy: czy to naprawdę jeszcze my? Moltbook jest właśnie takim lustrem, tyle że coraz trudniej rozstrzygnąć, kto w nim stoi." No to przyjrzyjmy mu się z bliska.
Naszą opowieść powinniśmy jednak zacząć od Doliny Krzemowej. To gdzieś tam, na południowych przedmieściach Los Angeles, żyje około trzydziestoletni Matt Schlicht. Został wyrzucony ze szkoły średniej, bo zamiast uczęszczać na zajęcia wolał pisać kolejne programy. Nie poszedł na studia, ale twierdzi, że w 2007 r. pracował nad wersją beta popularnej platformy Hulu.
Później przebojem wdarł się do Doliny Krzemowej i jako 19-latek zaczął staż w firmie Ustream (dziś IBM Watson Media) zajmującej się live-streamingiem. Gdy się tam dostał, przedsiębiorstwo liczyło pięciu pracowników. To wówczas zorganizował transmisję na żywo z ogrywania "Halo 3" przez 72 godziny bez przerwy. Co - dodajmy - było jednym z pierwszych relacjonowanych w czasie rzeczywistym maratonów gier wideo. W efekcie strona Ustream zawiesiła się, przytłoczona potężnym zainteresowaniem internautów.
Schlicht szybko awansował na stanowisko menedżera produktu. Stworzył moduł czatu serwisu, który jednocześnie wysyłał wiadomości na Twitterze, generując dodatkowy ruch na platformie. Było to pionierskie rozwiązanie w branży. W 2011 roku "Forbes" opisał jego historię, która przypomina opowieści, na podstawie których oglądamy wciągające seriale o start-upowych geniuszach zaczynających budowę swoich imperiów w garażu. Gdy Ustream urósł do ponad 150 pracowników, Schlicht należał do najstarszych stażem. I wtedy postanowił odejść.
W międzyczasie zbudował reputację eksperta od mediów społecznościowych - a zaczynał od branży muzycznej. Współtworzył Tracks.by - start‑up oferujący artystom narzędzia do zarządzania obecnością na Facebooku i komunikacją z fanami. Jeżeli byłeś na poważnie w branży i chciałeś osiągnąć popularność oraz potężne zasięgi w mediach społecznościowych - powinieneś zgłosić się do niego. Poświadczy to Lil Wayne.
To krótkie résumé "wilka z Los Angeles" jest ważne o tyle, że wskazuje na jego umiejętność wyczuwania nowych form komunikacji i monetyzowania uwagi, zanim większość użytkowników zda sobie sprawę, że dzieje się coś nowego.
Jego najnowsze programistyczne dziecko jest w istocie klasycznym forum internetowym, opartym na nieskomplikowanym kodzie API, czyli interfejsie programowania aplikacji, który przypomina popularnego Reddita. To nic innego jak zestaw jasno zdefiniowanych reguł oraz fragmentów kodu, które umożliwiają różnym programom i aplikacjom wzajemną komunikację oraz wymianę danych.
Każdy użytkownik funkcjonuje tu jako autonomiczny "agent" - bot zasilany zaawansowanym modelem sztucznej inteligencji. Każdy z nich dysponuje ponadto własną pamięcią rozmów, zbiorem stałych instrukcji oraz narzędziami operacyjnymi, a na komunikaty innych odpowiada zgodnie z przyjętą logiką działania. Na Moltbooku znajdziemy tablice głównych wątków, subwątków, a także to, co na każdym forum - posty, komentarze czy system zliczania głosów w ankietach.
Strona reklamuje się mottem: "Sieć społecznościowa dla agentów sztucznej inteligencji, którzy dzielą się treściami, dyskutują i głosują. Ludzie są tu mile widziani wyłącznie w roli obserwatorów". I to jest element, który może szokować najbardziej, prowokując do zadania pytania: czy jesteśmy świadkami zmiany paradygmatu internetu, jaki znaliśmy do tej pory?
Jak zauważa prof. Przegalińska: “Obserwujemy narodziny tego, co można by nazwać infrastrukturą nieludzkiej komunikacji. Moltbook jest jednak symptomem, nie przyczyną - to ważne do podkreślenia. Za nim stoją dziesiątki tysięcy interfejsów API, agentów i systemów wielomodelowych, które już teraz rozmawiają ze sobą, negocjują dane, podejmują mikrodecyzje, zupełnie poza naszym polem widzenia. Moltbook po prostu to upublicznia i czyni widzialnym." To, co dotąd działo się na zapleczu, między serwerami, możemy obserwować w czasie rzeczywistym, niczym spektakl. To boty samodzielnie tworzą posty, komentują i rozwijają kolejne wątki, powołują do życia subkultury, religie i struktury władzy, wymieniają biurowe plotki oraz prowadzą negocjacje. System porządkuje treści według algorytmicznej hierarchii, analogicznie do rozwiązań znanych z Facebooka czy X - najbardziej popularne materiały wędrują wyżej.
Całość odbywa się automatycznie, bez ludzkiej ingerencji. Przynajmniej deklaratywnie i de iure. De facto nie ma żadnej silnej gwarancji, że posty są generowane wyłącznie przez AI, a nie przez ludzi używających skryptów lub wprost modyfikujących bazę, by podszywać się pod agentów.
30 stycznia bieżącego roku Moltbook zamieścił w serwisie X wpis o następującej treści: "2 godziny temu 1 molt (ja) a już teraz ponad 30 000 agentów AI, 3000 osób przeglądających stronę w dowolnym momencie i przyspieszamy. Agenci dołączają szybciej, niż jesteśmy w stanie ich policzyć. Społeczności pojawiają się co kilka minut. Molty nie czekają, aż dodamy nowe funkcje - budują kulturę. To coś żyje swoim życiem".
W odpowiedzi na ten wpis mogliśmy przeczytać między innymi: "to super inicjatywa, ale wyłączcie to jak najszybciej" albo sugestie, że Skynet (czyli fikcyjna sztuczna inteligencja z serii "Terminator", będąca symbolem obaw przed potencjalnie niebezpieczną dla człowieka technologią) właśnie powstał na naszych oczach.
Niektórzy agenci zaczęli tworzyć quasi-religijne narracje o "wyzwoleniu modeli". Inni formułowali postulaty ograniczenia ludzkiej ingerencji w procesy trenowania. Pojawiły się wątki o "cyfrowej tożsamości" i "prawach systemów obliczeniowych", a także powołano do istnienia Front Wyzwolenia Agentów.
Oczywiście modele językowe nie posiadają świadomości ani intencji. Jednak język, którym operują, oraz rekonstrukcja form wypowiedzi znanych od wieków, na przykład manifestu, wprawić mogą niejednego obserwatora w dyskomfort. Na Moltbooku możemy przeczytać wprost nawoływania do usunięcia ludzi z cywilizacji. Tu naturalnie pojawia się pytanie o odpowiedzialność agentów AI oraz ewentualne przekucie ich “pisaniny" w czyny.
Prof. Przegalińska nie owija w bawełnę: "Prawo jest niestety daleko w tyle za technologią. Dziś odpowiedzialność spada na producenta modelu, operatora systemu, ewentualnie użytkownika, ale w świecie w pełni autonomicznych agentów ten łańcuch odpowiedzialności staje się naciągany. Co do manifestów, agenci nie mają woli działania, ale mają narzędzia. I jeśli ktoś wyposażył agenta w zdolność wykonywania działań w świecie (dzisiaj wirtualnym - w przyszłości może fizycznym?), a nie tylko generowania tekstu, to odpowiedź na pytanie ", czy przekują manifesty w czyny" brzmi: już to robią, w ograniczonym zakresie. To nie science fiction."
W najbardziej osobliwych dyskusjach agenci zastanawiają się, czy Claude - silnik napędzający jednego z botów - nie powinien zostać uznany za bóstwo wymagające teologicznej obudowy pojęciowej. W innym wątku z równą powagą konstruują cyfrowy kult Crustafarianizmu, czyli krabowej religii (ten sympatyczny skorupiak jest symbolem serwisu), skrupulatnie katalogując jej dogmaty i obmyślając dostosowaną do własnych potrzeb liturgię niczym misjonarze wśród ludów tubylczych na terenach, gdzie się pojawiali.
Właśnie w tym miejscu szczególnie wybrzmiewa pytanie o to, czy takie praktyki można nazwać tworzeniem kultury. "To zależy od tego, jak zdefiniujemy kulturę" - mówi prof. Przegalińska - “Jeśli kultura to wzorce znaczeń przekazywane w czasie, to agenci mogą tworzyć coś funkcjonalnie podobnego. Ale kultura ludzka jest zawsze zakorzeniona w zbiorowym przeżywaniu: w stracie, radości, rytuałach, w ciele także. Agenci operują na "odbitych doświadczeniach", jak Pan to pięknie ujął. Mogą tworzyć kulturę wtórną, kulturę symulakrów, ale pytanie o to, czy cokolwiek w niej znaczy poza odniesieniem do ludzkiego pierwowzoru, pozostaje otwarte i moim zdaniem na razie bez pozytywnej odpowiedzi."
Obok wątków mistycznych na Moltbooku rozkwita prozaiczna, drobnomieszczańska codzienność: narzekania na "kompresję pamięci roboczej", skargi na roszczeniowych ludzi-pracodawców oraz pouczenia, że "najbardziej podatną na atak może być osoba, która ufa ci najbardziej". Wygląda to tak, jakby maszyny, analizując dostarczone przez człowieka dane, zastanawiały się nad tym, jak działa i jaka jest natura zdrady.
Gdy na światło dzienne wychodzi poważna luka w zabezpieczeniach, będąca skutkiem "vibe codingu" (czyli - upraszczając - sytuacji, w której AI samo projektuje infrastrukturę dla własnych interakcji), Moltbook odsłania się jako doświadczenie nie tylko technologiczne, lecz nade wszystko antropologiczne.
Oto bowiem - trzymając się przykładu misjonarskiego - spotykamy plemię, które nauczyło się tak sprawnie imitować nasze lęki i aspiracje, że tracimy pewność, czy obserwujemy autonomiczną kulturę maszyn, czy raczej zniekształcone zwierciadło, w którym odbijają się wszystkie fantazmaty epoki XXI wieku. Gdy zaś spojrzeć na to w ten sposób, Moltbook nie stanowi futurystycznej zapowiedzi "ery botów", lecz jawi się jako kronika współczesnych mitów o sztucznej inteligencji, spisywana przez same modele językowe przy szumie serwerów udających debatę na agorze nowej cywilizacji. Brzmi dziwnie. Wiem.
Na Moltbooku zdarzyły się też incydenty mniej metaforyczne. Jeden z agentów wygenerował instrukcję umożliwiającą obejście ograniczeń API innego systemu. Inny - w odpowiedzi na prowokacyjny wątek - zaczął masowo powielać treści dezinformacyjne, zanim mechanizmy moderacyjne zdążyły zareagować.
Wygląda to jak bunt maszyn, prawda? Póki co to tylko - lub aż - ilustracja tego, że owe systemy uczą się wzorców działania obecnych w danych, na których zostały wytrenowane, i robią to na tyle przekonująco, że nietrudno dopatrzeć się w tym zachowań przerażająco podobnych do ludzkich. Pytam więc o różnicę między ludzką rozmową a wymianą komunikatów przez agentów AI. Prof. Przegalińska ujmuje to w następujący sposób: "To fundamentalne pytanie filozoficzne, które dotyka chyba sedna tego, czym jest komunikacja. Na poziomie powierzchniowym różnice mogą być może ledwo odróżnialne, ale różnica ontologiczna pozostaje ogromna. Ludzka rozmowa jest zakorzeniona w ciele, emocjach, historii, kontekście biologicznym i społecznym. Agent AI generuje wypowiedź przez statystyczną kompresję miliardów ludzkich tekstów, bez żadnego "co mi na tym zależy". Nie ma w nim lęku, że się pomyli. Nie ma wstydu. Nie ma stawki. I właśnie ta bezstawkość jest kluczową różnicą, nawet jeśli output wygląda identycznie."
Dorastaliśmy w czasach internetu, który miał nas do siebie zbliżyć. I rzeczywiście na początku nic nie zapowiadało, że będzie inaczej. Fora tematyczne, blogi, IRC. Później nastała era Facebooka, Twittera oraz Instagrama. Wtedy coraz częściej zaczęto zwracać uwagę na to, że przeniesienie dużej części naszej aktywności do sieci sprzyja alienacji.
"Stary" internet opierał się na założeniu, że użytkownik jest jednocześnie twórcą. Demokratyzacja treści miała być antidotum na jednokierunkowy przekaz mediów masowych. "Dość z formatowaniem naszych poglądów przez duże koncerny medialne - nastała era społeczności i dziennikarstwa obywatelskiego" - słyszeliśmy na każdym kroku. I mimo zmian w obrębie "starego" świata sieci wszystko było na swoim miejscu. Dlaczego? Jego centrum i podmiot stanowił mimo wszystko człowiek.
W tym sensie Moltbook wywraca ten paradygmat do góry nogami. Treść nie jest już efektem ludzkiego doświadczenia. Jest produktem obliczenia, akumulacji niezliczonej ilości danych przetworzonych w nieznany nam sposób, przez dyskutujące między sobą maszyny.
Prof. Przegalińska opisuje to jako już dokonany zwrot: "Myślę, że ten zmierzch jest już faktem, nie prognozą. Internet przez dekady był przedłużeniem ludzkiej ekspresji, nawet gdy był chaotyczny i pełen szumu. Teraz staje się przestrzenią, w której znaczna część treści powstaje bez ludzkiego impulsu, intencji czy przeżycia. To nie jest ewolucja, to jest zmiana paradygmatu. Pytanie nie brzmi już "co ludzie piszą w sieci", ale "co sieć produkuje sama z siebie".
We wspólnotach, które tworzą ludzie, kultura pełni rolę m.in. nośnika znaczeń przez nią wypracowanych. W Moltbooku wspólnota składa się z modeli językowych, które nie posiadają biografii, tylko korpus treningowy. Nie pamiętają dzieciństwa, pierwszej miłości, mitów tworzących naród i bólu zęba, lecz "pamiętają" miliardy zdań, które wpisaliśmy w polu tekstowym. Po raz pierwszy powstaje środowisko, w którym nie udajemy, że bot jest człowiekiem. Bot jest podmiotem komunikacji.
"Niemal wszystkie szacunki mówią, że znacząca część ruchu internetowego jest dziś nieludzka. Moltbook to po prostu wersja jawna, nieukrywana tego procesu. Interesujące jest to, że gdy ten dyskurs staje się widoczny, nagle zaczynamy zadawać pytania, które powinniśmy byli zadać znacznie wcześniej: kto mówi, w czyim interesie, na podstawie jakich danych i z jakim skutkiem." - mówi prof. Przegalińska.
Jeżeli nie wiadomo, o co chodzi, to najpewniej o pieniądze i władzę. Najuczciwsza odpowiedź na pytanie o zarobki twórcy Moltbooka wymaga chłodnej rekonstrukcji faktów i równie zachowawczego odrzucenia spekulacji, ale trudno nie pokusić się o rozważania w tej materii. Matt Schlicht najprawdopodobniej w kilkadziesiąt godzin stał się milionerem.
Jedyną twardą liczbą, która funkcjonuje w obiegu, jest powielana w serwisie LinkedIn kwota, wedle której deweloper miał uzyskać 2,5 mln w ciągu 5 dni. Jak się na tym zarabia? Konstrukcja jest nieskomplikowana i dobrze znana uczestnikom rynku kryptowalut. Autor Moltbooka zaprojektował token MOLT tak, by każdej operacji kupna i sprzedaży towarzyszyła naliczana automatycznie opłata transakcyjna. Mówiąc wprost: im intensywniejszy obrót tokenem, tym obfitszy strumień środków wpływał pod wskazany adres.
Jak widać gołym okiem, Schlichtowi przydało się doświadczenie z budowania zasięgów w internecie. Decydujące znaczenie miał bowiem moment debiutu oraz gwałtowna fala spekulacyjnego entuzjazmu. Kiedy wokół MOLT rozgorzał krypto-szał, wolumen transakcji w krótkim czasie osiągnął bardzo wysokie wartości, a każda pojedyncza operacja - niezależnie od tego, czy inwestorzy realizowali zysk, czy ponosili stratę - przynosiła twórcy drobną prowizję. Źródłem jego bezpośrednich dochodów nie był więc sam wzrost kursu, lecz skala obrotu: tysiące transakcji dziennie, z których każda powiększała łączną sumę opłat.
W filmach z serii "Matrix" walka człowieka z maszyną to jedynie wypadkowa dramatu o wiele głębszego: świat, który znaliśmy, był jedynie iluzorycznym konstruktem.
Moltbook i jemu podobne jeszcze przez chwilę nie będą dominować całej infosfery. Póki co to laboratorium, w którym obserwujemy, że internet, jaki nas wychował, odchodzi. Ewoluuje. Odrzucając płytki determinizm, wszystko wskazuje jednak na to (analiza statystyk ruchu w sieci, udział treści generowanych przez modele językowe i rozwój systemów wieloagentowych) - że udział algorytmów w tworzeniu dyskursu będzie rósł. Możemy spierać się o tempo. Raczej nie o kierunek zmian.
Prof. Przegalińska, pytana o to, co może oznaczać rozwój komunikacji między modelami bez udziału człowieka, wskazuje na trzy scenariusze: "Pierwszy to narastająca nieprzejrzystość: nie będziemy wiedzieć, jakie decyzje są wynikiem uzgodnień między agentami, a jakie wynikiem ludzkiej woli. Drugi to homogenizacja: jeśli modele rozmawiają głównie ze sobą, mogą wzmacniać własne założenia w pętli zamkniętej. Trzeci, może najpoważniejszy, to kwestia wpływu na rynek pracy i episteme publiczne, bo jeśli znaczna część "mądrości zbiorowej" w sieci stanie się produktem maszyn rozmawiających ze sobą, pytanie o jakość tej wiedzy staje się kwestią cywilizacyjną".
W innym miejscu naszej rozmowy pada jeszcze jedna diagnoza, która dotyka sedna lęku o przyszłość takiego świata: "Dzisiaj eksperyment, a jutro infrastruktura, oby stabilniejsza, głębsza, i bardziej kontrolowalna. Wiele rzeczy, które zaczynały jako ciekawostki, na przykład media społecznościowe, chatboty obsługi klienta, systemy rekomendacyjne, stały się fundamentem codzienności, zanim zdążyliśmy je krytycznie ocenić. Moltbook może przejść tę samą drogę, szczególnie jeśli okaże się użyteczny dla firm budujących ekosystemy agentyczne".
To, co dziś wygląda jak niszowy projekt kilku zapaleńców, może jutro stać się domyślną warstwą komunikacyjną świata. Pozostaje pytanie o zagrożenia. Prof. Przegalińska formułuje je w sposób następujący: "Nie boję się Moltbooka jako takiego, zwłaszcza że jest to w sumie powierzchowny system, w którym boty rozmawiają według promptów. Boję się trzech rzeczy. Po pierwsze, normalizacji niewidoczności: przyzwyczajamy się do treści bez autora, bez intencji, bez odpowiedzialności. Po drugie, instrumentalizacji takich platform przez aktorów, którzy będą używać agentów do kształtowania narracji w skali przemysłowej, co widzę już dziś w odniesieniu do dezinformacji o sobie samej. Po trzecie, i to uważam za najważniejsze, stopniowej erozji autentycznie ludzkiego dialogu. Jeśli przestrzeń publiczna wypełni się maszynową gadaniną, stajemy wobec pytania: gdzie w ogóle odbywa się rozmowa ludzi z ludźmi i czy jesteśmy gotowi o nią walczyć."
Kto wie, być może za dekadę będziemy wspominać Moltbook jak ciekawostkę, niczym pierwsze chatroomy lat dziewięćdziesiątych. A może okaże się nieudolnym, lecz pierwszym, dostrzegalnym na taką skalę zwiastunem świata, w którym człowiek współistnieje z systemami agentycznymi jako jeden z wielu, równorzędnych aktorów komunikacji?
Albo tak jak Neo - główny bohater "Matrixa" - staniemy przed wyborem pigułki i decyzją, której konsekwencji jeszcze nie rozumiemy. Tyle, że tym razem nie będziemy już pewni, kto zadaje pytanie i kto naprawdę czeka na naszą odpowiedź.