Przyszłość już dawno została przewidziana i zaplanowana. W 1970 roku legendarny futurolog i wizjoner Alvin Toffler w swojej przełomowej książce "Szok Przyszłości" poświęcił kilka stron możliwościom i zagrożeniom, jakie daje ścisłe powiązanie naszych umysłów z maszynami. Jako jeden z pierwszych użył wówczas słowa "cyborg" na opisanie istoty, która jest i maszyną, i żywym organizmem. Jednocześnie ożywioną i nieożywioną.
Wizje bezpośredniego podłączania naszych mózgów do komputerów nadal wydają się (niekoniecznie słusznie) marzeniami lub koszmarami o odległej przyszłości. Ale wcale nie musimy wpinać wtyczki do gniazdka wbudowanego w czaszkę, żeby stać się częścią globalnej sieci obliczeniowej.
"My już jesteśmy cyborgami" - twierdził w 2016 roku, podczas panelu dyskusyjnego na konferencji Code najbogatszy dziś człowiek na świecie, Elon Musk.
Musk eksperymentuje z interfejsami mózg-maszyna, które miałyby przezwyciężyć tę barierę. Ale i bez nich ta komputerowo-biologiczna symbioza już nas zmienia. A naukowcy dopiero zaczynają rozumieć jak.
Każda technologia wpływa na biologię. Naukowcy są przekonani, że sam nasz wygląd jest ukształtowany przez wynalazki dokonane przez naszych praprzodków. Mamy o wiele mniej masywne szczęki i o wiele większe mózgi niż nasi małpi krewni. Jedna z hipotez mówi, że na kształt naszej czaszki bezpośredni wpływ miało odkrycie ognia i gotowanie na nim posiłków. Ugotowane mięso nie wymagało już takiej siły zgryzu jak surowe, z czasem więc nasze szczęki się skurczyły. Jednocześnie dostarczało o wiele więcej łatwo przyswajalnych substancji odżywczych, co pozwoliło naszym ciałom "zaszaleć" i zainwestować w rozwój mózgów. Nie bylibyśmy tym, kim jesteśmy, gdyby nie pierwsze odkrycia naukowe.
Ale tamten przełom może być małym kroczkiem w porównaniu z tym, co dzieje się z nami teraz.
W 2019 roku światowe media obiegła sensacyjna wiadomość: australijscy naukowcy odkryli, że młodzi ludzie, którzy (według niektórych dorosłych) pół życia spędzają z głową pochyloną nad smartfonem, mają... rogi. Albo raczej małe, kolczaste wyrostki na tylnej części czaszki, które miały powstawać przez to, że pochylona głowa inaczej rozkłada ciężar naciskający na kręgosłup. To bzdura, którą szybko rozłożyli na czynniki pierwsze inni naukowcy, zmuszając autorów oryginalnego badania do opublikowania sprostowania. Ale najciekawsze nie jest to, co dzieje się przez technologie z naszymi głowami, a to, co dzieje się w ich środku.
Wszystkie badania poświęcone wpływom, jaki technologie wywierają na funkcjonowanie naszych mózgów mają jedno zasadnicze ograniczenie: czas. Rozwój Internetu, błyskawiczna kariera smartfonów czy mediów społecznościowych nastąpiły w takim tempie, że wszyscy badający je naukowcy mają, siłą rzeczy, ograniczone dane: trudno jest przeanalizować naprawdę długofalowe trendy, zbadać wpływ, jaki kontakt z technologiami informatycznymi wywiera na nas przez całe nasze życie, skoro dla przytłaczającej większości z nas intensywny kontakt z komputerami, internetem czy smartfonami trwa dopiero kilka, kilkanaście, czasem nieco ponad 20 lat. Na pytanie: jak zmieni się nasz sposób myślenia za pokolenie czy dwa, można udzielić tylko jednej szczerej odpowiedzi: nie mamy pojęcia. Ale mamy już pewne pojęcie na temat tego, w którą stronę zmierzamy.
ZOBACZ RÓWNIEŻ: Nowa broń atomowa. Trwa wojna... na aplikacje
W 2007 roku, prof. Gary Small z Uniwersytetu Kalifornijskiego w Los Angeles sprawdził jak googlowanie wpływa na elektryczną aktywność mózgu. Uczestnicy badania, podpięci do czujników rejestrujących elektryczne impulsy w różnych częściach ich mózgów, mieli wyszukać w Internecie odpowiedzi na kilka pytań. Aktywność mózgów badanych zdecydowanie rosła podczas wykonywania zadania - zwłaszcza w korze przedczołowej, w obszarach odpowiadających za podejmowanie decyzji i rozwiązywanie problemów. Ale eksperyment zademonstrował też, jak szybko nasze mózgi reagują na interakcje z komputerem. O ile w pierwszym badaniu bardzo wyraźne było to, że mózgi osób na co dzień pracujących z komputerami były o wiele aktywniejsze niż nowicjuszy, o tyle już po kilku godzinach "rozgrzewki", w której ci drudzy mieli siedzieć w Internecie i szukać czegokolwiek, ich mózgi wyglądały niemal tak samo. "Pięć godzin w Internecie wystarczyło, żeby mózgi nowicjuszy się przestawiły" - zanotował Small. Badacz sugerował, że wraz z upływem czasu korzystanie z Internetu zmienia sposób pracy mózgu.
To było 13 lat temu. Dziś naukowiec miałby problem ze znalezieniem internetowych "nowicjuszy". Ale jeśli nasze mózgi dostosowują się do stałej współpracy z komputerami (co samo w sobie nie jest zaskakujące, bo z natury naszego mózgu wynika, że dostosowuje się do każdych nowych okoliczności), to z jakim skutkiem?
Pesymistką jest między innymi neurolożka, prof. Susan Greenfield z Uniwersytetu Oksfordzkiego. - Jako neurolog jestem bardzo świadoma tego, że mózg dostosowuje się do środowiska - mówiła podczas wykładu z 2014 roku i dodała:
Technologiczne Kasandry od wieków wieszczą, że nowe technologie zniszczą rodzinę, społeczeństwo czy samo nasze człowieczeństwo. Zagładę miały przynieść pociągi parowe, telegraf, telefon, radio, kino i telewizja. Ale prawdziwy obraz jest o wiele bardziej złożony. Wiele tracimy, ale wiele zyskujemy.
Trudno bezpośrednio porównywać działanie naszego mózgu do działania komputera, bo działają na zupełnie innej zasadzie. Ale istnieją szacunki mówiące, że nasz mózg ma zdolność przetwarzania danych porównywalną do komputera wykonującego 100 miliardów operacji matematycznych na sekundę. To dużo, ale na przykład należący do amerykańskiego Departamentu Energii superkomputer Summit, wykonuje ich w tym samym czasie 200 kwadrylionów. Co więcej, przytłaczająca większość działań naszego mózgu nie ma nic wspólnego ze świadomym myśleniem.
Jeśli przeciętny człowiek czyta w tempie 300 słów na minutę, czyli 5 na sekundę, to daje to zdolność do świadomego przetwarzania zaledwie 50 bitów informacji na sekundę. Badania amerykańskich Bell Labs sugerują nieco wyższy próg - 120 bitów.. Tymczasem szacuje się, że wszystkie komórki czuciowe naszego ciała wysyłają do mózgu 11 milionów bitów danych na sekundę - 10 mln z oczu, milion ze skóry, po 100 tysięcy z uszu i nosa oraz zaledwie około tysiąca bitów na sekundę z kubeczków smakowych. Przytłaczająca większość obróbki tych danych odbywa się w sposób nieuświadomiony.
A dzisiejszy świat dodaje do tego prawdziwy ocean informacji, docierających do nas z każdej strony. Przeciętny Amerykanin już w 2011 roku przyjmował pięć razy więcej danych każdego dnia niż w 1986 roku. Nawet w spoczynku odbieramy 34 gigabajty danych na dobę. Jak nasze mózgi radzą sobie z natłokiem informacji?
Największy wpływ technologii cyfrowych odczuwamy dziś w dwóch dziedzinach naszej umysłowej działalności: w zdolności do koncentracji uwagi i w tym, jak działa nasza pamięć.
Znowu - łatwo o panikę i łatwo o przekłamania. W 2015 roku karierę podobną do "smartfonowych rogów nastolatków" zrobiło badanie, z którego miało wynikać, że przeciętny człowiek jest w stanie skupić się na jednym zadaniu na mniej niż 12 sekund - podobno krócej niż złota rybka. To też bzdura. I to nie tylko dlatego, że złote rybki wcale nie są aż tak roztrzepane, jak się powszechnie sądzi.
- Zupełnie w to nie wierzę - mówił w BBC dr Gemma Briggs, psycholog z Open University.
Koncentracja i zmiany naszej zdolności do niej jest z tego powodu bardzo trudnym tematem dla badaczy. W ostatnich 10 latach opublikowano ponad 1200 prac naukowych poświęconych właśnie zmianom w naszym sposobie skupiania się. A konsensusu ciągle nie ma. Na przykład opublikowane już w 2003 roku badanie neurologów z uniwersytetu Rochester sugeruje, że gracze komputerowi lepiej koncentrują się na wyznaczonych zadaniach niż osoby, które nie grają. Więc co tak naprawdę się dzieje?
Problemem może wcale nie być to, czy potrafimy utrzymać uwagę na jednym zadaniu, tylko to, czy chcemy. Wszechobecność elektronicznych urządzeń i stały dopływ nowych bodźców sprawia, że jesteśmy przekonani, że potrafimy bez problemu robić wiele rzeczy jednocześnie. A, jak się okazuje, nasze mózgi nie opanowały jeszcze multitaskingu w wystarczającym stopniu. Kiedy próbujemy zająć się kilkoma rzeczami na raz, każdą z nich robimy gorzej. Co więcej, pojawiają się błędy w naszym sposobie przyswajania informacji.
W 2013 roku Stephane Amato z francuskiego Aix-Marseille Université sprawdził, co dzieje się ze zdolnością do przyswajania informacji osób robiących kilka rzeczy jednocześnie. Okazuje się, że stajemy się podatni na rodzaj umysłowego błędu, który sprawia, że o wiele lepiej oceniamy wagę pierwszych informacji, do których dotrzemy niż kolejnych. Szukamy danych szybko, ale niekoniecznie głęboko. Nic dziwnego, że to jeden z efektów wykorzystywanych przez ludzi szerzących dezinformację w sieci: jeśli nasycisz internet kłamstwami, wywrą one nieproporcjonalny do swojej wiarygodności efekt, bo często będą pierwszymi informacjami, z którymi rozproszeni ludzie się zetkną.
ZOBACZ RÓWNIEŻ: Wielkie spowolnienie technologiczne, czyli lata bez przełomów
Największe zmiany dotyczą jednak naszej pamięci. Wszystko wskazuje na to, że to właśnie pod tym względem nasze mózgi zmieniły się w najbardziej osobliwy sposób.
Dlaczego osobliwy? Bo nie można powiedzieć, że nasza pamięć się pogarsza. Ona się fundamentalnie zmienia.
- Odwiedza mnie co najmniej jeden pacjent w tygodniu, który jest przekonany, że ma początki Alzheimera, bo zapomina, gdzie położył kluczyki do samochodu czy o tym, że miał odebrać dzieci - mówi magazynowi "Voice" prof. Michael Saling, neuropsycholog z University of Melbourne.
Ale co, jeśli dałoby się połączyć oba te światy? Doskonałą pamięć komputera i zdolności analityczne mózgu? Wiele wskazuje na to, że właśnie dzieje się to w naszych głowach.
Badacze z Uniwersytetu Kalifornii w Santa Cruz i Uniwersytetu Illinois odkryli, że wraz z częstotliwością korzystania z Internetu rośnie nasza tendencja do używania komputera jako rodzaju zewnętrznego twardego dysku dla naszego mózgu.
- Nasza pamięć się zmienia - mówi prowadzący badania prof. Benjamin Storm.
Co nie oznacza, że mamy gorszą pamięć, po prostu inaczej z niej korzystamy. Inne badania sugerują, że wraz ze wzrostem naszego uzależnienia od "pamięci zewnętrznej", rośnie też nasza zdolność wyszukiwania potrzebnych informacji i odróżniania informacji wartościowych od bezwartościowych.
"Internet stał się dominującą formą naszej zbiorowej pamięci" - pisze prof. Betsy Sparrow, neurolog z Uniwersytetu Columbia "Zdolność naszego mózgu do dostosowywania się do nowych warunków jest zadziwiająca" - dodaje.
Ale takie przerzucenie części naszego bagażu wspomnień i wiedzy na zewnątrz może mieć skutki uboczne. Z opublikowanego w 2016 roku badania Dartmuth College wynika, że wraz ze wzrostem naszego uzależnienia od Internetu, zmienia się sposób, w jaki przetwarzamy informacje. "Skupiamy się na konkretnych danych, zamiast interpretować informacje w sposób bardziej abstrakcyjny" - piszą autorzy. A to może mieć istotny wpływ na to, co czyni nas ludźmi: kreatywność.
- Kreatywność wypływa z wiedzy. Z umysłu, który wie i pamięta - mówi prof. William Klemm, neurolog z Texas A&M University. Czy wystarczy, że wie, jak się dowiedzieć? Niekoniecznie. Słynny neurofilozof David Chalmers jest jednak optymistą. "Technologia zwiększa nasze możliwości daje nam zupełnie nowe, złożone sposoby myślenia" - pisze Chalmers, autor serii książek o świadomości. "Na swój sposób automatyzuje pracę, którą kiedyś musieliśmy wykonywać sami, świadomie i powoli, i pozwala na wykonywanie jej szybko i automatycznie."
Inny filozof umysłu, Daniel Dennett przestrzega jednak:
Oddaliśmy naszą pamięć urządzeniom. Może warto zastanowić się, zanim oddamy im resztę naszych umysłów.