Technologia
Czy przez AI internet zaczyna wyglądać „martwo”
Jeszcze dekadę temu internet wydawał się tętniącym życiem cyfrowym rynkiem, na którym – mimo chaosu – czuć było obecność drugiego człowieka. Dziś, scrollując tablicę na Facebooku, X (dawniej Twitter) czy przeglądając wyniki wyszukiwania w Google, coraz częściej towarzyszy nam specyficzne uczucie obcości. To wrażenie, że uczestniczymy w spektaklu wystawianym przez algorytmy dla innych algorytmów, przestało być domeną niszowych teorii spiskowych. Zjawisko to zyskało nawet swoją nazwę: Dead Internet Theory (Teoria Martwego Internetu). Choć pierwotnie brzmiała ona jak creepypasta z forum 4chan, w 2024 roku staje się naszą codziennością, a głównym paliwem tej transformacji jest generatywna sztuczna inteligencja.
Problem nie polega tylko na tym, że treści tworzonych przez AI jest dużo. Problem w tym, że zaczynają one wypierać autentyczną ludzką ekspresję, tworząc zamkniętą pętlę sprzężenia zwrotnego. Według raportu firmy Imperva, już w 2023 roku prawie połowa (49,6%) całego ruchu w sieci generowana była przez boty. To wzrost, który powinien nas niepokoić, bo nie mówimy tu o pożytecznych programach indeksujących strony, ale o armiach zautomatyzowanych kont, które publikują posty, komentują, lajkują i udają emocje, których nie mają.
Skąd się wzięła Teoria Martwego Internetu?
Pierwotne założenie Dead Internet Theory było radykalne: głosiło, że internet „umarł” około 2016 lub 2017 roku, a od tego czasu większość treści jest tworzona przez sztuczną inteligencję na zlecenie korporacji lub rządów w celu manipulowania opinią publiczną. Choć wtedy wydawało się to absurdem, dzisiejszy krajobraz mediów społecznościowych sprawia, że zaczynamy patrzeć na te tezy z większą wyrozumiałością. To, co kiedyś było teorią spiskową, dziś staje się mierzalnym problemem technologicznym i socjologicznym.
Wystarczy spojrzeć na Facebooka, gdzie algorytmy promują obrazy generowane przez AI, przedstawiające absurdalne konstrukcje, „dzieci budujące samoloty z plastikowych butelek” czy religijne ikony o nienaturalnej liczbie palców. Te posty zbierają setki tysięcy polubień i tysiące komentarzy typu „Amen” lub „Piękne dzieło”. Badacze z Uniwersytetu Stanforda i Georgetown zauważyli, że większość tych interakcji pochodzi od botów, które nawzajem nakręcają swoje zasięgi, tworząc iluzję ogromnego zainteresowania tematem, który dla myślącego człowieka jest ewidentnym fejkiem.
Zalew „slopu” – nowa kategoria cyfrowego śmiecia
W branży technologicznej pojawiło się nowe określenie: „slop” (pomyje). To analogia do spamu, ale dotycząca niskiej jakości treści generowanych przez AI. Slop to artykuły na blogach, które nie wnoszą nic nowego, instrukcje obsługi pisane przez ChatGPT, które zawierają błędy logiczne, oraz grafiki, które mają jedynie przyciągnąć wzrok na ułamek sekundy, by wygenerować wyświetlenie reklamy. Internet staje się coraz bardziej „hałaśliwy”, ale jednocześnie coraz mniej treściwy.
Dla przeciętnego użytkownika oznacza to drastyczny spadek zaufania do tego, co widzi na ekranie. Kiedyś zdjęcie z miejsca zdarzenia było dowodem. Dziś jest jedynie sugestią, którą musimy weryfikować w kilku źródłach. Erozja prawdy w sieci postępuje szybciej niż nasze mechanizmy obronne. Firmy zajmujące się cyberbezpieczeństwem ostrzegają, że generatywne AI pozwala na tworzenie kampanii dezinformacyjnych na skalę, o jakiej wcześniej nie mogliśmy marzyć. Jeden operator bota może dziś zarządzać tysiącami kont, które prowadzą ze sobą dialogi, tworząc pozory konsensusu społecznego w dowolnej sprawie.
Google i walka o przetrwanie wyszukiwarki
Największym polem bitwy jest obecnie wyszukiwarka Google. Przez lata uczyliśmy się, jak znajdować wartościowe informacje, ale AI wywróciło ten stolik. Masowe generowanie tekstów pod SEO (Search Engine Optimization) sprawiło, że pierwsze strony wyników często zajmują witryny, które nie mają autorów, a ich jedynym celem jest monetyzacja ruchu z reklam. Google w marcu 2024 roku przeprowadziło gigantyczną aktualizację algorytmu (Core Update), która miała na celu walkę z „spamem generatywnym”.
Mimo tych starań, użytkownicy coraz częściej dopisują do swoich zapytań słowo „Reddit”, szukając opinii prawdziwych ludzi, a nie wygenerowanych przez AI rankingów „10 najlepszych blenderów”. To jasny sygnał, że instynktownie szukamy ludzkiego pierwiastka, błędu, subiektywizmu – czegoś, czego model językowy, mimo swojej biegłości, nie potrafi wiarygodnie podrobić. Martwy internet to taki, w którym brakuje autentycznego doświadczenia (E-E-A-T: Experience, Expertise, Authoritativeness, Trustworthiness).
Media społecznościowe jako puste hale echa
Na platformie X zjawisko to jest szczególnie widoczne pod postami popularnych osób. Pierwsze kilkanaście lub kilkadziesiąt komentarzy to zazwyczaj odpowiedzi od kont z „niebieskim znaczkiem”, które często są botami używającymi AI do generowania generycznych uwag. Cel? Zdobycie wyświetleń i zarobienie na programie dzielenia się przychodami z reklam. Ludzie, widząc ten zalew automatyzacji, wycofują się z publicznych dyskusji, przenosząc się do zamkniętych grup na Discordzie, WhatsAppie czy Signalu.
To zjawisko nazywane jest „Dark Social”. Internet publiczny staje się teatrem botów, podczas gdy prawdziwe życie społeczne przenosi się do „cyfrowych ogrodów”, gdzie wstęp mają tylko zweryfikowani znajomi. Jeśli ta tendencja się utrzyma, otwarty internet, jaki znamy, faktycznie może stać się martwą skorupą wypełnioną marketingowym bełkotem i algorytmicznym hałasem.
Czy da się uratować sieć przed „uśmierceniem”?
Rozwiązania techniczne, takie jak cyfrowe znaki wodne dla treści AI czy zaawansowane systemy weryfikacji tożsamości, są w fazie rozwoju. Jednak problem ma głębsze podłoże – ekonomiczne. Tak długo, jak wyświetlenia i kliknięcia są walutą, a AI pozwala generować je najniższym kosztem, internet będzie zalewany slopem. Wartość autentyczności drastycznie jednak rośnie. Marki i twórcy, którzy potrafią udowodnić swoją „ludzkość”, budują dziś znacznie silniejsze więzi z odbiorcami niż kiedykolwiek wcześniej.
Warto wspomnieć o badaniach przeprowadzonych przez NewsGuard, organizację zajmującą się wiarygodnością mediów. Odkryli oni setki witryn „UAICW” (Unreliable AI-Generated Content Websites), które publikują tysiące artykułów dziennie bez żadnego nadzoru redakcyjnego. Często zawierają one niebezpieczne porady medyczne lub fałszywe nekrologi znanych osób. To pokazuje, że „martwy internet” to nie tylko kwestia estetyki czy nudy, ale realne zagrożenie dla bezpieczeństwa publicznego.
Przyszłość: Internet hybrydowy czy cyfrowa apokalipsa?
Nie wszystko jest jednak stracone. Sztuczna inteligencja to także narzędzie, które może pomagać w moderacji treści czy tłumaczeniu bariery językowej, co teoretycznie powinno nas łączyć. Kluczem jest jednak świadomość użytkownika. Musimy nauczyć się patrzeć na treści w sieci z dużą dozą sceptycyzmu. Krytyczne myślenie staje się najważniejszą umiejętnością XXI wieku.
Być może czeka nas powrót do korzeni – do mniejszych, kuratowanych społeczności, gdzie wiemy, kto stoi po drugiej stronie klawiatury. Internet może nie umiera, ale na pewno przechodzi bolesną transformację. Stary model, oparty na nieograniczonym zaufaniu do algorytmów podsuwających nam treści, właśnie się wyczerpał. Teraz to my, ludzie, musimy na nowo zdefiniować, co w tej sieci jest dla nas naprawdę wartościowe.
Podsumowując, choć wizja „martwego internetu” brzmi ponuro, jest ona również wezwaniem do działania. Potrzebujemy nowych standardów transparentności i lepszych narzędzi do odróżniania człowieka od maszyny. Bez tego ryzykujemy, że najważniejszy wynalazek ludzkości stanie się niezdatnym do użytku śmietniskiem danych, w którym echo naszych własnych słów, przetworzonych przez AI, będzie jedynym, co usłyszymy.
FAQ: Czy internet faktycznie umiera przez AI?
Czym dokładnie jest Dead Internet Theory?
To teoria sugerująca, że większość treści i interakcji w internecie jest generowana przez boty i AI, a nie przez ludzi. Choć brzmi radykalnie, badania potwierdzają ogromny wzrost ruchu zautomatyzowanego w sieci.
Jak rozpoznać treść wygenerowaną przez AI?
Zwracaj uwagę na nienaturalną powtarzalność fraz, brak konkretnych źródeł oraz błędy na grafikach (np. dziwne dłonie). Teksty AI często są bardzo poprawne politycznie i unikają kontrowersji lub silnych opinii.
Czy Google radzi sobie z zalewem treści AI?
Google regularnie aktualizuje algorytmy, by promować treści oparte na prawdziwym doświadczeniu (E-E-A-T). Walka jest jednak trudna, bo twórcy „slopu” stale znajdują nowe sposoby na oszukiwanie systemów.
Czy boty mogą wpłynąć na moje decyzje zakupowe?
Tak, poprzez generowanie tysięcy fałszywych opinii i komentarzy boty mogą tworzyć iluzję popularności danego produktu. Zawsze warto weryfikować recenzje w wielu niezależnych źródłach przed zakupem.
Gdzie szukać autentycznych treści w 2024 roku?
Warto wybierać sprawdzone redakcje, subskrybować newslettery konkretnych autorów oraz angażować się w mniejsze, moderowane społeczności na platformach takich jak Discord, gdzie weryfikacja tożsamości jest łatwiejsza.

