O zagrożeniach sztucznej inteligencji, czyli… strzeż się słodkich króliczków.

  • Post category:Blog

Czy słodkie króliczki mogą być niebezpieczne?

Okazuje się, że tak. Zwłaszcza te, których nigdy nie było. 

Scena jest znajoma: scrollujesz TikToka „tylko pięć minut”. Po chwili widziałaś już króliki na trampolinie, grupę kotów jadących metrem, psa ratującego dziecko z pożaru i jastrzębia porywającego niemowlę. Emocjonalny rollercoaster w wersji „short”. Zachwyt, strach, ulga. Algorytm szczęśliwy, ty trochę mniej – ale jeszcze o tym nie wiesz.
Bo to wszystko ma jedną wspólną cechę: nie wydarzyły się.
To nie jest dokument, to nie jest reportaż, to nie jest „prawdziwe życie uchwycone przypadkiem”. To jest treść fabrycznie przetworzona, wytworzona, zoptymalizowana pod lajki, udostępnienia i czas spędzony z otwartą buzią przed ekranem. Słowem: rzeczywistość syntetyczna.
I teraz najgorsze: im częściej ją oglądasz, tym bardziej w nią wierzysz.
Psychologowie od dawna znają zjawisko zwane efektem czystej ekspozycji. Polega ono na tym, że informacja, na którą natykamy się wielokrotnie, zaczyna wydawać się bardziej wiarygodna, tylko dlatego, że ją widzimy po raz kolejny. Nie dlatego, że jest prawdziwa. Dlatego, że jest… znajoma.
Najnowsze badania pokazują, że ten mechanizm działa już nie tylko w przypadku tekstu, ale obrazów generowanych przez AI. W skrócie: im częściej widzisz syntetyczne obrazki i filmiki, tym bardziej jesteś skłonna uznać je za dokumentację rzeczywistości. Dzieje się tak nawet jeśli całość powstała wyłącznie w modelu generatywnym, a nie w świecie fizycznym.
Innymi słowy stwierdzenie, że „Kłamstwo powtarzane tysiąc razy staje się prawdą” sprawdza się również z wersji: „Obraz widziany tysiąc razy staje się rzeczywistością”.
I teraz wyobraź sobie, że tę zasadę aplikujemy nie do króliczków, ale do nagrań z „pola walki”, „przecieków” z gabinetów polityków, „dowodów” na czyjąś winę lub niewinność.
Wystarczy odpowiednio dużo odsłon, udostępnień i komentarzy typu „szok” – i masz gotowy społeczny konsensus na temat czegoś, co nigdy nie miało miejsca.

Od rozrywki …do inżynierii społecznej…wcale nie daleko
To nie przypadek, że filmiki są krótkie, emocjonalne, łatwe do zrozumienia bez kontekstu i najczęściej „urocze” albo „szokujące”. To jest technologia inżynierii emocji.
Farmy treści AI działają jak taśmy produkcyjne: wytwarzają setki tysięcy kadrów, w których pies „ratuje” dziecko albo dziecko „prawie” ginie. Wszyscy w komentarzach płaczą, wzruszeni wiarą w „dobro świata”.
Po co? Bo emocja to dzisiaj wartość – jak waluta.
EMOCJA = ZAANGAŻOWANIE, a ZAANGAŻOWANIE = ZASIĘG, a ZASIĘG = PIENIĄDZE.

Na końcu tej układanki nie ma króliczka. Jest monetyzacja twojej uwagi. A efektem ubocznym jest coś znacznie poważniejszego niż kilka minut zmarnowanego czasu – jest rozszczelnienie twojego zmysłu rzeczywistości.

TRACIMY ODRUCH ZADAWANIA PYTAŃ I KWESTIONOWANIA
Nasz problem nie zaczyna się wtedy, kiedy farmy trolli i AI preparują i rozsyłają fejkowe nagrania z wojny lub z sypialni polityków. Zaczyna się on już przy słodkich króliczkach na trampolinie, których przecież nie chce ci się weryfikować, bo… po co? To przecież tylko zabawa, jeden z tysiąca memów, tylko śmieszny filmik.
No właśnie: tylko. Okazuje się, że nasze mózgi w toku ewolucji nie wygenerowały jeszcze osobnego folderu „śmietnik”, do którego automatycznie usuwałyby takie wrażenia. Mają za to wypracowany przez setki tysięcy lat ewolucji bardzo efektywne mechanizmy uczenia się. Te mechanizmy powodują, że to co widzimy często, traktujemy jako coś „normalnego” i przestajemy analizować. To zaś, co w nas wywołuje emocje, wchodzi głębiej niż to, co jest nudne, ale prawdziwe.
W efekcie, małymi kroczkami, zabijamy w sobie odruch weryfikowania i kwestionowania. Prościej – jeśli przestajesz pytać „czy to w ogóle jest prawdziwe?” przy słodkich króliczkach na trampolinie – istnieje spora szansa, że nie zadasz tego pytania także przy materiale, który ma realne konsekwencje polityczne, społeczne czy prawne.

NO I CO Z TEGO? GDY EMOCJE ZASTĘPUJĄ DOWODY
Cywilizacja, w której żyjemy (i na którą tak lubimy narzekać), opiera się na kilku podstawowych założeniach. Żyjemy w świecie (mniej lub bardziej) demokratycznym, w którym nauka uznawana jest za źródło wiedzy a media (a raczej to co kiedyś nazywano dziennikarstwem) – pilnują, aby przekazywane nam fakty były faktami.
Demokracja zakłada, że obywatele podejmują decyzje na podstawie mniej więcej wspólnego obrazu rzeczywistości. Podejście naukowe zakłada, że dane można zweryfikować i powtórzyć, a dziennikarze pilnują aby fakty dotarły do obywateli.
Niestety, ten wspólny obraz rzeczywistości to nie jest luksus. To jest warunek brzegowy. Bez niego mamy referendum na podstawie deepfake’ów, wybory oparte na viralach i politykę prowadzoną przez algorytmy rekomendacji.
W efekcie nie ma wspólnej rzeczywistości, tylko wojna równoległych narracji. Tam już nie ma miejsca na debatę, zostaje jedynie licytacja na to, kto ma lepsze studio do generowania symulacji.
„Przecież ja tylko oglądam filmiki ze zwierzętami”
To jest ten moment, w którym część czytelników (o ile dotarła do tego miejsca) z ulgą wzdycha: „Ale ja przecież nie oglądam polityki, tylko zwierzaki”. Niestety, z punktu widzenia mechanizmów psychologicznych, nie ma znaczenia, co jest na obrazku. Liczy się to, że jest emocjonalnie naładowany, syntetyczny, powtarza się… i nie wymaga od ciebie żadnego wysiłku umysłowego.
To właśnie na tych niewinnych treściach uczysz swój mózg nawyku bezrefleksyjnej akceptacji obrazu. A nawyki nie pytają, w jakiej kategorii treści się je stosuje. Krótko mówiąc: dzisiaj słodkie króliki na trampolinie, jutro nagranie z „masakry, którą media ukrywają”.
Co możemy zrobić, zanim nasze mózgi uznają symulację za normę?
Nie chodzi o to, żeby rzucić telefon do jeziora i zamieszkać w lesie (chociaż brzmi to czasem kusząco). Chodzi o higienę poznawczą. Kilka praktyk, które naprawdę robią różnicę:
o Zasada podejrzliwości wobec zbyt doskonałych scen
Jeśli coś jest idealnie nagrane i perfekcyjnie wpisane w twoje emocje i poglądy – lepiej najpierw traktuj to jak reklamę, nie jak dokument.
o Świadomie ogranicz oglądanie „króliczków”
Nie musisz przestać oglądać wszystkiego. Ale możesz nie wchodzić w kilkunastominutowe ciągi podobnych filmików i przewijać dalej, kiedy czujesz, że to już piąty „bohaterski pies” dziś.
o Zadawaj zawsze pytanie: „Kto na tym zarabia?”
Jeśli coś: wzbudza silną emocję, rozchodzi się viralowo i jest powielane z kont bez nazwisk – prawdopodobnie jest częścią czyjegoś modelu biznesowego lub politycznego.
Traktuj obrazy jak opinie, nie jak dowody. Dopóki nie masz źródła, kontekstu i możliwości weryfikacji:
OBRAZ ≠ FAKT, a nie OBRAZ = SUGESTIA. Sugestie warto sprawdzać, zanim się je wpuści do głowy.

Podsumowanie: najgroźniejszy dla homo sapiens efekt sztucznej inteligencji
Urocze, zabawne, wzruszające filmiki, pośród śmiechu i łez trenują w nas jeden nawyk, który jest cywilizacyjnie zabójczy: oduczają nas zadawania pytań.
Nie chodzi o to, żebyś już nigdy nie polubiła filmiku z kotem. Chodzi o to, żebyś – zanim klikniesz „udostępnij” – zdążyła jeszcze pomyśleć: „Czy właśnie ktoś próbuje zrobić ze mnie darmowy procesor do rozpowszechniania symulacji?”
Bo jeśli przestaniemy pytać przy króliczkach, to gdy przyjdzie do spraw naprawdę ważnych, może być już za późno, żeby odróżnić rzeczywistość od dekoracji.

 

Źródła: 

https://www.newsguardrealitycheck.com/p/fun-phony-videos-are-more-dangerous?

https://english.tau.ac.il/research/seeing-is-believing?