W Polsce kampania prezydencka trwa w najlepsze, podgrzewana wojną plemion PO i PiS, bez żadnej refleksji nad tym, co dzieje się na zewnątrz. Na świecie panuje totalne zamieszanie: rollercoaster na giełdach, cła rozdawane przez Trumpa na prawo i lewo, szachy 5D – jednym słowem: chaos. Kolejna wersja ChatGPT-4o pozwala dzięki krótkiemu promptowi wygenerować piękne obrazki. Wiemy, że zaraz pojawią się kolejne, jeszcze lepsze wersje i bardziej rozbudowane opcje. Technosolucjoniści zamknięci w swoich bańkach pieją z zachwytu nad tym, jak świat się zmienia i staje się „lepszy”, bardziej wydajny – bo w kilku kliknięciach można stworzyć kolejny bezwartościowy content zalewający internet. I w jednym mają rację: świat się zmienia.
Problem w tym, że wektor tych zmian – również w obszarze komunikacji politycznej – prowadzi równią pochyłą prosto w stronę piekła. Pobawmy się trochę w proroków politycznej przyszłości AI i zobaczmy, jak rozwój sztucznej inteligencji przełoży się na komunikację polityczną. Jednak zanim to zrobimy, cofnijmy się do przeszłości, aby zobaczyć, jak to się wszystko zaczęło.
Jestem tak stary, że tęsknię za Cambridge Analytica…
W zamierzchłej przeszłości, około 2010 roku, kiedy na świecie panował niezachwiany Pax Americana, brytyjska firma konsultingowa Cambridge Analytica pozyskała dane osobowe milionów użytkowników Facebooka bez ich świadomej zgody. Na ich podstawie firma mogła stworzyć profile psychograficzne użytkowników, które sugerowały, jaki rodzaj reklamy politycznej byłby najbardziej skuteczny dla konkretnej osoby. Cambridge Analytica wykorzystała pozyskane dane do analitycznego wspierania kampanii prezydenckich Teda Cruza i Donalda Trumpa w 2016 roku. Afera ta mocno wpłynęła na regulacje i wywołała debatę na temat ochrony danych osobowych. Od tego czasu wiele się zmieniło. Hołd lenny, jaki oddali technobaroni nowemu królowi, sprawił, że manipulacje polityczne zyskały nowe paliwo oraz możliwości, przy których działania CA wyglądają na niewinne zabawy licealistów na lekcji informatyki.
Głosy zza grobu
„Jeżeli nie możesz ufać żywym, zaufaj słowom umarłych” – powiedział kiedyś Paulo Coello, a może tego nie powiedział? Na pewno zgodnie z tym zdaniem działali politycy z Indii. Oni dali nam przedsmak tego, co nas wszystkich czeka w komunikacji politycznej. Podczas wyborów w Indiach w 2024 roku, które były jednymi z największych w historii, z prawie miliardową liczbą uprawnionych do głosowania, partie polityczne wykorzystały sztuczną inteligencję w nowatorski sposób, „wskrzeszając” zmarłych polityków na potrzeby kampanii. Jednym z najbardziej znanych przykładów było „wskrzeszenie” M. Karunanidhiego, ikonicznego lidera partii DMK, który zmarł w 2018 roku. W styczniu 2024 roku Karunanidhi pojawił się w formie deepfake’a na konferencji młodzieżówki swojej partii. Wygenerowane przez AI nagranie przedstawiało go w charakterystycznym żółtym szalu, białej koszuli i ciemnych okularach – dokładnie tak, jak zapamiętali go wyborcy.
Zmarły w 2018 M. Karunanidhi (po lewej) i jego wersja IA z 2024 roku (po prawej).
Źródło: https://www.abc.net.au/news/2024-05-30/how-ai-is-disrupting-india-election-campaign/103899138
Firma Muonium, która stworzyła deepfake Karunanidhiego, wykorzystała publicznie dostępne dane do wytrenowania modelu mowy i odtworzyła wizerunek lidera z lat 90., gdy był znacznie młodszy.
Innym przykładem było wykorzystanie wizerunku J. Jayalalithaa, byłej szefowej rządu Tamil Nadu, która zmarła w 2016 roku. W lutym 2024 roku oficjalne konto partii All-India Anna Dravidian Progressive Federation na platformie X opublikowało klip audio z głosem Jayalalithaa, znanej jako „Amma” (Matka). Według doniesień firma IndiaSpeaks Research Lab kontaktowała się z wyborcami za pomocą połączeń telefonicznych z głosem zmarłej Jayalalithaa, popierającej konkretnego kandydata. Partie polityczne w Indiach wydały szacunkowo 50 milionów dolarów na autoryzowane treści generowane przez AI w celu komunikacji z wyborcami. Obrońcy użycia AI twierdzili, że działania te były w większości konstruktywne i służyły głównie lepszemu połączeniu kandydatów z wyborcami. Tylko czy żerowanie na śmierci i manipulacji faktycznie ma taki cel?
Rzeczywistość na zamówienie
Większość z nas straciła możliwość weryfikowania prawdziwości tego, co widzi i co czyta w internecie. Nie ma to nic wspólnego z wykształceniem czy mityczną „edukacją”. Zalew post-prawdy jest zwyczajnie zbyt silny, a nasza zdolność koncentracji pozwala ogarnąć co najwyżej kilkusekundowego shorta. Zyskało to nawet swoją nazwę: TikTok Brain. Podobno średni czas koncentracji uwagi u człowieka zmniejszył się z 12 sekund do 8,25 sekundy w ciągu ostatnich dwóch dekad. Takie warunki są idealne do działania znanych już farm trolli i różnego rodzaju hejterów. To pole do rozwoju dywizji politycznych agentów AI.
Jak definiuje to określenie sama sztuczna inteligencja – agent AI to autonomiczny system oparty na sztucznej inteligencji, który wykonuje określone zadania, podejmuje decyzje i adaptuje swoje działania na podstawie analizy danych oraz zmieniających się warunków, bez potrzeby stałej interwencji człowieka. Idealne narzędzie do automatycznego znajdowania nowych punktów polaryzacji społecznej i moderowania ich rozwoju. Zamiast poszukiwania porozumienia, agent będzie szukać brudów lub je wytwarzać i dystrybuować. Lokalny polityk zadaje za dużo pytań – agentem go. Niewygodna sprawa dużej korporacji – zaraz znajdziemy „nowe” na temat jej przeciwników. Heglowskie powiedzenie: „Jeśli teoria nie zgadza się z faktami, tym gorzej dla faktów” znajdzie swoje nowe zastosowanie.
Technologia nigdy nie stawała po stronie słabszych
Jeśli już to robiła, to tylko dlatego, że została do tego zmuszona. To smutna konstatacja wobec możliwości, jakie daje szeroko pojęta technologia. Kiedyś Arabska Wiosna była uznawana za przykład tego, jak media społecznościowe mogą wspierać protestujących. Podobnie rzecz miała się w Hongkongu podczas protestów, kiedy to demonstranci używali szyfrowanych aplikacji do komunikacji i rozpowszechniania materiałów. Od tamtej pory szala przechyliła się jednak w drugą stronę. Zawieszone konta tureckich opozycjonistów podczas niedawnych protestów na platformie X to tylko przedsmak sojuszu big techów z nieobliczalnymi radykałami. Dlaczego wielkie firmy zajmujące się AI, które bezczelnie kradną dane i sztukę do nauki swoich modeli, jak to miało miejsce w przypadku OpenAI i Ghibli, mają przejmować się czymś takim jak prawa człowieka? Może ich twórcy i przedstawiciele zrobią jakąś akcję CSR, pogadają na konferencjach o potrzebie etyki w AI, zeżrą homara na backstage’u, przeleją parę dolarów na „biedotę” i nara. W prawdziwej konfrontacji demokracja vs big tech ci drudzy nie dadzą sobie odebrać swoich praw.
Dehumanizacja przekazu
Jakiś czas temu Biały Dom w swoich oficjalnych mediach użył grafiki wygenerowanej przez AI w rysunkowym stylu, wspomnianego wcześniej studia Ghibli.
Źródło: X
Sprowadzenie poważnych tematów społecznych do formy komiksowego obrazka sprawia, że nie odczuwamy głębszej więzi emocjonalnej – to tylko zabawa, żart, świat, który nie istnieje. Tym razem chodziło o handlarza narkotyków; następnym razem będą to zatrzymani po protestach antyrządowych. To tylko jeden ze sposobów, aby ośmieszyć lub trywializować problem, który jest niewygodny dla władzy.
Deepfake, obrazki, zabawne animacje uderzające w oponentów sprawią, że problem stanie się niepoważnym żartem, a aktywiści gównażerią, której nie należy brać na poważnie. Co więcej, tego typu content będzie można produkować w milionach, tak że zaleje cały internet. Jak to mamy w zwyczaju z podobnymi treściami – pośmiejemy się i pójdziemy dalej, aby zajrzeć do kolejnego kubła z intelektualnymi śmieciami.
Idealna szczepionka na demokrację i aktywność społeczną
Skłamałbym, gdybym powiedział, że nie używam narzędzi AI. Wykorzystuję je często, bo w wielu aspektach niezwykle upraszczają i przyspieszają pracę nad projektami strategicznymi. Obrazek, który użyłem do ilustracji felietonu, to nie dzieło grafika, za które zapłaciłem – tylko jedno zdanie darmowego prompta. Tylko co z tego? Większość energii AI pójdzie na zgotowanie nam politycznego piekła – co do tego nie mam żadnych wątpliwości. Obecny rozwój AI można porównać do momentu, w którym odkryliśmy plastik i fakt, że można z niego zrobić niemal wszystko. Od tego czasu zaczęło się bezmyślne zalewanie świata tworzywem sztucznym, tak jak teraz dzieje się to w przypadku contentu AI. Jak foliówka-zrywka, to „plastikowe” AI używane jest przez sekundę, a potem trafia na śmietnik i do oceanu, bez żadnej refleksji. Plastikiem już zalaliśmy i omal nie zabiliśmy planety i zwierząt, a fabryka informacji i post-prawdy generowanej przez AI zatruwa umysły, dając politykom niesamowitą władzę i narzędzia do masowej manipulacji oraz moderowania dyskusji w wygodną stronę. A co jest w tej sytuacji „najlepsze”? Sami na to pozwolimy i będziemy cieszyć się jak dzieci karmione słodkimi, ale trującymi cukierkami.
Radosław Kaczmarek
Strateg marketingowy z ponad 15-letnim doświadczeniem, właściciel agencji strategicznej Melting Pot oraz twórca innowacyjnego marketplace’u InGloria.pl – platformy e-commerce dedykowanej produktom religijnym i okazjonalnym. W swojej karierze z sukcesem przeprowadził dziesiątki projektów strategicznych dla firm i marek z różnych branż, łącząc szeroką wiedzę marketingową z praktycznym podejściem biznesowym. Jego strategie wyróżniają się przejrzystością, praktycznością i skutecznością we wspieraniu rozwoju produktów oraz budowaniu silnych marek. Doświadczenie w prowadzeniu własnych przedsięwzięć biznesowych pozwala mu lepiej rozumieć potrzeby klientów i dostarczać rozwiązania, które realnie przekładają się na wzrost ich biznesu.