W listopadzie 2024 roku w Stanach Zjednoczonych odbędą się wybory prezydenckie, w których – wszystko na to wskazuje – rywalizować będą ze sobą obecnie sprawujący władzę Joe Biden oraz chcący odzyskać pozycję Donald Trump. Pomimo że do rozstrzygającego starcia pozostało jeszcze sporo czasu, niektórzy już próbują wpłynąć na jego potencjalny wynik.
Czy problemy związane z rozwojem technologii AI są możliwe do opanowania? Czy konieczna będzie zmiana prawa? Jak radzić sobie z fałszywymi przekazami i umiejętnie je identyfikować? O komentarze poprosiliśmy prof. dr. hab. Dariusza Jemielniaka z Akademii Leona Koźmińskiego w Warszawie oraz dr. Konrada Maja – kierownika Centrum HumanTech na Uniwersytecie SWPS w Warszawie.
Zobacz również
Fałszywy Joe Biden
Przy pomocy sztucznej inteligencji oszuści przygotowali sfabrykowane nagranie audio, na którym podszywali się pod prezydenta Bidena. Następnie dzwonili do wyborców z New Hampshire i w imieniu polityka namawiali ich, aby w prawyborach nie oddawali swoich głosów na Demokratów.
Jak podaje Bloomberg, wiadomość telefoniczna miała zachęcać obywateli do tego, aby zachowali swój głos na listopadowe wybory. W nagraniu wykorzystane zostało nawet jedno z charakterystycznych sformułowań obecnego prezydenta, czyli „Co za banda głupców!”.
W rzeczywistości wzięcie udziału w prawyborach nie odbiera obywatelom szansy decydowania o ostatecznym wyniku listopadowego wyścigu prezydenckiego.
#PolecajkiNM cz. 32: czego szukaliśmy w Google’u, Kryzysometr 2024/25, rynek dóbr luksusowych w Polsce
Oświadczenie Biura Prokuratora Generalnego
– Te działania wydają się być bezprawną próbą zakłócenia prawyborów prezydenckich w New Hampshire. Wyborcy powinni zignorować treść tych wiadomości i mieć świadomość, że głosowanie w prawyborach prezydenckich nie wyklucza możliwości głosowania w listopadowych wyborach powszechnych – czytamy w oświadczeniu wydanym przez Biuro Prokuratora Generalnego.
Słuchaj podcastu NowyMarketing
Największy problem leży jednak w tym, że dla mieszkańców nieświadomych tego, jakie możliwości oferuje sztuczna inteligencja, fałszywy głos mógł brzmieć bardzo wiarygodnie, a co za tym idzie – realnie wpłynąć nie tylko na wyniki prawyborów, ale też na rezultat listopadowych wyborów powszechnych.
Polityczny deepfake jako realne zagrożenie
Sztuczna inteligencja, która w minionym roku zrewolucjonizowała wiele obszarów naszego życia i znacząco ułatwiła wykonywanie niektórych zawodowych obowiązków, może stać się także nowym narzędziem służącym dezinformacji. Sytuacja prezydenta Bidena pokazuje, jak łatwo jest manipulować, szczególnie nagraniami audio, które są nieskomplikowane w edycji, tanie w produkcji i wyjątkowo trudne do wyśledzenia w przestrzeni publicznej. Naukowcy alarmują, że w sytuacji połączenia przekonującej wiadomości telefonicznej i bazy danych rejestracji wyborców, powstaje polityczna broń, z którą nie poradzą sobie nawet najbardziej zaawansowane systemy wyborcze.
Zdaniem prof. dr hab. Dariusza Jemielniaka z Akademii Leona Koźmińskiego problem będzie błyskawicznie narastał.
– Co prawda z deepfake stykać się będziemy na każdym kroku i częściowo to zwiększy naszą odporność na podobne manipulacje, ale nadal ok. 20-30% populacji będzie się dawać wodzić za nos, a to wystarczająco dużo, aby całkowicie zmieniać wyniki wyborów. Przedstawiciele i przedstawicielki partii demokratycznych nie będą sobie mogli pozwolić na korzystanie z tych technologii w aż tak dużym stopniu, bo byłoby to dyskwalifikujące dla ich środowiska wyborczego, spowoduje to dalszy szybki przechył na rzecz populistów i radykałów – mówi profesor Jemielniak.
Technologiczna plaga
Sfałszowane nagranie prezydenta Bidena nie było pierwszym tego rodzaju. W zeszłym roku, tuż przed wyborami parlamentarnymi na Słowacji, w mediach społecznościowych rozpowszechniły się podrabiane nagrania dźwiękowe, w których m.in. lider partii, Michal Simecka, omawiał rzekomy plan zakupu głosów wyborczych.
Nie jest do końca jasne, w jaki sposób została wygenerowana wiadomość prezydenta Stanów Zjednoczonych. Według Joan Donovan – adiunkta dziennikarstwa i studiów nad mediami na Uniwersytecie Bostońskim – wyśledzenie źródła fałszywego nagrania będzie szczególnie trudne, gdyż zostało ono rozpowszechnione drogą telefoniczną, a nie internetową. Wiadomości audio dostarczane przez telefon nie mają tej samej ścieżki cyfrowej, co nagrania rozprzestrzeniające się w internecie, a sytuację dodatkowo komplikuje nieustanny rozwój technologii sztucznej inteligencji. Niestety, ale już teraz pewne jest, że nie tylko przyczyni się ona do wzrostu liczby manipulacji, ale też będą one coraz lepsze, a co za tym idzie – coraz wiarygodniejsze.
Delegalizacja fałszywych nagrań
Rezultatem wyborczego oszustwa jest dążność Amerykańskiej Federalnej Komisji Łączności do tego, aby nielegalnym stało się wykorzystywanie głosów generowanych przez sztuczną inteligencję w automatach dzwoniących.
Rozwiązanie zostało zaproponowane przez przewodniczącą Komisji – Jessicę Rosenworcel – i jeżeli weszłoby w życie, to miałoby obowiązywać na mocy ustawy o ochronie konsumentów telefonicznych (TCPA).
– Klonowanie głosu i obrazy generowane przez sztuczną inteligencję już teraz sieją zamieszanie i sprawiają, że konsumenci łatwiej padają ofiarą oszustw i przekrętów. Dzisiaj każdy z nas może stać się ofiarą lub celem fałszywych podobnych manipulacji – przyznała Jessica Rosenworcel.
Polski startup zamieszany w amerykańskie oszustwo
Zajmująca się demaskowaniem oszustw głosowych firma Pindrop odkryła, że do stworzenia 39-sekundowej wiadomości, w której został użyty sfałszowany głos prezydenta Bidena, wykorzystano silnik zamiany tekstu na mowę. Silnik ten został stworzony przez polski startup ElevenLabs, który wykorzystuje oprogramowanie sztucznej inteligencji do replikowania głosu w ponad trzydziestu językach.
Jak donosi Bloomberg, ElevenLabs oficjalnie potwierdziło, że jego rozwiązanie zostało użyte przez oszustów. Startup zapewnia, że niemal natychmiast po zajściu zablokował konto, które było odpowiedzialne za ten przykry incydent.
Zmiana prawa
Rzecznik Federalnej Komisji Łączności powiedział, że potencjalna zmiana prawa w zakresie dostępu i możliwości wdrażania technologii sztucznej inteligencji w automatach telefonicznych może dać prokuratorom generalnym nowe uprawnienia w walce z oszustami.
Jak mówi doktor Konrad Maj – kierownik Centrum HumanTech na Uniwersytecie SWPS w Warszawie – wykorzystanie deepfake do stworzenia fałszywych nagrań głosowych prezydenta Bidena pokazuje, jak technologia, która przez wielu jest traktowana jako niewinna rozrywka lub ciekawostka, może wpływać na losy świata.
– Takie manipulacje mogą zwiększać dezorientację i sceptycyzm wobec autentycznych informacji, a to z kolei może prowadzić do zupełnego pogubienia się w całym szumie informacyjnym i do bierności wyborczej. Jeśli wyborcy nie będą potrafili powiedzieć jakie poglądy reprezentuje dany kandydat i jakie są jego plany, to wielu z nich przestaną interesować sprawy polityczne, a do wyborów nie podejdą. Do głosu dojdą wtedy jedynie polityczni aktywiści i radykałowie – zauważa doktor Maj. – Zmiana prawa wydaje się konieczna, choć zidentyfikowanie źródeł fake newsów w przestrzeni internetowej już w tej chwili jest bardzo trudne do wykrycia. Publikowanie zmanipulowanego materiału do sieci przypomina wylanie pod osłoną nocy wiadra mocno toksycznej substancji do rzeki. Oprócz zmian prawnych należałoby także opracować lepsze możliwości identyfikowania tego, kto i co zamieszcza w Internecie lub co podaje dalej. Z kolei w przypadku takich sytuacji, jak to z nagraniem głosu Bidena, pozostaje jedynie rozwijanie narzędzi mających możliwość blokowania tego rodzaju przekazów już na starcie. Nieodzownym elementem jest jednak edukowanie społeczeństwa w zakresie krytycznego myślenia i umiejętnego rozpoznawania fałszywych informacji – przekonuje doktor Maj.
Zdjęcie główne: YouTube