Gdybyś mogła opisać z czym kojarzą Ci się fake newsy czy deep fake w trzech słowach to jakie określenia by to były?
Manipulacja, technologia i niebezpieczeństwo.
Dlaczego właśnie te? Bo z jednej strony deep fake to bardzo nowe pojęcie. Ono po raz pierwszy zostało użyte w 2017 roku na platformie Reddit. Podczas mojej prezentacji pokazywałam badania, które mówią, że 70 proc. ludzi na świecie nie wie czym jest deep fake, a z drugiej strony 60 proc. ludzi uważa, że byłoby w stanie je rozpoznać. To tylko pokazuje, jak niewiele wiemy o tym pojęciu.
Zobacz również
Wymieniłam manipulację, ponieważ 99 proc. deep fake’ów to pornografia, z czego 96 proc. to revenge pornograph. Wszystko pozostałe to kwestie polityczne, sztuczne konta w social mediach, aby oszukiwać userów finansowo. W przypadku manipulacji wykorzystujemy rozwój technologii z ludzką niewiedzą.
Niebezpieczeństwo, ponieważ w badaniach, okazało się, że 50 proc. respondentów najbardziej obawia się utraty tożsamości lub że ich dane zostaną wykorzystane, np. do założenia konta w banku, zaciągnięcia kredytu. Duże niebezpieczeństwo wynika z naszej niewiedzy, być może trochę z wyobrażenia o tym, że mimo wszystko wydaje się nam, że „my wiemy na czym to polega”.
Opowiadałam również o rzechach, na które trzeba zwracać uwagę przy rozpoznawaniu deep fake’ów. Są to: twarz, policzki, czoło, jak mrugamy powiekami, jak ruszamy ustami, jakie mamy pieprzyki. Czy oglądając, filmy online zwracamy uwagę na takie rzeczy? Szukanie nieścisłości nie jest pierwszą rzeczą, którą robimy patrząc na różne materiały video czy graficzne.
#NMPoleca: Jak piękny design zwiększa konwersję w e-commerce? Tips & Tricks od IdoSell
W jaki sposób fake newsy i deep fake wpływają na naszą zdolność do ufania informacjom, ale też na zaufanie do mediów? Czy możemy jeszcze wierzyć temu, co widzimy?
Ogólnie nie ufamy technologiom. W trakcie mojej prezentacji przytoczyłam wyniki badania KPMG. Było one przeprowadzone w lutym tego roku i dotyczyło zaufania do AI. Badanie pokazuje, że 61 proc. ludzi nie ufa lub ma obojętny stosunek do nowych technologii.
Słuchaj podcastu NowyMarketing
To jest jedna rzecz, ale z drugiej strony 82 proc. osób chce nauczyć i poznać czym jest AI – co uważam za bardzo obiecujące podejście. Inne badania mówią, że jedna trzecia osób twierdzi, że nie wykorzystywała zawodowo AI, a przecież jest on w pracy tak naprawdę wszędzie. Moim zdaniem to kolejny przykład pokazujący braki w edukacji.
Zostawiłam uczestników mojej prezentacji z czterema informacjami. Pierwsza jest taka, że nie możemy już tak ufać temu co widzimy. Kiedyś mówiło się, że „jak coś zobaczymy to uwierzymy”, ale tu ewolucja nie działa na naszą korzyść, bo właśnie ta technologia wykracza poza nasze zmysły.
Druga rzecz jest taka, że trzeba dokładnie wiedzieć, komu przekazujemy swoje dane, kto je dalej przekazuje, gdzie oraz co z tymi informacjami robi? Kto z nas czyta regulaminy? Zazwyczaj tylko wchodzimy na stronę, akceptujemy i to wszystko. W efekcie tworzy się nasz obraz w internecie, przedstawiający zainteresowania, historie zakupów czy zapytań, które bardzo dużo mówią kim jesteśmy i co nam można sprzedać.
Trzecia rzecz to fakt, że obecnie bardzo mocno rozwijają się technologie trustless, które mogą być rozwiązaniem na nasz brak zaufania do postępu technologicznego. Dlatego możemy podejrzewać, że między innymi blockchain będzie coraz w powszechniejszym użytku.
Ostatnia rzecz to zaufanie do technologii, do tego co znajdujemy w sieci, a na nie trzeba jednak zapracować. A kiedy jesteśmy społeczeństwem, które chętniej wysyła emotikony niż pełne zdania to zaufanie musimy budować w innych obszarach. Dlatego google’ajmy, pytajmy o rekomendacje i powinniśmy zadbać o krytyczne myślenie. Pamiętajmy, że działania na skróty nie zawsze są najlepsze i własny research staje się koniecznością.
Co możemy zrobić my, jako odbiorcy różnych treści, by lepiej oceniać wiarygodność informacji? Czy są jakieś techniki, narzędzia?
Oceniam, że pojawi się wysyp mediów zajmujących się fact checking’iem. Podczas prezentacji pokazałam też tzw C.R.A.P. test, do rozpoznawania fake newsów. C.R.A.P to skrót od: currency, czyli kiedy coś zostało opublikowane; relevance, czyli na ile to co czytamy daje nam odpowiedź na nasze pytanie; authority, czyli kto stworzył, przygotował, zainicjował jakąś rzecz i purpose, czyli w jakim celu ktoś coś wydostał.
Na co dzień jesteśmy dość ufni, brakuje nam podejrzliwości i kwestionowania tego, co ktoś udostępnia. Mam wrażenie, że często chłoniemy wszystko, co zobaczymy w sieci i udostępniamy dalej.
Takie mechanizmy część osób ma zakorzenione od dziecka. Sama pamiętam jak bezmyślnie spisywałam zadania z internetu, bez żadnej weryfikacji.
Myślę, że to czego się musimy teraz nauczyć to ostrożność i krytyczne myślenie.
AI z jednej strony może stać się narzędziem do tworzenia i rozprzestrzeniania fake newsów, deepfake’ów, ale czy może też być wykorzystana do walki z nimi?
Moim zdaniem, odwołując się do badań KPMG, 85 proc. ludzi wierzy, że AI ma potencjał, sprzyja tworzeniu nowej jakości i efektywności. Bardzo ważne jest to, w którą stronę i jak świadomie będziemy tym kierować, ale też jak my będziemy rozumieć, jak ta technologia jest wykorzystywana. Mnóstwo pracy, ale też potencjału biznesowego mają tutaj firmy tworzące produkty oparte na sztucznej inteligencji. Liderzy w edukacji w tym obszarze mają szansę zdobyć sporą przewagę konkurencyjną.
Przytaczając klasyczne badanie z teorii dyfuzji innowacji – czyli w jaki sposób przyswajamy technologie i stosujemy na co dzień powinniśmy mieć świadomość, że im bardziej technologia jest podzielna, możliwa do stopniowego wdrażania tym chętniej będziemy z niej korzystać. A z drugiej strony – im bardziej będziemy ją rozumieć, tym mniej będziemy się bać. Osobiście jestem za współpracą na linii człowiek-technologia i widzę w tym ciekawe źródło inspiracji. Nie obrażałabym się na technologię.
W takim razie, może by wyczulić niektórych odbiorców na fake newsy – czy jesteś w stanie wskazać najczęściej powtarzające się schematy/tematy wykorzystywane w tworzeniu takich fałszywych informacji/zdjęć itp.?
Takich sytuacji, kiedy mamy do czynienia z szerzeniem nieprawdy w sieci jest naprawdę dużo. Według badań najpopularniejsze jest wykorzystywanie deep fakeów czy fake newsów do zemsty na byłym partnerze czy partnerce oraz w kwestiach politycznych, czy związanych z kulturą, np. wykorzystanie wizerunku aktorów.
I ostatnia kwestia, z którą być może część z nas nieraz miała styczność, czyli wiadomości na Instagramie od sztucznych kont, kiedy dostajemy w prywatnych wiadomościach prośby od znajomych o pożyczenie pieniędzy lub okazjach inwestycyjnych.
Rola mediów społecznościowych jest pozytywna czy negatywna w procesie walki z dezinformacją?
Chciałabym, żeby była pozytywna. Wydaje mi się, że jednak media społecznościowe robią nam dużo szkody. Ich specyfika zakłada szybkość kontaktu, łatwość podania informacji dalej i chętnie z tego korzystamy udostępniając różne treści nieraz emocjonalnie. Zachęcam, aby dwa, a nawet trzy razy się zastanowić, zanim puścimy coś dalej w świat. Brakuje nam analizy tego, co lub kto stoi za wypuszczaniem takich rzeczy online.
Czy deep fake są jedynie negatywne? Czy możemy mówić o ich innych celach, jak np. cel rozrywkowy (odnosząc się do popkultury) czy edukacyjny (z wykorzystaniem wizerunku nieżyjących osób)?
Podawałam podczas prezentacji przykład temat Toma Cruise’a. To jest super przykład zabawy. Na TikToku jest profil @deeptomcruise, który ma 5 milionów 200 tysięcy obserwujących i przedstawia przygody Toma Cruise’a. To są świetnie zrobione deepfake’i. Na koniec jednak nie mam złudzeń, że przygotowanie ich musi się komuś opłacać. Jego stworzenie kosztuje dużo pracy i czasu, więc jeżeli ktoś dostrzeże w tym możliwości zarobienia nawet poprzez zabawę to będzie miał świetny viral.
Moim zdaniem to dobry pomysł na kampanię, aby np. wykorzystać wizerunek znanych postaci, które nie żyją. Wyobraźmy sobie, że tworzymy ciekawą akcję, animację, np. z Edisonem. Po prostu ktoś musi zobaczyć w tym zysk dla siebie, bo na chwilę obecną dezinformacja jednak bardziej się opłaca.
Jeśli chodzi o aspekty prawne, czy są jakieś wytyczne dla dostawców technologii, ale i treści, które mogłyby chronić przed opublikowaniem fałszywych treści? Jeśli nie to jak wygląda ta perspektywa prawna?
Mogę jedynie powiedzieć jakie ja mam zdanie w temacie regulacji. Osobiście uważam, że te kwestie powinny być regulowane, ale jednocześnie zdaję sobie sprawę, że AI tak szybko się rozwija, że regulacje mogą nie pojawiać się równie szybko.
Czy uważasz, że na tym etapie rozwoju technologii powinna być ona czymś normalnym i powszechnie dostępnym?
Uważam, że jak najbardziej, jednak to, co ważne to edukacja o możliwościach zastosowania danej technologii. Wyobraź sobie swoją mamę, babcię, dziadka – ich też trzeba edukować. Zobacz jak fantastyczną robotę robią teraz wszystkie kampanie w stylu „nie poddawaj numeru konta przez internet”, „nie klikaj w podejrzane linki, które otrzymujesz w SMS-ach”.
Dzieci również zawsze trzeba edukować. Moim zdaniem w tym momencie większą szkodę jednak mogą wyrządzić sobie osoby starsze, więc nie definiowałabym tego ze względu na wiek, ale na pilność, że trzeba edukować wszystkim. Ważne w tym jest, aby szukać rozwiązań i dobierać przekaz, który będzi trafiał do grupy docelowej.
Konferencja Infoshare 2023 – festiwal społeczności napędzanej technologią!
Ponad 6000 tysięcy uczestników, ponad 500 startupów, korporacje oraz blisko 200 ekspertów z całego świata, którzy podzielili się wiedzą na 9 scenach Infoshare. Tak wyglądał Infoshare 2023! Największa technologiczna konferencja w CEE odbyła się w maju w Gdańsku. Relacja z wydarzenia dostępna jest nas stronie www.infoshare.pl/conference.