Jak zatrzymać pseudowiedzę? [OPINIE]

pseudowiedza opinie
Internet pełen jest porad, analiz i opinii, które wyglądają na eksperckie, ale w rzeczywistości wprowadzają w błąd. Szczególnie w obszarach zdrowia, finansów czy prawa konsekwencje mogą być poważne. Jak skutecznie przeciwdziałać takim treściom?
O autorze
16 min czytania 2025-11-06

Zjawisko pseudowiedzy i fałszywych informacji stało się jednym z największych wyzwań współczesnej przestrzeni medialnej. W dobie mediów społecznościowych każdy może stać się „specjalistą”. Granica między rzetelną informacją a manipulacją często bywa nieuchwytna. W czasach, gdy rozwój technologii, w tym sztucznej inteligencji, przyspiesza z dnia na dzień, pytania o odpowiedzialność za treści publikowane w sieci stają się coraz bardziej palące.

Eksperci ocenili skalę zagrożenia płynącego z pseudowiedzy, jakie działania mogą realnie ograniczyć jej wpływ, a także – kto powinien ponosić odpowiedzialność za treści docierające do milionów odbiorców. Swoją opinią podzielili się: prof. dr hab. Dariusz Jemielniak (Akademia Leona Koźmińskiego), Michał Kanownik (Związek Cyfrowa Polska), Adam Majchrzak (DEMAGOG), Katarzyna Lipka (NASK), Izabela Jarka (NASK), Stowarzyszenie Pravda oraz Google Polska.

Opinie ekspertów

prof. dr hab. Dariusz Jemielniak

profesor w Akademii Leona Koźmińskiego

Pseudowiedza i dezinformacja stanowią obecnie jedno z najbardziej poważnych zagrożeń dla społeczeństw demokratycznych – nie jest to przesada, lecz konkluzja płynąca z badań empirycznych. Problem polega nie tylko na skali zjawiska, ale na jego strukturalnym charakterze. W moich badaniach nad Wikipedią obserwowałem, jak społeczności radzą sobie z weryfikacją wiedzy poprzez kolektywną inteligencję. Dzisiaj widzimy odwrotny proces – fragmentację przestrzeni informacyjnej, gdzie każda grupa może mieć własne „fakty”.

Kreowanie nieprawdziwych treści nie wymaga obecnie specjalistycznych umiejętności, a łatwe w użyciu interfejsy do dużych modeli AI umożliwiają eksplozję fałszywych informacji i tzw. syntetycznych treści. W obszarach zdrowia, finansów i prawa konsekwencje są szczególnie dotkliwe – błędna informacja medyczna może kosztować życie, a pseudoporada finansowa – oszczędności życia. Co gorsza, odróżnienie fałszywych informacji od prawdziwych jest coraz trudniejsze, a czasem nawet niemożliwe 

Z perspektywy badawczej, kluczowy jest problem erozji zaufania do wszelkich źródeł – gdy wszystko może być deepfake’iem, gdy każdy ekspert może okazać się oszustem, tracimy wspólną podstawę epistemologiczną. To nie jest tylko problem techniczny – to kryzys społeczny.

Skuteczne przeciwdziałanie pseudowiedzy wymaga podejścia wielowarstwowego. Na poziomie regulacyjnym Unia Europejska podjęła istotny krok. Digital Services Act (DSA), stosowany od 17 lutego 2024 roku, nakłada na platformy cyfrowe obowiązek szybkiego reagowania na nielegalne treści, zwiększa transparentność algorytmów rekomendacji oraz wymaga, by bardzo duże platformy (powyżej 45 milionów użytkowników) ustanawiały plany mitygacji ryzyka systemowego, takiego jak dezinformacja czy manipulacja w procesach wyborczych.

Jednak wdrożenie tych przepisów napotyka na poważne problemy. Raport EDMO ostrzega, że istnieje wyraźna przepaść między deklaracjami platform a dowodami rzeczywistego wdrożenia zobowiązań. Innymi słowy: przepisy są dobre, ale egzekucja kuleje. To klasyczny problem governance’u cyfrowego – regulować można tylko to, co da się zmierzyć i zweryfikować, a platformy działają jak czarne skrzynki.

Na poziomie edukacyjnym kluczowa jest edukacja medialna, choć mimo starań środowisk akademickich, ludzie wciąż mylą fakty z opiniami, a edukacja medialna powinna wykształcić umiejętność krytycznego i refleksyjnego odbioru informacji. Polska ma w tym zakresie sporo do nadrobienia – edukacja medialna została wprowadzona reformą z 1999 roku jako ścieżka międzyprzedmiotowa, ale nigdy nie stała się pełnoprawnym przedmiotem.

Z badań wiemy, że skuteczne są:

  • programy edukacyjne oparte na praktycznych ćwiczeniach, a nie tylko teorii,
  • współpraca z niezależnymi organizacjami fact-checkingowymi,
  • transparentne procesy moderacji treści. Kluczowe jest też uczenie nie tyle „co myśleć”, ale „jak myśleć” – rozwijanie krytycznego myślenia, a nie przekazywanie gotowych odpowiedzi.

TikTok, Instagram, YouTube – kto dziś ponosi odpowiedzialność za to, co trafia do odbiorców? To fundamentalne pytanie, które dzieli specjalistów. Platformy społecznościowe korzystają z modelu biznesowego, w którym użytkownicy płacą swoimi danymi, które są wykorzystywane do targetowania i sprzedawane reklamodawcom. Są to nie tylko dane świadomie udostępnione, ale także dane wywnioskowane na podstawie zachowań online.

Z perspektywy prawnej: DSA nie nakłada na platformy odpowiedzialności za wszystkie treści, ponieważ są to usługi „pośrednie”, wykonywane na zlecenie odbiorcy. Jednak platformy muszą szybko reagować na zgłoszenia nielegalnych treści i mieć przejrzyste mechanizmy moderacji. 

Problem polega jednak na tym, że DSA dotyczy głównie treści „nielegalnych” – a większość pseudowiedzy i dezinformacji nie jest nielegalna, jest po prostu fałszywa. Tu zaczyna się trudna granica między wolnością słowa a ochroną przed szkodą.

Moim zdaniem odpowiedzialność powinna być wspólna, ale proporcjonalna:

  • twórcy ponoszą odpowiedzialność za celowe wprowadzanie w błąd, szczególnie w obszarach regulowanych (zdrowie, finanse),
  • platformy powinny odpowiadać za przejrzystość algorytmów i umożliwienie weryfikacji oraz za szybkie usuwanie treści nielegalnych,
  • algorytmy powinny być audytowalne – to nie są „niewinne” narzędzia, lecz systemy aktywnie kształtujące dyskurs publiczny; to musi być otwarty kod. 

Obecny model biznesowy platform powoduje erozję prywatności i naraża użytkowników na ryzyko manipulacji. Mikrotargetowanie i optymalizowanie algorytmów pod kątem największego zaangażowania wpływają negatywnie na stan debaty publicznej, jakość mediów i zdrowie psychiczne społeczeństwa. 

Platformy powinny mieć obowiązek:

  • wyraźnego oznaczania treści sponsorowanych i algorytmicznie promowanych,
  • umożliwienia użytkownikom kontroli nad tym, co widzą,
  • współpracy z niezależnymi fact-checkerami,
  • transparentności co do działania algorytmów rekomendacyjnych; nie chodzi o cenzurę, lecz o przejrzystość i kontrolę użytkownika.

Jak może zmienić się krajobraz treści eksperckich w ciągu najbliższych 5 lat? Niestety prognozy nie są optymistyczne. W 2023 roku w mediach społecznościowych udostępniono około 500,000 deepfake’ów filmów i nagrań głosowych, a prognozy wskazują, że do 2025 roku ich liczba może wzrosnąć do 8 milionów. Według Centrum Usług Finansowych Deloitte, straty wynikające z oszustw bazujących na AI w USA rosną w tempie 32% rocznie i do 2027 roku mogą osiągnąć 40 miliardów dolarów. To nie są abstrakcyjne liczby – to realne zagrożenie.

AI jest jednocześnie narzędziem generowania i walki z dezinformacją – klasyczny problem „wyścigu zbrojeń”. AI będzie coraz bardziej zaawansowane w analizie nie tylko treści tekstowych, ale także wizualnych, dźwiękowych i multimedialnych, co pozwoli na wykrywanie dezinformacji w różnych formach, takich jak deepfake. Jednak przyszłość będzie wymagała coraz bardziej zaawansowanych algorytmów, które będą potrafiły lepiej rozumieć kontekst i intencje za danymi treściami, co wymaga ścisłej współpracy między firmami technologicznymi, rządami i społeczeństwem obywatelskim.

W ciągu najbliższych 5 lat spodziewam się kilku trendów:

  1. Eksplozja treści generowanych przez AI – będzie ich więcej niż treści ludzkich. Większość „ekspertów” w social media może okazać się botami lub avatarami AI.
  2. Zanik pewności epistemologicznej – „czy to prawda?” stanie się pytaniem fundamentalnie trudniejszym. Gdy każde nagranie może być deepfakiem, a każdy tekst – generowany przez AI, tracimy podstawowe punkty odniesienia.
  3. Polaryzacja weryfikacji – powstanie rynek „certyfikowanych” treści eksperckich (np. z blockchain-owym potwierdzeniem autentyczności), ale równocześnie będzie kwitnął „czarny rynek” pseudowiedzy dla tych, którzy nie ufają oficjalnym źródłom.
  4. AI jako narzędzie obrony – algorytmy uczenia maszynowego będą coraz lepsze w wykrywaniu deepfake’ów, manipulacji i dezinformacji. Ale to będzie wyścig, który nigdy się nie skończy.
  5. Przewartościowanie zaufania – ludzie będą musieli nauczyć się na nowo, komu i czemu ufać. Paradoksalnie, może to oznaczać powrót do lokalnych, weryfikowalnych źródeł i ekspertów.

Kluczowe będzie nie tyle technologiczne rozwiązanie (bo to jest wyścig bez mety), ile budowanie odporności społecznej poprzez edukację, transparentność i ochronę niezależnych instytucji weryfikacji wiedzy. Edukacja społeczeństwa ma kluczowe znaczenie – AI może wspomagać w edukacji, ale ostateczna odpowiedzialność leży po stronie edukacji społeczeństwa. Bez krytycznego myślenia obywateli, żadne rozwiązania techniczne czy regulacyjne nie wystarczą.

W perspektywie długoterminowej: albo wypracujemy nowe mechanizmy społecznej weryfikacji wiedzy (podobne do tych w Wikipedii, ale dostosowane do ery AI), albo czeka nas epistemiczna anarchia, gdzie każdy ma własną „prawdę” i nie ma wspólnej podstawy do dyskusji. To nie jest kwestia technologii – to kwestia społecznego wyboru, jaki świat chcemy zbudować.

Michał Kanownik

prezes Związku Cyfrowa Polska

Pseudowiedza i fałszywe informacje to dziś jedno z najpoważniejszych wyzwań w cyfrowym świecie – bo realnie wpływają na decyzje, które podejmujemy każdego dnia. Widzimy to choćby w obszarze zdrowia, gdy ludzie rezygnują ze szczepień, w finansach – gdy inwestują pieniądze, kierując się poradami z mediów społecznościowych, czy w prawie – gdy próbują rozwiązywać złożone sprawy na podstawie przypadkowych wpisów z internetu.

Problem w tym, że nieprawdziwe treści rozchodzą się w sieci znacznie szybciej niż ich sprostowania. Algorytmy mediów społecznościowych i influencer marketing premiują to, co wzbudza emocje – niekoniecznie to, co jest prawdą. W efekcie, autorytet ekspertów i instytucji naukowych słabnie, a społeczeństwo coraz częściej funkcjonuje w informacyjnych bańkach.

W Cyfrowej Polsce mówimy, że dezinformacja to nie tylko kwestia fake newsów, ale zjawisko systemowe, które wpływa na zdrowie publiczne, bezpieczeństwo ekonomiczne i zaufanie społeczne. Odpowiedź na to wyzwanie musi być kompleksowa – od edukacji cyfrowej, przez odpowiedzialność platform, po wzmacnianie kompetencji krytycznego myślenia wśród użytkowników sieci.

Najskuteczniejszym sposobem ograniczania wpływu pseudowiedzy jest edukacja – i to rozumiana bardzo szeroko. Musimy uczyć nie tylko obsługi technologii, ale przede wszystkim krytycznego myślenia i umiejętności oceny źródeł informacji. To powinno być stałym elementem programu nauczania – od szkoły podstawowej po średnią – bo dziś każdy z nas jest jednocześnie odbiorcą, twórcą i nadawcą treści.

Z perspektywy branży cyfrowej kluczowe jest także wspólne działanie – sektora publicznego, firm technologicznych i organizacji społecznych. Potrzebujemy mechanizmów szybkiego reagowania na fale dezinformacji, zwłaszcza w obszarach wrażliwych, takich jak zdrowie, bezpieczeństwo czy finanse. Skutecznym narzędziem mogą być zespoły eksperckie współpracujące z platformami w sytuacjach kryzysowych – to dobry kierunek.

Walka z pseudowiedzą nie powinna polegać na karaniu użytkowników, lecz na budowaniu świadomości. Bo w świecie, w którym każdy ma dostęp do informacji, prawdziwą przewagą jest umiejętność ich rozumienia.

Co działa w innych krajach i co można przenieść na polski rynek? Po pierwsze – edukacja. W krajach skandynawskich czy w Holandii umiejętność krytycznej oceny źródeł jest wpisana w program szkolny od najmłodszych lat, często nie jako osobny przedmiot, ale jako element nauczania różnych dziedzin. Dzięki temu młodzi ludzie uczą się rozpoznawać manipulacje, zanim zaczną aktywnie korzystać z mediów społecznościowych. To coś, co w Polsce również powinniśmy wzmocnić – szczególnie w kontekście dynamicznie rosnącego wpływu twórców internetowych.

Po drugie – przejrzystość reklam i komunikacji w sieci. W Unii Europejskiej coraz bardziej doprecyzowane są zasady oznaczania reklam politycznych czy sponsorowanych treści. Ten model można z powodzeniem rozszerzyć na reklamy dotyczące zdrowia, finansów czy produktów medycznych, gdzie ryzyko wprowadzania odbiorców w błąd jest szczególnie duże.

Oczywiście, każde z tych rozwiązań trzeba dostosować do polskiego kontekstu – zarówno prawnego, jak i kulturowego. U nas kluczowa będzie współpraca z lokalnymi influencerami i twórcami treści, bo to oni mają dziś ogromny wpływ na kształtowanie opinii i zachowań w sieci. Jeśli uda się połączyć edukację, odpowiedzialność branży i przejrzystość zasad, możemy skutecznie ograniczać wpływ pseudowiedzy bez ograniczania swobody słowa.

Odpowiedzialność za treści w mediach społecznościowych powinna być wspólna – rozkładać się pomiędzy twórców, marki i same platformy. Każdy z tych podmiotów ma inny zakres wpływu, ale każdy też ponosi realną odpowiedzialność.

Twórcy powinni być świadomi, że ich publikacje mają realny wpływ na decyzje ludzi. Jeśli ktoś wypowiada się o zdrowiu, finansach czy prawie, bez odpowiedniego przygotowania i źródeł, wprowadza odbiorców w błąd – często nieświadomie, ale z realnymi konsekwencjami. Dlatego potrzebna jest większa kultura odpowiedzialności za słowo w sieci.

Firmy, które współpracują z influencerami, też nie mogą umywać rąk. Jeśli marka finansuje twórcę szerzącego nieprawdziwe informacje, ponosi współodpowiedzialność. Przejrzystość współprac komercyjnych powinna być normą – to kwestia nie tylko etyki, ale i bezpieczeństwa odbiorców.

I wreszcie – platformy. One już dziś ponoszą odpowiedzialność za środowisko, które tworzą. Widzimy, że coraz częściej reagują na dezinformację, wprowadzają oznaczenia, usuwają fałszywe treści czy ograniczają ich zasięgi. To krok w dobrym kierunku, ale potrzebna jest konsekwencja i współpraca z ekspertami oraz organizacjami społecznymi. Bo walka z pseudowiedzą nie polega na karaniu, lecz na budowaniu bezpieczniejszego i bardziej świadomego środowiska informacyjnego.

Najbliższe lata to czas ogromnych zmian w sposobie, w jaki powstają i funkcjonują treści eksperckie. Sztuczna inteligencja już dziś potrafi pisać, mówić i generować obrazy na poziomie, który jeszcze niedawno wydawał się niemożliwy – i to stwarza zarówno ogromne możliwości, jak i poważne ryzyka.

Z jednej strony generatywne narzędzia mogą przyczynić się do masowego zalewu treści pozornie eksperckich – dobrze brzmiących, ale całkowicie fałszywych. Deepfake’i ekspertów, sfałszowane wykresy czy wymyślone cytaty naukowe mogą skutecznie podważać zaufanie do wiedzy jako takiej. To realne zagrożenie, z którym tradycyjne metody weryfikacji informacji po prostu nie nadążają.

Z drugiej jednak strony, ta sama technologia może stać się częścią rozwiązania. AI może pomagać w automatycznej weryfikacji danych, wychwytywaniu nieścisłości, porównywaniu treści z bazami naukowymi i oznaczaniu potencjalnie wprowadzających w błąd materiałów. W perspektywie kilku lat zobaczymy zapewne coraz więcej narzędzi, które będą wspierały ekspertów, redakcje i instytucje w codziennej walce z pseudowiedzą.

Kluczowe będzie to, jak nauczymy się z tej technologii korzystać. AI sama w sobie nie jest ani dobra, ani zła – to narzędzie. To od nas zależy, czy wykorzystamy je do wzmacniania wiarygodności i dostępności wiedzy, czy pozwolimy, by stało się źródłem jeszcze większego chaosu informacyjnego.

Adam Majchrzak

z-ca redaktora naczelnego, DEMAGOG

Internet i media społecznościowe zmieniły reguły gry – fałszywych informacji jest więcej i roznoszą się dużo szybciej niż w przeszłości. Zgodnie z badaniem „Dezinformacja oczami Polaków” z 2024 roku, aż 91% dorosłych Polaków powieliło co najmniej jedną fałszywą informację. Potrzebne są nam zdecydowane reakcje i ludzie mają tego świadomość. Choćby z badania „International Opinion on Global Threats” wynika, że Polacy uważają fałszywe informacje za jedno z największych globalnych zagrożeń.

Rzeczywiście jest tak, że rozpowszechnianie fałszywych treści może prowadzić do poważnych konsekwencji, takich jak zwiększenie ekstremizmów, agresywne zachowania, spadek zaufania do nauki i ekspertów czy polaryzacja społeczna. Dobitnie pokazały to już doświadczenia z pandemii czy rosyjskiej inwazji. Na tym zyskują aktorzy dezinformacji, w tym m.in. niektórzy politycy czy też poszczególne ugrupowania, często odnosząc finansowy lub strategiczny sukces.

Wiele krzywdy wyrządzamy sobie na własne życzenie. Niestety, dziś można zaobserwować pewien trend „rozpychania się” pseudoekspertów w mainstreamie, tj. osób, które nie mają doświadczeń w dziedzinach, w których się wypowiadają (niezależnie od stopnia naukowego). Niektóre media czy dziennikarze chętnie takie osoby zapraszają do swoich programów, bez wcześniejszego sprawdzenia z kim mają do czynienia lub też robią to cynicznie, by wywoływać emocje i wzbudzać zainteresowanie.

Wiele emocji wywołał, np. wywiad Bogdana Rymanowskiego z prof. Grażyną Cichosz, która powieliła fałszywe informacje na temat diety i zdrowia. Na łamach naszej redakcji udało się sprawdzić przedstawione przez nią tezy. Jednak to nie jest jedyny taki przykład.

Co można zrobić, by realnie ograniczyć wpływ pseudowiedzy? Na ten moment czekamy na pełne wdrożenie unijnego aktu o usługach cyfrowych (DSA), co, zgodnie z założeniami, powinno zmusić wielkie platformy do usuwania treści najbardziej szkodliwych i niezgodnych z prawem. Pamiętajmy jednak, że dezinformacja jest trochę jak kameleon i zawsze znajdzie jakiś sposób, by się ukryć. W związku z tym, same przepisy nie wystarczą i niekoniecznie w każdym zakresie powinny wszystko regulować, ponieważ ktoś może wykorzystać to na swoją korzyść. DSA na pewno nie rozwiąże wszystkich problemów, bo dezinformujące treści nie zawsze muszą naruszać prawo i nie da się uregulować każdego przypadku. Zwłaszcza, że regulując jedną rzecz, można omyłkowo wyrządzić szkodę w innym zakresie (np. w ramach wolności słowa). 

To czego potrzebujemy najmocniej, to odporności w społeczeństwie i rozwoju krytycznego myślenia. W tym zakresie nic nie zastąpi edukacji medialnej, która powinna być wzmacniana już na poziomie szkół podstawowych. Z drugiej strony, walka z dezinformacją powinna zyskiwać coraz większe znaczenie w kontekście zarządzania kryzysowego. Decydenci muszą sprawniej reagować i posiadać mechanizmy (takie jak odpowiednie systemy do informowania społeczeństwa czy kampanie informacyjne, które z wyprzedzeniem uderzą w fałszywe treści, nawet zanim się pojawią).

Co z mediami społecznościowymi? Pozwólmy wejść 100. osobom do ciasnego pomieszczenia pełnego niebezpiecznych narzędzi i oczekujmy, że nikomu nic się nie stanie (choćby przypadkiem). Mam wrażenie, że w ten sposób niekiedy działają właściciele mediów społecznościowych, ignorując to, ile zagrożeń się tam pojawia. Jednak, jeśli ktoś kreuje się na miejsce przyjazne użytkownikowi, to oczekiwałbym, że weźmie dużą odpowiedzialność również za fałszywe treści, które się tam pojawiają. Problemem nie jest to, że jedna osoba uwierzy w fałszywy przekaz. Problem zaczyna się, gdy uwierzy w niego 100, 1000 czy 10000 osób i zacznie to realnie wpływać na otoczenie. W efekcie obserwujemy nagonkę na określone narodowości czy inne ryzykowne zachowania związane z łamaniem prawa (np. podpalenia punktów szczepień w czasie pandemii). W idealnym świecie platformy wzmacniałyby wartościowe treści i zdecydowanie lepiej pozycjonowały twórców o charakterze eksperckim, ale zamiast tego mamy zalew emocjonujących postów i filmów, które nie dość, że wywołują w nas przebodźcowanie, to jeszcze mogą wprowadzać w błąd.

Zostajemy więc sami sobie. Musimy zadbać o higienę cyfrową i samemu ostrożnie dobierać źródła, z których korzystamy, zamiast zdawać się na algorytmy.

Jak może zmienić się krajobraz treści eksperckich w ciągu najbliższych 5 lat? Napływ treści wygenerowanych przez sztuczną inteligencję może w pewien sposób zdegradować znaczenie jakościowych źródeł informacji, ale czas pokaże dokąd nas to zaprowadzi. Wiele zależy od tego, jakie dane są wykorzystane do trenowania AI. Jeśli będzie tam przewaga fałszywych treści, to niestety rysuje nam się czarny scenariusz.

Istotne jest również to, w jaki sposób korzystamy z nowych narzędzi. Jak wiemy, łatwo jest je zmanipulować poprzez odpowiednie dobieranie poleceń. Trudno oszacować, czy przez to zmieni się nasza ekspozycja na fake newsy. Obecnie i tak jest ich bardzo dużo, a wiele zależy od tego, jak dużo czasu spędzamy w mediach społecznościowych. Efekt z pewnością będzie (z resztą, już jest) dwustronny. Z jednej strony sztuczna inteligencja pomoże nam przy weryfikacji fałszywych treści, ale jednocześnie ułatwi propagowanie fałszywych narracji, w tym m.in. deepfake’ów.

Katarzyna Lipka

starsza analityczka weryfikacji treści, Ośrodek Analizy Dezinformacji NASK 

Izabela Jarka

kierownik Zespołu Szybkiego Reagowania i Wykrywania Dezinformacji, Ośrodek Analizy Dezinformacji NASK  

Fałszywe i zmanipulowane informacje, w szczególności te dotyczące zdrowia i finansów stanowią poważne zagrożenie nie tylko dla całego społeczeństwa, ale i dla człowieka jako jednostki. Idealnym przykładem jest dezinformacja zdrowotna, która dotyka tak wrażliwych tematów jak choroby śmiertelne czy zakaźne. W szerszej perspektywie, każdy rodzaj dezinformacji, niczym kropla drążąca skałę, powoduje erozję zaufania do autorytetów i instytucji. To także jeden z głównych celów zagranicznych operacji wpływu. Brak zaufania obywateli i polaryzacja grup społecznych w konsekwencji przekłada się na osłabioną reakcję w sytuacjach kryzysowych, a tym samym stanowi zagrożenie dla bezpieczeństwa narodowego. 

Co można zrobić, by ograniczyć wpływ pseudowiedzy? Tak jak w przypadku zdrowia publicznego – działania profilaktyczne są mniej kosztowne i bardziej bezpieczne niż leczenie chorób czy walka z ewentualnymi powikłaniami. Obywatele świadomi zagrożenia i mechanizmów ich działania są bardziej odporni na uleganie wpływom dezinformacji. Dlatego istotne jest podnoszenie świadomości społecznej poprzez działania edukacyjne i kampanie informacyjne.  

Budowanie odporności na zagrożenia związane z dezinformacją i pseudowiedzą są poważnym wyzwaniem, dlatego Ośrodek Analizy Dezinformacji angażuje się w inicjatywy edukacyjne oraz szkolenia różnych grup interesariuszy. 

Jeśli chodzi o realne ograniczanie szkodliwych treści w przestrzeni informacyjnej, to już mamy do czynienia z rozwiązaniami na poziomie europejskim. W pewnych zakresach odpowiadać będą za to przepisy Aktu o usługach cyfrowych (DSA), a także Rozporządzenie o sztucznej inteligencji (AI Act) w przypadku regulacji dotyczących deepfake’ów. Jak w praktyce będą egzekwowane te przepisy od platform społecznościowych, będziemy mogli ocenić dopiero z perspektywy czasu, szczególnie biorąc pod uwagę fakt, że DSA jest dopiero w trakcie implementacji w Polsce. 

Ciekawym aspektem są również ostatnie działania Chin w sprawie ograniczania treści tworzonych przez influencerów bez posiadania oficjalnych dokumentów potwierdzających kwalifikacje w obszarach, w których się wypowiadają. Oczywiście, biorąc pod uwagę chiński kontekst, musimy mieć świadomość, że nie są to działania realnie wpływające na przeciwdziałanie dezinformacji, a jedynie służące jako dodatkowe narzędzie kontroli. Jednak z naszej polskiej czy nawet europejskiej perspektywy to może być interesujący kierunek do zastanowienia w przyszłości. Takie działania powinny być zaplanowane transparentnie przez regulatorów, aby w żaden sposób nie naruszać prawa do wolności słowa. 

Przede wszystkim to właściciele platform społecznościowych odpowiadają za treści, które wyświetlają się odbiorcom. To na nich spoczywa respektowanie i egzekwowanie swoich własnych regulaminów i zasad społeczności. Nadrzędnymi regulacjami są jednak te obowiązujące w kraju, gdzie są one dostępne. Oprócz lokalnych przepisów, mówiących wprost o przestępstwach związanych z wyłudzaniem danych lub środków poprzez scamy często wspierane przez AI i treści dezinformacyjne, mamy już wcześniej wspomniany Akt o usługach cyfrowych. Skupia się on głównie na treściach szkodliwych i jasno wskazuje odpowiedzialność VLOP-ów (Very Large Online Platform), na których powinna spoczywać moderacja i ochrona użytkowników. W tym zakresie pojawiają się również zapisy o przejrzystości co do warunków korzystania z mediów społecznościowych, a więc o transparentości w zakresie działania algorytmów. W praktyce zapisy DSA są interpretowane przez VLOP-y w różny sposób.

Czy sztuczna inteligencja i generatory treści mogą zwiększyć problem pseudowiedzy, czy raczej pomóc w jej weryfikacji? AI jest obecnie w równym stopniu zagrożeniem i szansą w zależności od sposobu, w jaki będziemy z niej korzystać. Negatywnym skutkiem jest na pewno możliwość generowania bardzo szybko ogromnej, niezliczonej ilości treści oraz coraz lepsze i bardziej wiarygodne deepfake’i, które ciężko rozpoznać gołym okiem. W takim przypadku odbiorca narażony jest na wszechobecny chaos informacyjny.  

Z drugiej strony, tworzone są różnego rodzaju narzędzia oparte na rozwiązaniach AI, które mają za zadanie pomagać nam w detekcji deepfake’ów (jedno z nich tworzone jest w Dziale Badań nad Sztuczną Inteligencją w NASK) czy też wspierające fact-checking i ogólną weryfikację treści. Nie można także nie wspomnieć o narzędziach wykorzystywanych na co dzień przez obywateli, jak np. ChatGPT czy inne LLM-y, a mamy ich naprawdę wiele. Dopóki korzystamy z nich świadomie, czyli w formie wsparcia, uwzględniając halucynacje (generowanie nieprawdziwych informacji), to będą spełniały swoją pozytywną rolę. 

Dlatego głównym zadaniem na najbliższe lata dla Polski powinno być budowanie odporności społecznej, która jest kluczowym elementem funkcjonowania w dzisiejszej codzienności i pokazanie, jak bezpiecznie korzystać z technologii oraz jak rozpoznawać fałszywe treści w przestrzeni informacyjnej

Stowarzyszenie Pravda

Internet sprawił, że dostęp do wiedzy stał się powszechny, ale jednocześnie nigdy wcześniej nie było tak łatwo podać się za eksperta. Pseudowiedza, czyli treści wyglądające na merytoryczne, lecz pozbawione rzetelnych źródeł, stała się jednym z najgroźniejszych zjawisk informacyjnych naszych czasów. Jej skutki widać szczególnie w obszarach zdrowia, finansów i prawa. Tam, gdzie błędna informacja może bezpośrednio wpływać na decyzje życiowe i bezpieczeństwo ludzi.

Z naszych obserwacji, prowadzonych w ramach projektów monitorujących dezinformację w Europie i Afryce, wynika jasno: pseudowiedza nie jest incydentem. To trwały element ekosystemu treści internetowych, napędzany przez algorytmy, które premiują pewność i emocje, a nie źródła i fakty.

Jak przeciwdziałać? Skuteczne strategie są zawsze wielopoziomowe. Po pierwsze – edukacja. W naszych programach edukacyjnych, takich jak „Wiem, co klikam”, uczymy młodych ludzi rozpoznawać quasi-eksperckie treści i samodzielnie weryfikować źródła. W praktyce wystarczy kilka prostych pytań: kto to mówi, na jakiej podstawie i gdzie można sprawdzić dane źródłowe?

Po drugie – technologia. W projektach takich jak EuroClimateCheck uczestniczymy w projektach, które rozwijają narzędzia oparte na sztucznej inteligencji, które pozwalają wykrywać narracje dezinformacyjne, zanim osiągną viralową skalę. Dzięki analizie setek tysięcy postów wiemy, które tematy niosą największe ryzyko szkodliwej pseudowiedzy – od „naturalnych terapii” po rzekome „sekrety finansowe”.

Po trzecie – odpowiedzialność platform i twórców. Wolność słowa nie oznacza wolności od odpowiedzialności. Kiedy ktoś publicznie udziela porad dotyczących zdrowia, finansów czy prawa, powinien jasno określać swoje kwalifikacje i źródła informacji. Podobnie platformy społecznościowe – jeśli algorytmy premiują treści, które udają eksperckie, to nie jest neutralny wybór, lecz forma redakcyjnej decyzji.

AI może zwiększyć problem pseudowiedzy – umożliwia tworzenie tysięcy pozornie wiarygodnych treści w kilka minut. W najbliższych latach kluczowe będzie połączenie dwóch kierunków: rozwijania technologii ochronnych i systematycznego uczenia odbiorców, jak rozpoznawać treści fałszywie eksperckie.

Pseudowiedza to nie margines internetu, lecz realne zagrożenie społeczne i ekonomiczne. Nie wystarczy ją punktowo prostować – trzeba ją rozbrajać u źródła: poprzez przejrzystość, edukację i współpracę między mediami, NGO i platformami technologicznymi.

Jak pokazują nasze projekty w Polsce i za granicą, łączenie edukacji medialnej z analizą danych i działaniem w sieciach partnerskich przynosi wymierne efekty. Ale najważniejszy pozostaje użytkownik – jego świadomość i nawyk sprawdzania.

Nie da się wygrać z pseudowiedzą jednym postem czy fact-checkiem. Ale można sprawić, by coraz więcej ludzi wiedziało, jak ją rozpoznać i nie dać się nabrać.

Opinie przedstawicieli platform cyfrowych

Biuro Prasowe Google Polska

Polityka i systemy YouTube mają na celu zwalczanie rozpowszechniania szkodliwych treści i umożliwienie promowania treści autorytatywnych – zwłaszcza w takich tematach, jak wiadomości, nauka i wydarzenia historyczne, gdzie jakość informacji i kontekst mają największe znaczenie.

Opracowaliśmy kompleksowe podejście, opierając się na wytycznych dla społeczności, które mają zastosowanie do wszystkich użytkowników oraz na systemach zaprojektowanych w celu wykorzystania unikalnej dynamiki naszej platformy.

  • Wytyczne dla społeczności: Nasze wytyczne dla społeczności określają, co jest dozwolone w serwisie YouTube, które mają zastosowanie do wszystkich osób i wszystkich form treści – niezależnie od języka, lokalizacji lub sposobu generowania treści.

Egzekwujemy nasze zasady, wykorzystując połączenie pracy ludzi i technologii. W drugim kwartale 2025 r. treści naruszające zasady stanowiły 0,14–0,15% wyświetleń na naszej platformie, a my usunęliśmy ponad 11,4 mln filmów i ponad 2,1 mln kanałów za naruszenie naszych wytycznych dla społeczności.

  • Rekomendacje: Nasz system rekomendacji ma na celu łączenie widzów z wysokiej jakości treściami, uzupełniając działania naszych wytycznych dla społeczności. Gdy użytkownicy szukają lub oglądają treści informacyjne (np. dotyczące bieżących/historycznych wydarzeń, wyborów, zdrowia psychicznego), nasze rekomendacje nadają priorytet autorytatywnym treściom w wynikach wyszukiwania, na stronie głównej i w panelu „Obejrzyj dalej”.

Ponadto, do poszczególnych filmów i na górze strony wyników wyszukiwania dla tematów podatnych na dezinformację dodajemy panele informacyjne kierujące do zewnętrznych źródeł, aby zapewnić ważny kontekst wraz z treścią.

  • Monetyzacja: Monetyzacja w serwisie YouTube jest zarezerwowana dla twórców, którzy tworzą wysokiej jakości treści. Aby monetyzować swoje treści w serwisie YouTube, twórcy muszą uczestniczyć w Programie partnerskim YouTube (YPP), który wymaga od nich spełnienia wyższych wymagań dotyczących tworzenia treści. Te wyższe wymagania dodatkowo motywują twórców do priorytetowego traktowania tworzenia wysokiej jakości treści.

Ponadto:

  • W Google i YouTube kilka tysięcy osób z całego świata, w tym wiele osób posługujących się językami innymi niż angielski, zajmuje się wykrywaniem, sprawdzaniem i usuwaniem treści naruszających nasze zasady w kilkudziesięciu językach, w tym w języku polskim.
  • Ludzie i uczenie maszynowe współpracują, aby wykrywać, sprawdzać i usuwać treści naruszające zasady, pracując na dużą skalę. Technologia odgrywa kluczową rolę w moderowaniu treści: w II kwartale 2025 r. ponad 93% filmów usuniętych z YouTube za naruszenie naszych wytycznych dla społeczności zostało najpierw zgłoszonych przez maszyny, a nie przez ludzi.

Regularnie ujawniamy także liczbę usunięć w naszym raporcie dotyczącym egzekwowania zasad społeczności.

PS Celebryta czy naukowiec? Kto powinien promować produkty i usługi marek [OPINIE]

PS2 Marka The Ordinary rezygnuje ze współpracy z celebrytami – stawia na naukę