Anglojęzyczna Wikipedia oficjalnie zaostrzyła podejście do generatywnej sztucznej inteligencji. W nowym zapisie wskazano wprost, że użycie dużych modeli językowych do generowania lub przepisywania treści artykułów jest zabronione. Zmiana doprecyzowuje wcześniejsze, mniej jednoznaczne wytyczne, które ostrzegały przed tworzeniem nowych haseł „od zera” z użyciem LLM.
Nowe zasady nie oznaczają pełnego odcięcia Wikipedii od AI. Społeczność zostawiła dwa ważne wyjątki. Edytorzy wciąż mogą używać modeli do sugerowania podstawowych poprawek we własnym tekście, o ile narzędzie nie dodaje nowej treści, a każda zmiana zostaje sprawdzona przez człowieka. Dopuszczono też wykorzystanie AI przy tłumaczeniach z innych wersji językowych Wikipedii, również pod ścisłą kontrolą redakcyjną.
Zobacz również
W praktyce chodzi o ograniczenie największych ryzyk związanych z generatywną AI. Wikipedia podkreśla, że modele językowe często naruszają podstawowe zasady projektu, w tym weryfikowalność treści i zgodność z przypisami. W samym opisie nowej reguły zaznaczono też, że LLM potrafią zmienić sens tekstu w sposób, który przestaje mieć oparcie w źródłach.
Decyzja nie pojawiła się nagle. Już w lipcu 2025 roku angielska Wikipedia wypracowała szeroki konsensus wokół nowego kryterium szybkiego usuwania stron oznaczonego jako G15. Dotyczy ono treści wygenerowanych przez LLM bez odpowiedniej kontroli człowieka. W kolejnych miesiącach społeczność rozwijała też własne materiały pomagające rozpoznawać teksty noszące ślady AI. Jednocześnie sama Wikipedia zaznacza, że sam styl pisania nie wystarcza, by uznać tekst za wygenerowany przez model.
To kolejny etap szerszego sporu o miejsce AI w ekosystemie Wikimedia. W czerwcu 2025 roku Wikimedia Foundation wstrzymała testy automatycznie generowanych podsumowań artykułów po ostrej reakcji społeczności edytorów. Krytycy wskazywali wtedy na ryzyko błędów i szkód wizerunkowych dla projektu, który od lat buduje pozycję na ludzkiej weryfikacji i pracy ze źródłami.
Fejkowe posty, ale realne zagrożenie. Kampania Visa pokazuje, jak działają cyberoszuści
Równolegle sama fundacja w oficjalnej strategii AI z kwietnia 2025 roku deklarowała, że chce rozwijać rozwiązania wspierające wolontariuszy, a nie zastępujące ich w pisaniu encyklopedii. W komunikacie podkreślono, że to społeczność redaktorów pozostaje najważniejszym elementem sukcesu Wikipedii, a nowe narzędzia mają usuwać bariery techniczne, a nie przejmować odpowiedzialność za treść.
Słuchaj podcastu NowyMarketing
Podobny ton pojawił się też w styczniu 2026 roku w materiale Wiki Education. Organizacja przypomniała wtedy, by nie wklejać do Wikipedii treści generowanych przez chatboty i nie używać ich do tworzenia nowych artykułów. Powód był prosty: takie teksty często nie przechodzą rzetelnej weryfikacji względem źródeł.