O co biega z Wikipedią?

15 stycznia tego roku Wikipedia obchodziła swoje 25. urodziny. Żywotność przez ćwierćwiecze to duży wyczyn dla witryny internetowej, ale nasza bohaterka nie jest pierwszą lepszą stronką www. Pojawia się wiele pytań i plotek krążących wokół Wikipedii, a właściwie dotyczących jej przyszłości w świecie (a raczej internecie) zautomatyzowanym przez AI. Sporo osób sentymentalnie zerka w stronę „Wiki”, bo przecież właśnie tam znaleźli ratunek na zadania domowe i ciężkie studenckie kolokwia…

Witryna ma na koncie ponad 66 milionów artykułów w ponad 300 językach, a wszystkie modele sztucznej inteligencji korzystają w swoich wygenerowanych odpowiedziach właśnie z tych wpisów, które przez lata były tworzone przez ludzi – redaktorów.

Garść fakto-ciekawostek

  • Serwis został uruchomiony 15 stycznia 2001 roku i przez ten czas rozrósł się do największej encyklopedii internetowej świata.
  • Treści Wikipedii są wykorzystywane nie tylko przez ludzi, ale też przez modele AI, ponieważ stanowią ważny „zasób treningowy” dla modeli językowych i są często cytowane w wynikach wyszukiwania.
  • Projekt internetowej encyklopedii nadal opiera się na pracy wolontariuszy i darowiznach, nigdy nie poddał się komercjalizacji. Działalność wspiera Wikimedia Foundation, która obsługuje także inne inicjatywy jak Wikimedia Commons czy Wikidata.
  • Jednym z największych wyzwań dla współczesnej Wikipedii jest kurczenie się aktywnej społeczności redaktorów, co może wpływać na tempo edytowania i jakość treści, a także „luki w wiedzy”.

AI wrogiem czy sojusznikiem Wikipedii?

Wikipedia (być może z okazji swoich 25. urodzin) zawarła kluczowe umowy z pięcioma dużymi firmami z branży AI – w tym z Microsoftem, Metą, Amazonem, Perplexity oraz Mistral AI – co ma pomóc jej przetrwać trwającą rewolucję sztucznej inteligencji. Te biznesy mają umożliwić Wiki zarabianie na ruchu, który generowany jest przez modele językowe (LLM), bo te przeszukują gromadzone przez encyklopedię artykuły, aby odpowiedzieć na pytania użytkowników.

Jimmy Wales (współzałożyciel Wikipedii) podkreśla, że strona od lat jest tworzona przez ludzi i nie chce, aby generatywne AI zastąpiło redaktorów. Sztuczna inteligencja ma być wykorzystana do usprawnienia ich „żmudnych zajęć” w pracy poprzez automatyzację. Zapowiedziano także ulepszenie wyszukiwarki wewnętrznej, aby encyklopedia natychmiast odpowiadała na pytanie użytkownika, a nie kierowała go do długiego artykułu. Wales zaznacza, że miliony darczyńców wspierają Wikipedię po to, aby służyła ludziom, a nie była jedynie bazą danych wykorzystywaną przez systemy AI, co było jednym z powodów zawarcia tych porozumień. Strona musi się dostosować do nowych realiów, aby nadal była faktycznie przydatna ludziom, a nie jedynie robotom. Z punktu strategicznego wydaje się to być dobrą decyzją, ale jak będzie to wyglądać w praktyce?

Jak Claude się wzbogaci dzięki Wikipedii? Wtyczka „Humanizer”

Warto zacząć tu od tego, że Claude to asystent sztucznej inteligencji stworzony przez firmę Anthropic. Jest to duży model językowy, podobny do ChatGPT, który potrafi prowadzić rozmowy, odpowiadać na pytania, pisać i analizować teksty.

Wikipedia zmaga się z napływem treści generowanych przez AI. A właściwie najbardziej zmagała się w 2023/2024, gdy teksty pisane przez modele językowe były bardzo słabej jakości z przekłamanymi informacjami. Właśnie dlatego wolontariusze opracowali przewodnik z 24 cechami pozwalającymi rozpoznawać takie teksty.

Przedsiębiorca Siqi Chen wykorzystał jednak te zasady w odwrotny sposób i… stworzył ogólnodostępną wtyczkę „Humanizer” dla asystenta Claude, która uczy model unikać charakterystycznych oznak pisania przez AI. W ten sposób powstał paradoks: lata pracy społeczności Wikipedii nad wykrywaniem tekstów AI zostały wykorzystane do stworzenia narzędzia, które pomaga je ukrywać.

Problem szerszy niż się wydaje – ale czy ważny?

Problem wykracza poza Wikipedię, bo detektory AI – zwłaszcza w systemie edukacji – są zawodne i generują fałszywe oskarżenia. Uczniowskie i studenckie prace nierzadko są przepuszczane przez takie „wykrywacze AI” i często prowadzą po prostu do niezaliczenia jakiegoś przedmiotu – słusznie czy nie, ciężko to w ogóle ocenić. Humanizer dodatkowo podważa ich sens, pokazując, że gdy modele potrafią maskować swoje cechy, wykrywanie AI przestaje być problemem technicznym, a staje się filozoficznym. Pozostaje pytanie, czy system edukacji w końcu nadgoni postęp technologiczny?

Warto też odnotować, że Humanizer od Claude nie jest pierwszym takim wytworem. Wystarczy wpisać w Google „humanize tool” i pojawi się cała lista programów, apek i wtyczek. Claude po prostu wykorzystał wewnętrzne dane kompletowane przez Wikipedię. Inne programy zapewne działają inaczej, ale mają prowadzić do tego samego – tekst ma wyglądać jakby był napisany przez człowieka – to raz, a dwa – ma oszukać wszystkie detektory. W praktyce pokazuje to, że walka z treściami generowanymi przez AI przypomina wyścig, na który chyba szkoda czasu i energii.

Źródła:
https://arstechnica.com/ai/2026/01/new-ai-plugin-uses-wikipedias-ai-writing-detection-rules-to-help-it-sound-human/
https://wikimediafoundation.org/wikipedia25/
https://android.com.pl/tech/1009753-wikipedia-moze-przetrwac-rewolucje-ai/
https://www.theverge.com/news/865627/wikipedia-ai-slop-guide-anthropic-claude-skill

Źródło grafiki:
free unsplash