In einem Blog-Eintrag der Wikimedia Stiftung zum 25. Jubiläum verweisen die Wikipedia-Macher mit Stolz darauf, dass das Online-Lexikon die KI-Chatbots mit Informationen füttere. Etlichen Wikipedianer stößt dagegen sauer auf, dass sie mit ihrer Freiwilligenarbeit dazu beitragen, dass kommerzielle KI-Firmen auf Kosten der Community ihre Modelle trainieren.
Geiziges Silicon Valley
Dazu kommt, dass sich die Tech-Konzerne in der Vergangenheit nicht als Spender für die Wikipedia und andere Wikimedia-Projekte hervorgetan haben. Deshalb drängt die Stiftung die Tech-Firmen dazu, das kommerzielle Produkt Wikimedia Enterprise zu buchen. Die Unternehmen erhalten auf diesem Weg saubere, schnelle und rechtssichere Zugänge zu Wikipedia-Daten. Bislang wurde allerdings nur Google als zahlender Kunde für diese Enterprise-Lösung bekanntgemacht, so dass man davon ausgehen muss, dass die anderen KI-Giganten mit ihren Software-Robotern die Wikipedia-Inhalte weiterhin für lau einsammeln.
Es ist aber nicht nur der Geiz der Silicon-Valley-Konzerne, der die Wikipedia-Macher in Verlegenheit bringt. Die populären KI-Tools haben auch dazu beigetragen, dass die täglichen Visits auf Wikipedia zwischen 2022 und 2025 deutlich gesunken sind. Nach den Zahlen von Similarweb gingen die Zugriffe in diesem Zeitraum um knapp ein Viertel zurück. Damit bekommen auch weniger User die Spendenaufrufe von Wikipedia mit, was die Stiftung wiederum Geld kostet.
An Relevanz verliert Wikipedia deswegen trotzdem nicht, weil die Inhalte weiterhin breit konsumiert werden, jedoch indirekt über die KI-Antworten oder KI-Zusammenfassungen, die auf anderen Plattformen zu sehen sind.
KI darf keine Wikipedia-Artikel schreiben
Einem Einsatz Künstlicher Intelligenz beim Schreiben oder Redigieren von Wikipedia-Artikeln oder anderen Wikimedia-Inhalten steht die Wikipedia-Community sehr zurückhaltend gegenüber. Ende April 2025 legte die Stiftung fest, dass KI auf keinen Fall das von Menschen kuratierte Wissen von Wikipedia ersetzen werde. KI-Tools dürften nur für Hilfsaufgaben eingesetzt werden, etwa dem Aufspüren von Vandalismus in Wikipedia-Artikeln.
"Wissen ist menschlich, Wissen wird von Menschen miteinander erarbeitet", sagt die deutsche Wikimedia-Chefin Franziska Heine. Bei einer generativen KI (wie ChatGPT) kämen immer nur Wahrscheinlichkeiten raus. "Das greift immer nur auf das zu, was schon bekannt ist und vermischt es im schlimmsten Fall mit Dingen, die überhaupt nicht stimmen oder die nicht dazu passen."