Beim Wikipedia Day in Welle7, Bern, am 27. April 2024 war der Wikipedianer Kevin Golde (User:Wikiolo) einer unserer Panellisten zum Thema ? Wikipedia und kunstliche Intelligenz ? der Wettlauf um freies Wissen “. Er hat uns seine Antworten auf die Fragen unserer Moderatorin Lisa Stahli zum Nachlesen zur Verfugung gestellt.

Hallo Kevin, wie sieht die Zusammenarbeit mit KI auf Wikipedia und anderen Wissensplattformen heute aus und wie wird sie sich in Zukunft verandern?

KI selbst kommt in Wikipedia bisher in der Regel nicht zur Anwendung. Das liegt insbesondere daran, dass Anwendungen wie ChatGPT als Chatbot fungieren und beispielsweise Aussagen nicht belegen. Insbesondere bei KIs, die Bilder generieren, ist daruber hinaus die Frage, ob die Inhalte frei lizenziert sind, damit Wikipedia sie nutzen kann.

Anders sieht es bei Wikipedia als Quelle fur KI aus. Durch die freien Lizenzen in der Wikipedia ist sie eine hervorragende Quelle fur Trainingsdaten. Daruber hinaus gibt es auch ganz offizielle Kooperationen wie zum Beispiel bei dem Projekt WikiGPT mit OpenAI, wo ChatGPT direkt auf Inhalte der Wikipedia zugreift.

Doch auch heute konnten einfache KI-Tools in der Wikipedia schon nutzlich sein, zum Beispiel, um Formulierungen zu glatten. Mittelfristig kann ich mir vorstellen, dass eine KI den Nutzer auf mogliche Fehler hinweist oder (bessere) Quellen findet, hierzu gibt es bereits mit dem System Side ein Pilotprojekt. Auch konnte KI Wikipedia interaktiver machen, etwa, indem sie dem Leser Fragen zum Artikel stellt, einen Artikel zu hoherer Mathematik in einfache Sprache umformuliert, XXL-Artikel zusammenfasst oder gleich einen Foliensatz fur eine Prasentation erstellt.

Zudem konnten Inhalte, die in einer Sprache fehlen, schnell durch eine KI-Ubersetzung erganzt werden. Moglicherweise kann auch eine Zentralwikipedia aufgebaut werden, von der aus dann die Informationen in die jeweilige Muttersprache uber ein IT-Tool ubersetzt werden. Dies konnte Englisch sein, aber vermutlich ist sogar eine andere Sprache besser geeignet. Wichtig ist, dass diese Zentralwikipedia eine eindeutige Sprache ist, sodass durch Ubersetzungen kein Inhalt verloren geht bzw. vereinfacht oder verfalscht wird. Ich weiß nicht, ob es eine optimale Sprache dafur bereits gibt, ansonsten kann eine fur diesen Zweck konzipierte Kunstsprache noch entwickelt werden.

Langfristig kann ich mir vorstellen, dass eine KI basierend auf Quellen Artikel selbst schreibt, erganzt und aktualisiert. Hier ist es jedoch wichtig, dass im Hintergrund Menschen sitzen, die die Informationen uberprufen.

Wie kann verhindert werden, dass KI-generierte Inhalte Fehlinformationen verbreiten?

Machine-Learning-Anwendungen, die allein auf Daten basieren, funktionieren nie vollstandig nach Plan, es sind ja letztendlich statistische Methoden. Zudem hangt die Qualitat der Ergebnisse von der Qualitat, Vollstandigkeit und Ausgewogenheit der Trainingsdaten ab. Fehler sind menschlich und allein schon deshalb wird auch eine KI, die durch menschliche Daten trainiert wird, immer Fehler machen. Um die Fehlinformationen jedoch minimal zu halten, sollten zumindest bei zitierfahigen Quellen auch immer Menschen im Hintergrund sitzen und einen Faktencheck machen und auf eine ausgewogene Darstellung achten. Sofern es diesen Faktencheck nicht gibt, sehe ich einerseits die Gefahr, dass KIs sich irgendwann so oft selbst zitieren, dass am Ende nur noch Kauderwelsch herauskommt. Eine andere Gefahr ist, dass Informationen zu Gunsten bestimmter Gruppen verandert werden. Um dies zu verhindern, sollte man sich ganz genau uberlegen, ob diese Technologie in die Hande von wenigen Menschen gehort oder ob es als gemeinwohlorientierte Infrastruktur ein bisschen nach dem Vorbild des offentlich-rechtlichen Rundfunks als demokratisches Tool in die Hande der Gesellschaft gehort.

Welche Strategien gibt es, um kulturell sensible und inklusive Sprache in KI-generierten Inhalten zu fordern?

Es ist Aufgabe vom KI-Betreiber, darauf zu achten, dass Themen wie kulturell sensible und inklusive Sprache nicht zu kurz kommen. Moglicherweise sind Gesetze oder Richtlinien forderlich. Je nach Modell konnen Behorden oder, falls sich eine offentlich-rechtliche KI durchsetzt, die Anstalten darum kummern, dass dieser Rahmen eingehalten wird. Bei ChatGPT sehen wir ja schon, dass sie bestimmte Anfragen blockiert. Zum Beispiel wird dir keine Liste ausgespuckt, wenn du ChatGPT nach den dummsten Politikern fragst. Hingegen spuckt es dir schon eine Liste aus, wenn du ChatGPT nach den schlausten Politikern fragst. Die Moglichkeit, Modelle auf diese Weise zu beschranken, gibt es also.

Welche ethischen Herausforderungen ergeben sich aus KI-generierten Inhalten, und wie konnen sie konkret angegangen werden?

Fur mich stellt sich hier als erstes die Frage, wem so ein machtiges Tool gehoren soll und welche Spielregeln hier gelten. Wir alle kennen das Sprichwort ?Wissen ist Macht“. Dass dieses Sprichwort insbesondere auch in der digitalen Welt gilt, konnen wir trotz des freien Wissens in der Wikipedia hervorragend sehen. Denn die Spielregeln von heute, dass sich Menschen mit genugend Geld beinahe alles kaufen konnen und damit dann auch fast alles nach eigenem Belieben machen konnen, hat spatestens mit der Machtdemonstration von Elon Musk durch den Kauf von Twitter ? nachdem ihm storte, dass eine demokratisch abgewahlte Person, die zum Putsch aufgerufen hat, von dort gesperrt wurde ? gezeigt, wie viel Macht Einzelne mit ihrem Kleingeld ausuben konnen.

Wenn wir davon ausgehen, dass eine kommerzielle KI es schafft, dass der Wikipedia ein ahnliches Schicksal bevorsteht wie dem Brockhaus, weil die meisten Menschen statt der Wikipedia in Zukunft die KI nutzen, mochte ich mir nicht ausmalen, welche Manipulationen damit moglich sein werden. Je nach dem, wer bei diesem Unternehmen ganz oben sitzt, kann ich mir vorstellen, dass die demokratische Welt innenpolitisch vor noch deutlich großeren Herausforderungen stunde als heute.

Auch konnten Filterblasen zu einem noch großeren Problem fur unsere Gesellschaft werden als heute schon. Was bereits jetzt in den sozialen Medien zu sehen ist, konnte sich noch verstarken, wenn Unternehmen ihre KI so programmieren, dass sie die Antworten auf die Nutzerprofile zuschneidet und dann zum Beispiel ganz nach dem Motto ?der Kunde ist Konig“ Fragen zum Klimawandel einem deutschen Autobahnraser anders beantwortet als einem Demonstranten von Fridays for Future.

Moglicherweise konnen solche Blasen durch Gesetze verhindert werden, die personalisierte Antworten unterbinden. Hierbei ist aber stets die Frage, wie gut Behorden diese Gesetze durchsetzen konnen. Um ganz sicher zu gehen, ist daher hochstmogliche Transparenz wichtig, die meines Erachtens am besten durch eine offentlich-rechtlich organisierte Plattform erreicht wird. Bei einer durchdachten Organisationsstruktur sollte dies auch generell am ehesten Manipulationsversuchen vorbeugen.

Wie kann Wikipedia KI-Fortschritte nutzen, ohne die Integritat als vertrauenswurdige Wissensquelle zu beeintrachtigen?

Ein wesentliches Problem in der Zukunft der Wikipedia sehe ich darin, dass Wikipedia nicht vollstandig die Kriterien einer vertrauenswurdigen Quelle erfullt. Deswegen sagen wir in der Wikipedia auch immer, dass Wikipedia keine Quelle ist. Beispielsweise werden auch heute noch Aussagen oft durchgewunken, die nicht belegt und haufig fehlerhaft sind und wir haben eine Vielzahl alterer Artikel, die noch weitgehend frei von Belegen sind. Meiner Erfahrung nach sind insbesondere bei diesen Artikeln inhaltliche Fehler enthalten, aber auch Aussagen mit Einzelnachweisen sollte man nicht blind vertrauen, da es in der Wikipedia kein Peer-Review-Verfahren gibt. Daruber hinaus hat man in der Wikipedia die Moglichkeit, anonym zu schreiben, sodass Leute, die nicht die Absicht haben, eine neutrale Enzyklopadie zu schreiben, gerade bei kleinen Themen ein einfaches Spiel haben, die Wikipedia nach ihrem Belieben zu manipulieren.

Und gerade hier halte ich KI fur vielversprechend. Diese kann eventuell in Zukunft mogliche Fehler oder Beschonigungen in Artikel monieren und diese beispielsweise auf der Diskussionsseite darstellen. Oder auch Nachweise vorschlagen, mit denen bestimmte unbelegte Aussagen bequellt werden konnen. Aber wie gesagt: Fur eine wirklich zuverlassige Quelle sehe ich in letzter Instanz dann nochmal den Menschen, der die KI pruft.

Andererseits muss ich auch sagen, dass wenn die Wikipedia bleibt, wie sie ist, es nur eine Frage der Zeit sein durfte, bis sie qualitativ durch eine KI uberholt wird. Ich bin mir sicher, dass spatestens dann die Wikipedia Geschichte ist, da dann auch ihre letzten Leser, denen die KI zu unzuverlassig war, sich von der Online-Enzyklopadie abwenden wurden.

Wie konnen Wiki-Projekte langfristig bestehen bleiben, wenn in Zukunft kaum jemand mehr direkt auf die Seiten zugreift, mitwirkt oder spendet?

Diese Gefahr sehe ich akut noch nicht. Dann ist halt im Zweifel der Spendenaufrufbanner ein, zwei Wochen langer drin als noch im Jahr vorher und am Ende erreicht die Spendenkampagne die gleiche Anzahl an Personen. Sofern dies mittelfristig tatsachlich zum Problem wird, wurden vermutlich die Unternehmen der Plattformen, die von den Inhalten der Wikimedia profitieren, Großspenden machen, damit die Wikipedia bestehen bleibt. Hier ist aber naturlich die Frage, ob sie dann auch versuchen, Einfluss auf die Wikimedia zu nehmen, um sie nach ihren Vorstellungen umzubauen.

Damit dies verhindert wird, ist das bereits angesprochene offentlich-rechtliche Wikimedia-Modell meiner Meinung nach fur einen nachhaltigen Fortbestand zielfuhrend. Je nach Modell konnten sich dadurch beispielsweise auch Hochschulen mit dem Auftrag, ihr Wissen zu vermitteln, sich an der Verbesserung und Fortschreibung der Wikipedia beteiligen. Außerdem wurden sich neue finanzielle Moglichkeiten ergeben, etwa konnte die Wikimedia in Zukunft selbst datengetriebene Methoden und eigene LLMs aufbauen oder diese ubernehmen. Aktuell ist dies aus finanziellen Grunden schwierig.

Wie kann Wikimedia seine Community befahigen, sich in einer sich schnell verandernden digitalen Landschaft zurechtzufinden und anzupassen?

Die Wikimedia muss mit der Zeit gehen und sich an diese anpassen. Die Wikipedia ist damals aus der Nupedia entstanden, die noch einen kommerziellen Ansatz verfolgte. Das Innovative an der Wikipedia war, dass im Gegensatz zur Nupedia alle Menschen einfach und demokratisch auch ohne Benutzerkonto mitschreiben konnten. Das war naturlich super zum Aufbau der Enzyklopadie, allerdings Zweifel ich sehr, ob das die richtige Formel fur alle Ewigkeit ist. Wie viele wissen, hat sich seit den Anfangen das gesellschaftliche Vertrauen in die Wikipedia enorm erhoht. Dies kam nicht von irgendwoher, sondern mit Regeln, die ein Wikipedia-Artikel erfullen sollte. Bei einer sich zugleich vervollstandigen Enzyklopadie ist es daher klar, dass es immer schwieriger wird, ehrenamtlich in der Wikipedia zu starten, sodass trotz großer Bemuhungen heute kaum Neulinge gewonnen werden konnen.

Auf dem sehr niedrigen Nachwuchs und einer stetig schwindenden Autorenzahl kommen zugleich immer mehr Artikel hinzu, die zu warten sind, was zumeist durch den klassischen Wikipedianer erfolgt, der in der Regel weiß, mannlich und schon ein Stuck alter ist als ich. Als Konsequenz kann die Wikipedia haufig selbst gesteckte Ziele wie neben einer tadellosen Korrektheit auch eine durchgehende Aktualitat sowie Neutralitat der Artikel nicht erfullen. Das kann sich die Wikimedia noch leisten, da es noch keine ernst zu nehmende Alternative zum Hauptprodukt, der Wikipedia, gibt.

So wie ich es sehe, deutet es sich aber an, dass sich diese komfortable Zeit so langsam andert. Ich denke, dass man sich jetzt, wo wir sehen, was mit KI alles moglich ist, uns Gedanken machen mussen, wie die Wikimedia sich weiterentwickeln sollte. Meiner Meinung nach muss man dabei erstmal alles bei Wikimedia hinterfragen und analysieren, ob es noch zukunftsfahig ist oder ob ein anderes Modell her muss: Also, sollen die Wikipedia und ihre Schwesterprojekte immer noch ein rein ehrenamtliches Projekt sein, oder integriert man hier zum Beispiel auch noch Hochschulen, Universitaten und andere gemeinwohlorientierte Einrichtungen in das Projekt. Oder ist eine spendenfinanzierte Enzyklopadie als Wissensquelle der Welt noch zeitgemaß oder ist das nicht als gemeinwohlorientierte Infrastruktur, die Wikipedia heute definitiv ist, eigentlich eine offentliche Aufgabe?

Auch sollte hinterfragt werden, wie wir Wikipedia ganzlich zur vertrauenswurdigen Quelle ausbauen. Da sollten wir uns zum Beispiel die Frage stellen, ob Artikelrelikte aus der Anfangszeit, die noch vollig ohne Beleg auskommen, weiterhin einfach so stehen lassen oder wie wir diese Artikel auf den Anspruch einer vertrauenswurdigen Quelle heben.

Merci, Kevin!

 

Mehr dazu:

 

Foto:? Amrei-Marie ,? Wikiolo 03 , Bildschnitt von WMCH,? CC BY-SA 4.0