Vorschlag:Verbot von KI beim Schreiben von Artikeln

Aus Jedipedia
← Zurück zu Jedipedia:Vorschläge

Dieser Vorschlag wurde eingereicht von: --Moddi (Moderator) Anrufbeantworter 13:24, 10. Dez. 2025 (CET)

Kommentare und Stimmen sind nur gültig mit vollständiger Signatur!

Beschreibung[Bearbeiten]

Im Abschnitt Schreiben der Jedipedia:Richtlinien/Artikel wird ein neuer Abschnitt mit der Überschrift Künstliche Intelligenz eingefügt, der folgendes Enthält:

Das Schreiben lassen von Artikel oder Artikelteilen mithilfe von KI ist nicht gestattet. Neben erheblichen Schäden für die Umwelt, können KIs in ihrer jetzigen Form keine sinnvollen Artikel verfassen. Large-Language-Models (LLMs) ist inherent, dass sie den Inhalt nicht verstehen und bewerten können, den sie verarbeiten. Somit sind sie auch nicht in der Lage eine Bewertung vorzunehmen, welche Informationen wichtig sind und welche nicht. Weiterhin ist bekannt, dass LLMs zu „Halluzinationen“ neigen, sich Fakten ausdenken die nicht stimmen oder Fakten mit Quellen belegen, die nicht existieren. Weiterhin haben LLMs nur Zugriff auf die Daten aus ihren Trainingsdaten und lernen nichts hinzu während ihres Betriebes, sondern verwenden höchstens eine Google-Suche auf erneute Anfrage, dessen Qualität ebenfalls fraglich und zudem nicht mit Jedipedia:Offizielle Quellen vereinbar ist. Da solch ein Vorgehen schon bei normalen Autoren nicht zulässig ist, darf es bei der Verwendung von KI nicht erlaubt sein. Des Weiteren haben sich die KI-Unternehmen die Trainingsdaten für ihre Modelle oft widerrechtlich besorgt, ohne die Urheber, Urheberrechtshalter und Autoren und Autorinnen zu fragen und zu entschädigen. Einem von einer KI verfassten Artikel oder Artikelteilen ist somit nicht zu trauen und qualitativ fragwürdig und deshalb abzulehnen. Auch die Verwendung von Ki als Formulierungshilfe ist nicht gestattet. Sowohl für (Um-)Formulierungen wie etwa auch für Zusammenfassungen muss man den Inhalt eines Textes verstehen und Bewerten können. LLMs sind hierzu nicht in der Lage, so dass auch in diesem Fall eine Veränderung der Fakten nicht komplett ausgeschlossen werden kann. Deshalb ist ihre Verwendung auch in diesem Fall nicht zulässig. Rechtschreibkontrolle oder Neuformulierungen können und sollen von anderen Mitgliedern der Community vorgenommen werden.

Diskussion[Bearbeiten]

Und das KI eines der Werkzeuge für eine erneute Machtübernahme von Rassisten, Faschisten und Autoritären ist, davon will ich gar nicht erst anfangen. --Moddi (Moderator) Anrufbeantworter 13:24, 10. Dez. 2025 (CET)

Viel zu allgemein gehalten. Zunächst mal werden hier KI und LLM in einen Topf geworfen. Da gibt aber diverse weitere Ausprägungen von KI, die kein LLM sind. Und KI kann durchaus zum Schreiben von Artikel verwendet werden. Was natürlich nicht geht, ist ChatGPT oder ähnliches einen Artikel schreiben zu lassen, und diesen dann ungeprüft hier einzufügen. Das dürfte schon gegen JP:Q verstoßen. Was hingegen meiner Meinung nach unproblematisch ist, wäre es, eine KI zu nutzen, um sich aufzulisten, in welchen Quellen es Informationen zu einen Thema gibt. Oder einer KI anzugeben, welche Quellen man hat und sich Vorschläge machen lassen, welche Artikel man daraus schreiben könnte, die in der Jedipedia noch fehlen oder unvollständig sind. Weiterhin sollte möglich sein, eine KI zu nutzen, um Formulierungen, Rechtschreibung und Grammatik zu korrigieren und den selbstgeschriebenen Text an die Wiki-Syntax anzupassen.
Generell enthält das einiges an Propaganda. Ja, KI wird genutzt, um faschistische Propaganda zu verbreiten, aber ebenso, um beispielsweise Krebs zu erkennen, bevor ein Mensch das kann. Wie jede Technologie kann sie sowohl für Gutes als auch für Böses verwendet werden. Wir können da gerne einen abgeschwächten Vorschlag diskutieren, der klärt, wo KI verwendet werden darf und wo nicht, aber ein Totalverbot lehne ich ab. Gruß Admiral Ackbar (Diskussion) 13:46, 10. Dez. 2025 (CET)
Wie gerade schon im Discord erwähnt, wäre ich – abgesehen von meiner grundsätzlichen Zustimmung zum Unterbinden von KI-generiertem Content (seit November 2024 sind immerhin mehr neu veröffentliche Web-Inhalte KI-generiert als menschlich generiert, hiergegen sollten wir im Sinne der Qualität gerne eintreten) – dafür, eine differenzierte AI Policy zu erarbeiten, gerne auch auf einer neuen Richtlinien-Unterseite. Hier hätte ich auch eine ganze Bibliothek von Textbausteinen zur Verfügung, die man als eine erste Arbeitsgrundlage nutzen könnte. Skippi 🗪 13:57, 10. Dez. 2025 (CET)
@Ackbar
1. Verwenden andere "KIs" (Machine Learning, etc. pp.) nicht ebenfalls widerrechtlich erlangte Trainingsdaten? Und wenn nein: wie sinnvoll ist es eine KI zu verwenden - wenn man von den ethischen Gesichtspunkten absieht - die keine Star-Wars-Quellen in ihren Trainingsdaten aufweist?
2. Wie kannst du feststellen und uns anderen beweisen, dass eine von einer KI ausgespuckte Quellenliste vollständig sowie frei von Halluzinationen und Fehlern ist? Diese sind mathematisch nämlich unvermeidbar.
3. Wie kannst du feststellen und uns anderen beweisen, dass bei Umformulierungen oder Rechtschreibkontrolle (wo es ja durchaus auch reguläre Programme gibt, die nicht den gleichen Stromverbrauch wie Finnland haben), nicht doch irgendwo ein Fakt verdreht wurde? Wie gesagt KIs verstehen nicht was sie tun. Sie können den Inhalt eines Textes nicht verstehen und somit auch nicht bewerten. Sie können somit keine Aussage darüber treffen, welche Information, welches Wort wichtig ist und welches nicht.
4. Was du Außerhalb der JP mit Ki machst kontrolliert diese Regelung nicht. Wenn du meinst, dir Inspiration von ihr holen zu können oder müssen, ist das deine Sache (ich persönlich würde, wenn ich überhaupt keine Ideen habe lieber auf Spezial:Gewünschte Seiten schauen, aber you do you). Ich persönlich wäre aber skeptisch ob die Ausgabe der KI aufgrund der oben genannten Punkte faktisch korrekt ist. Somit ist es auch kein Totalverbot, wie du hier insinuierst.
5. Es ist unlängst bekannt, dass KI schlecht im Programmieren ist, weil man auch hier - wie bei allen anderen Anwendungen auch - eigentlich alles nochmal nachprüfen muss.
6. Krebs erkennen ist m.E. wirklich eher Machine Learning, was aber wiederum aufgrund des aktuellen "Hypes" mit KI vermengt wird. Nichtsdestotrotz hat Krebserkennung nichts mit der Verwendung in der JP zu tun. Ich denke nicht, dass eine*r von uns Zugriff auf diese Programme hat, noch dass sie hier eingesetzt werden würden. Stattdessen, haben wir nur Zugriff auf ChatGPT (das 'P' steht übrigens für 'Pre-trained') oder Mecha-Hitler Gork oder so. Und auf diese treffen diese Kritikpunkte nun mal zu.
1. Wie die Trainingsdaten erlangt sind, ist erst mal nicht meine Sache. Ob ich ein Werk illegal runtergeladen habe (was wir in der Richtlinien ja auch nicht ausschließen), oder die KI damit trainiert wurde. Und die StarWars-Werke kann man der ja zur Verfügung stellen, wenn man sie in so was wie NotebookLM steckt
2. Vollständigkeit kann ich natürlich nie sicherstellen, das geht mit konventionellen Methoden aber auch nicht. Korrektheit kann ich aber prüfen, indem ich die vorgeschlagenen Quellen selbst sichte. Natürlich kann man der Ausgabe nie blind vertrauen.
3. Auch hier: Ergebnis selbst prüfen, ob die Ausgabe inhaltlich mit der Eingabe übereinstimmt.
4. Spezial:Gewünschte Seiten kann ich nicht nach einer Liste von Quellen, auf die ich Zugriff habe, filtern.
5. Ja, Nachprüfungen sind immer notwendig. Ich führe auch keinen Code blind aus, er von einer KI erzeugt wurde. Und ich glaube niemals aussagen einer KI, ohne sie zu prüfen,
6. Das diene nur als Gegenbeispiel dazu, dass KI eben nicht grundsätzlich böse ist. Sinnvoll eingesetzt kann KI eine Menge Arbeit abnehmen. Missbräuchlich eingesetzt, kann sie für Propaganda genutzt werden. Fahrlässig eingesetzt kann sie dem Nutzenden Fehlinformationen liefern.
Gruß Admiral Ackbar (Diskussion) 15:36, 10. Dez. 2025 (CET)

Ich finde es dennoch ziemlich komisch, dass ansonsten sehr hohe Ansprüche an Benutzer und Artikel gestellt werden, bei KI soll das alles aber auf einmal kein Problem sein. Es ist scheinbar irrelevant wie es zu seinen Ergebnissen kommt, weil man es ja nachprüfen kann. Bei Artikelauszeichnungen wird Vollständigkeit verlangt, hier kann man sie "natürlich nie sicherstellen". Korrektheit soll man natürlich selbst sicherstellen und man soll nicht blind die Ergebnisse einer KI übernehmen - was ja auch schon so gut geklappt hat, als es nur darum ging, dass man Inhalte nicht einfach nur aus der Wookiepedia übersetzen sollte. Das haben wir letztendlich auch irgendwann untersagt, weil sich eben nicht alle daran gehalten haben - selbst nicht nach dem Verbot. Ich glaube man macht sich zu viele Illusionen darüber wie viel Zeit oder Arbeit man mit KI spart. Wenn man eh alles nochmal nachprüfen muss, man beim eigentlichen Schreiben von Artikel, oder bei Korrekturen aber ebenfalls auch nochmal alles nachprüfen muss, kann man sich den Schritt mit der KI einfach sparen und direkt mit dem Nachprüfen anfangen. Gleichzeitig verlangt niemand von dir oder anderen alles zu 100% korrekt nachzuprüfen - alles was du übersiehst wird im Laufe der Zeit jemand anderes finden. Und Spezial:Gewünschte Seiten funktioniert super mit Spezial:Linkliste, wenn irgendwann mal alle Quellen mit der Inhaltsvorlage versehen wurden. Wem das zu lange dauert kann gerne alte Artikel überarbeiten - oder einfach nochmal seine eigenen Quellen überfliegen. Es gibt weiß Gott genügend Möglichkeiten an Ideen für Artikel zu kommen. Da brauch ich keine halluzinierende Maschine für. --Moddi (Moderator) Anrufbeantworter 15:57, 10. Dez. 2025 (CET)

Für einen konsequenten Ausschluss jeglicher „KI“-Nutzung sehe ich derzeit dennoch weniger schlagende Argumente als für eine umfassende Regelung, die einen verantwortungsvollen und fruchtbaren Umgang mit den daraus erwachsenden Werkzeugen und Hilfestellungen ermöglicht und gleichzeitig vermeidet, dass rein KI-generierter Content den Weg auf unsere Plattform findet (abgesehen von den kaum vermeidbaren russischen Spambots). Es gilt, hier einen gesunden Mittelweg zwischen Totalregulierung und totaler Deregulierung zu finden – wie auch immer der am Ende aussehen mag. Im Übrigen ist das Thema widerrechtliche Erlangung von Trainingsdaten zumindest in Deutschland noch nicht höchstrichterlich geklärt. Es gibt derzeit zwei widerstreitende Entscheidungen des LG Hamburg und zuletzt des LG München I, die jeweils zu dem Ergebnis kommen, dass die Vervielfältigungen und möglichen weiteren Nutzungshandlungen von der Schrankenbestimmung für Text und Data Mining erfasst sind oder eben nicht. In dem Verfahren vor dem LG München I, in dem die Anwendung der Schrankenbestimmung abgelehnt wurde, hat OpenAI vor wenigen Stunden Berufung eingelegt. Man kann sich ziemlich sicher sein, dass das ganze Ding noch eine Runde weiter in Revision und ggf. sogar mit einigen Vorlagefragen vor den EuGH gehen wird – dann dürften wir in einigen Jahren vielleicht Klarheit dazu haben. Skippi 🗪 17:54, 10. Dez. 2025 (CET)
Ich bin auch der Meinung, dass von „KI“ verfasste Artikel oder Abschnitte verboten sein sollten. Der Vergleich mit den Wookieepedia-Übersetzungen finde ich da auch passend, und das lässt sich auch noch einigermaßen kontrollieren. Aber genauso wie es erlaubt ist, einen Wookieepedia-Artikel zur Orientierung und Recherche zu nutzen, wenn ich die Infos in den Quellen gegenprüfe und meinen eigenen Text schreibe, sehe ich kein Problem darin, wenn jemand „KI“ als Recherchehilfe, Rechtschreibprüfung o.ä. nutzen will, solange der finale Text anhand der Quellen geprüft und selbst geschrieben ist. Zumal, selbst wenn wir jede „KI“-Nutzung verbieten sollten, niemand nachweisen kann, dass ein anderer Autor ChatGPT gefragt hat, ob es ein paar Kommas anders setzen oder einen Satz anders formulieren würde.
Ich zitiere mal unsere Vereinssatzung: Zweck des Vereins ist die Förderung der Medienkompetenz von Kindern, Jugendlichen und jungen Erwachsenen im Umgang mit dem Internet und anderen Medien sowie in der Auseinandersetzung mit Inhalten der modernen Populärkultur. Eine kritische Auseinandersetzung mit KI ist Förderung der Medienkompetenz, ein Blankoverbot nicht. Wir leben in einer sich rapide verändernden Welt, wenn wir jemals noch einmal junge Leute als Autoren gewinnen wollen, sollten wir davon ausgehen, dass in einigen Jahren (wenn nicht jetzt schon) ChatGPT und die anderen künstlichen Gesellen ein völlig normales Arbeitswerkzeug für sie sind.
Und ich sage das als jemand, der ChatGPT drei Mal in seinem Leben benutzt hat und einen weiten Bogen um alles macht, wo „KI“ dran steht. Ich kann verstehen, woher der Wunsch nach Komplettverbot kommt, halte es aber kaum für umsetzbar. Wenn sich unsere Juristen und interessierten Personen hinsetzen wollen, um eine differenzierte AI Policy zu erarbeiten, fände ich das auch einen guten Ansatz. Lord Tiin Utiini! 20:43, 10. Dez. 2025 (CET)
Ich habe mal das Projekt der deutschen Wikipedia zu KI herausgesucht. Dort wird zwar auch darauf hingewiesen, dass KI ggf. für Umformulierungen verwendet werden kann, die Regelung ist jedoch auch dort ziemlich klar: „Sprach-KI sind derzeit nicht in der Lage, korrekt belegte Beiträge zu erstellen. Beiträge, die damit erstellt werden, verstoßen daher unter anderem gegen WP:Keine Theoriefindung, WP:Belege, WP:Urheberrechtsverletzung, WP:Neutraler Standpunkt; ihre Verwendung ist daher derzeit generell unerwünscht“. Dies führt mich zu neuen Fragen, die man bei der Verwendung von KI beachten muss, die sich jetzt schon aus unseren Regelungen ergeben. Zwar hat die JP keine ganze explizite Seite wo es darum geht, dass Urheberrecht zu beachten. Aber auch wir haben eine Jedipedia:Lizenzbestimmungen, nach der unsere Inhalte nach der GNU-Lizenz lizenziert werden. Das heißt aber auch, dass auch wir darauf achten müssen, dass die Texte, die in unseren Artikel verwendet werden, keine Urheberrechtsverletzungen beinhalten dürfen. Wie stelle ich also sicher, dass selbst wenn es nur um Formulierungen geht, keine Urheberrechtsverletzungen enthalten sind, wenn die KI mehr als nur einzelne Wörter "verbessert"? Zweitens, wir haben uns selbst mal einige Regelungen gegeben, die in Jedipedia:Was Jedipedia nicht ist zusammengefasst wurden. Dort ist u.a. festgehalten, dass die Jedipedia kein Copy&Paste-Projekt ist (sowie neutraler Standpunkt, keine Theoriefindung etc. pp.). Somit ist so oder so das ungeprüfte Übernehmen von Ergebnissen von KI nicht zulässig und auch wenn es nur um Formulierungshilfen oder Rechtschreibprüfung geht, muss dies stets geprüft werden. Eine unkritische Verwendung von KI ist somit auch jetzt schon nicht zulässig, vom schreiben von Artikel bzgl. Verstoßes von JP:OQ ganz abgesehen. --Moddi (Moderator) Anrufbeantworter 11:27, 11. Dez. 2025 (CET)
Wie mit Tyber und Nahdar besprochen würde ich anregen, zwischen den Jahren einen Stammtisch zu diversen Themen, unter anderem diesem Vorschlag, zu veranstalten, bei dem jeder seine Anregungen und Wünsche einbringen kann, aus denen wir dann – auch unter Zugrundelegung der bisherigen Erwägungen hier – einen entsprechenden Leitfaden entwickeln und dann zur Abstimmung stellen. Skippi 🗪 11:40, 11. Dez. 2025 (CET)

Abstimmung[Bearbeiten]

Die Abstimmung läuft vom 10. Dezember 2025 bis zum 31. Dezember 2025. (verlängert wegen mangelnder Beteiligung).

  1. Pro: Moddi (Moderator) Anrufbeantworter 13:25, 10. Dez. 2025 (CET)
  1. Kontra: Admiral Ackbar (Diskussion) 13:46, 10. Dez. 2025 (CET)
  2. Kontra: So nicht. Nahdar (Diskussion) 09:51, 24. Dez. 2025 (CET)