Kennzeichnung von KI-Inhalten
· Gleb Kusnezow · ⏱ 3 Min · Quelle
Gestern bei einem Runden Tisch über KI mit einem Abgeordneten aneinandergeraten, der die Idee der „Kennzeichnung von KI-Inhalten“ nach dem Prinzip „auf Filmen steht 18+, also soll hier ‚von KI generiert‘ stehen. Man wird sich daran gewöhnen“ vorantrieb.
Den Abgeordneten kann man verstehen - regulieren muss man, aber wie - das ist unklar. Da greift man zu „magischen einfachen Lösungen“. Ich glaube, dieser Ansatz funktioniert nicht. Hier ist der Grund:
1. Problem der Autorschaft
Die Idee, „Inhalte zu kennzeichnen“, basiert auf einer binären Logik: Der Text wurde ENTWEDER von einem Menschen ODER von einer KI erstellt. Die Realität ist komplexer. Zum Beispiel bereitet ein Politiker eine Rede mit einem Sprachmodell vor. Das Modell schlägt Formulierungen vor. Der Politiker verwirft 50 %, schreibt 30 % um, fügt Beispiele aus der Erfahrung hinzu. Wer ist der Autor? Wenn der Politiker, warum kennzeichnen? Wenn das Modell, dann ist das eine Lüge - die Ideen sind nicht seine. Wenn es eine Co-Autorschaft ist, wo ist die Grenze? Muss der Autor einen „Co-Autor“ angeben, wenn er ihn gebeten hat, den Entwurf zu überarbeiten? Und wenn er die Autokorrektur von Word auf maschinellem Lernen verwendet hat?
Das Gesetz versucht, eine Grenze zu ziehen, wo es keine gibt. Intellektuelle Produktion ist kollektiv. Wir verwenden immer Werkzeuge - von Wörterbüchern bis zu Suchmaschinen. KI ist nur ein neues Werkzeug, mächtiger und weniger transparent. Aber das ändert nicht die grundlegenden Merkmale des Prozesses.
2. Unmöglichkeit der Verifizierung
Angenommen, das Gesetz wird verabschiedet. Wie und wer wird die Einhaltung überprüfen?
KI-Textdetektoren machen viele Fehler: Menschlicher Text wird als maschinell markiert, wenn der Autor strukturiert und grammatikalisch korrekt schreibt. Hochwertiger KI-Text, der von einem Menschen bearbeitet wurde, wird als autorisch durchgehen. Das Gesetz - im Falle der Verabschiedung - bestraft nicht den Betrug, sondern die Ehrlichkeit. Derjenige, der den Text gewissenhaft gekennzeichnet hat, trägt Reputationskosten. Derjenige, der die Rolle der KI verschwiegen und leicht bearbeitet hat, bleibt unbemerkt. Es entsteht ein Markt zur Umgehung der Regulierung. Es gibt bereits Dienste zur „Humanisierung“ von KI-Text. Das Gesetz fördert nicht die korrekte Nutzung von KI, sondern die Entwicklung von Technologien zur Verschleierung ihrer Nutzung.
3. Was sagt die Kennzeichnung tatsächlich aus?
Angenommen, ich kennzeichne: „Text erstellt mit KI“. Was sagt das dem Leser?
Wenn das Publikum KI als Zeichen des Verfalls betrachtet, werden meine Ideen entwertet - obwohl das Denken mein eigenes bleibt. Wenn das Publikum KI als Indikator für Fortschrittlichkeit ansieht, entsteht der falsche Eindruck technologischer Kompetenz - obwohl das Werkzeug zweitrangig ist. Die Kennzeichnung verschiebt den Fokus von der Qualität des Denkens auf das Werkzeug seiner Darstellung. Es ist, als ob man in den 1990er Jahren verlangen würde: „Text auf einem Computer getippt, nicht auf einer Schreibmaschine geschrieben“. Das Ergebnis zählt, nicht die Produktionsweise - es sei denn, die Produktionsweise verzerrt das Ergebnis selbst.
4. Das eigentliche Problem
Der Abgeordnete versucht, ein Symptom zu regulieren und ignoriert die Krankheit. Das Problem ist nicht, dass Menschen KI nutzen. Das Problem ist, dass KI proprietär ist. Im Gegensatz zu einem Spinnrad oder Elektrizität, die man kaufen und besitzen kann, bleiben Sprachmodelle im Besitz von Unternehmen. Der Nutzer mietet den Zugang, kauft aber nicht das Werkzeug. Das schafft eine kritische Abhängigkeit. Ein Unternehmen kann jederzeit: die Preise erhöhen, die Bedingungen ändern, die Funktionalität einschränken, den Zugang ganz schließen. Darüber hinaus enthält das Modell eine eingebaute Normativität - Vorstellungen von Erlaubtem, Richtigem, Toxischem. Es ist kein neutrales Werkzeug wie Elektrizität, der es egal ist, was man unter ihrem Licht tut. Die Kennzeichnung von Inhalten löst nicht die Frage der technologischen Souveränität. Sie schafft die Illusion von Kontrolle und lenkt von dem eigentlichen Problem ab: Wer besitzt die Infrastruktur der Sinnproduktion im digitalen Zeitalter?
5. Kritik üben - Vorschläge machen
Wenn der Gesetzgeber wirklich besorgt über den Einfluss von KI auf die Gesellschaft ist, sollte er nicht die Attribution, sondern die Zugangs- und Besitzbedingungen regulieren:
• Transparenz der Algorithmen für kritische Anwendungen fordern
• In offene Alternativen zu proprietären Systemen investieren
• Das Recht der Nutzer auf Daten schützen, die im Prozess der Interaktion mit KI erstellt werden
• Die Nutzung von KI in Bereichen kontrollieren, in denen eingebaute Voreingenommenheit kritisch ist (Gerichte, Einstellung, Kreditvergabe)
Die Kennzeichnung ist eine bequeme Imitation der Regulierung. Sie erlaubt dem Abgeordneten, zu berichten: „Wir tun etwas“. Aber in der Praxis schafft sie absurde Anforderungen, fördert die Umgehung des Gesetzes und löst kein einziges reales Problem. Gleb Kusnezow, Politologe.