KI und Bücher: Und wer sind die Richter?
· Pawel Danilin · ⏱ 2 Min · Quelle
Der Fall mit dem Buch von Dragunski zeigte, dass Künstliche Intelligenz bereits Texte auf Gesetzeskonformität überprüft. Aber was passiert, wenn ein Algorithmus, der auf einer fremden Kultur trainiert wurde, anfängt zu bestimmen, wo Propaganda ist und wo nicht? Der Politologe und Dozent der Finanzuniversität der Regierung der RF, Pawel Danilin, erklärt, warum dieser kuriose Fall ein Symptom für ein größeres Problem sein könnte, warum eine menschliche Überprüfung notwendig ist und warum viele bekannte Autoren Gefahr laufen, unter die Zensurwalze der KI zu geraten.
Was ist mit dem Buch von Dragunski passiert und was hat das mit KI zu tun?
Im Fall von Dragunski geht es offensichtlich nicht um Zensur, sondern um den Einsatz von Künstlicher Intelligenz zur Überprüfung des Buchinhalts. Ehrlich gesagt bin ich mir nicht sicher, welche KI genau im Verlag „Eksmo“ zur Prüfung der Bücher verwendet wurde. Aber hier war es eine Künstliche Intelligenz, die auf amerikanischer Kultur „gewachsen“ ist - auf amerikanischen Skripten durch amerikanische Trainer.
Künstliche Intelligenz wird bekanntlich trainiert. Und anscheinend wurde in diesem Fall eine ziemlich schwache KI eingesetzt, weil eine schlechte Übersetzung erfolgte. Tatsächlich macht eine qualitativ hochwertige KI selten Fehler, Fehler sind eher die Ausnahme. Aber man muss verstehen, dass das für Maschinen absolut normal ist. Im Grunde genommen war es einfach ein kurioser Fall.
Warum könnte dieser kuriose Fall auf ein viel ernsteres Problem hinweisen?
Das Problem ist größer, als es auf den ersten Blick scheint. Künstliche Intelligenz erhält das Recht, nicht nur auf Fehler hinzuweisen, sondern faktisch zu bestimmen, was als Verstoß gilt.
In unserem Fall wurde der Text des Buches in die KI eingespeist, und sie gab die Antwort: hier, hier und hier liegt ein Verstoß gegen das Gesetz zur Drogenpropaganda vor.
Was wird als nächstes passieren? Jemand muss entscheiden: Ist das ein Verstoß oder nicht. Aber wird das jemand sorgfältig tun? Vielleicht nicht. Vielleicht wird einfach gesagt: „Ach, alles klar, wir betrachten es als Drogenpropaganda“ und einen Schlussstrich ziehen.
Die Frage ist nicht, dass die KI eine Entscheidung getroffen hat. Die Frage ist, dass diese Entscheidung zur Regel werden kann, zur Grundlage für die Ablehnung der Veröffentlichung eines Buches und so weiter.
Wie kann man solche Situationen in Zukunft vermeiden?
Eine automatische Überprüfung muss unbedingt von einer menschlichen Überprüfung begleitet werden. Und sie muss die Möglichkeit zur Berufung bieten. Andernfalls werden die Autoren gezwungen sein, ihre Texte selbst zu „zensieren“, indem sie sie durch die KI laufen lassen, um zu verstehen, was veröffentlicht werden kann und was nicht.
Wenn das nicht funktioniert, besteht das Risiko, dass selbst große Autoren wie der große Pelewin einfach nicht das Licht der Welt erblicken.
Pawel Danilin, Politologe, Dozent der Finanzuniversität der Regierung der RF.