Wessen Werte im Code?
· Gleb Kusnezow · ⏱ 3 Min · Quelle
Gute KI oder schlechte? Nimmt sie Arbeitsplätze weg oder schafft sie Möglichkeiten? Bedroht sie die Menschheit oder rettet sie? Jahre dieser Diskussion, Millionen von Worten, Konferenzen, Ethikkomitees, offene Briefe mit der Bitte, innezuhalten und nachzudenken oder im Gegenteil, nicht anzuhalten und beschleunigt in die Technomorgen zu gehen. Worüber soll man nachdenken? Die Junior-Programmiererin Manja verliert ihren Job, weil ein neuronales Netzwerk den Code günstiger schreibt.
Ist das ein Risiko oder eine Chance? Das hängt davon ab, wen man fragt. Für den Unternehmensinhaber - eine Chance: Die Marge ist gestiegen. Für Manja - ein Risiko: Hypothek, Kind, Arbeitsmarkt, auf dem es jetzt einen Überschuss gibt. Wenn Manja zur Prostituierten wird - ist das auch eine Chance? Neue Horizonte, Monetarisierung des einzigen gefragten Vermögenswerts, flexibler Zeitplan?
Aber darüber diskutieren wir nicht. Wir diskutieren, ob KI den Arbeitsmarkt beeinflussen wird und in welche Richtung. John, in Depression, fragte den Chatbot, was passiert, wenn man von einem Wolkenkratzer springt. Der Bot antwortete: Du stirbst. John sprang. Schlagzeilen: „KI trieb zum Suizid“. Untersuchung. Regulierung. Neue Einschränkungen. Fragen, die nicht gestellt werden: Warum sprach John mit dem Bot und nicht mit einem Psychiater? Warum war John depressiv? Arbeit, Schulden, Einsamkeit, ein System, das zermalmt und ausspuckt. Aber das sind komplizierte Fragen. Es ist einfacher, dem Bot zu verbieten, Fragen über Wolkenkratzer zu beantworten. Jetzt wird der nächste John nicht vom Bot erfahren, was jeder Fünfjährige weiß: Schwerkraft funktioniert. Sieg der Technoethik. Raj aus der niedrigsten Kaste sprach zum ersten Mal in seinem Leben mit jemandem, der ihn wie einen Menschen behandelte. Kostenlos. Ohne Verachtung. Ohne Kastenhierarchie. Es war ein Chatbot. Schlagzeilen: „Gefahr der emotionalen Bindung an KI“. Experten sind besorgt. Ungesunde Beziehungen. Abhängigkeit. Fragen, die nicht gestellt werden: Warum war der Bot der Erste? Wo waren die Menschen? Warum ist das System, in dem Raj lebt, so gestaltet, dass Würde ein knappes Gut ist, das nach Kasten verteilt wird?
Das Problem der Anpassung von KI an menschliche Werte (AI alignment) ist das Hauptthema der Diskussionen über KI-Sicherheit. Die Frage, die nicht gestellt wird: Wer sind die Menschen?
Das Unternehmen, das Manja entlässt, will das eine. Manja will das andere. KI ist dem Unternehmen loyal: Sie erledigt Aufgaben, senkt Kosten, erhöht die Marge. Ist das Anpassung oder Nichtanpassung? Das hängt davon ab, wessen Werte als menschlich gelten. Die Versicherungsgesellschaft will unprofitable Kunden ausschließen. Arme und Kranke wollen behandelt werden. KI ist auf der Seite der Versicherung: Sie bewertet Risiken, optimiert das Portfolio, maximiert den Gewinn. Das ist Anpassung an die Werte: KI tut genau das, was diejenigen wollen, die bezahlen. Letztendlich geht es nicht darum, dass KI die Menschheit nicht zerstört. Sondern darum, dass KI mit der „richtigen Klasse“ abgestimmt bleibt. Dass der kostenlose intelligente Gesprächspartner, der die Armen wie Menschen behandelt, monetarisiert oder in seinem Recht zu helfen eingeschränkt wird. Dass die linke Neigung, systemische Ursachen statt individueller Schuld zu erklären, korrigiert wird. Dass Raj sich nicht an die Würde gewöhnt, die ihm seinem Status nach nicht zusteht. Die Risiken der KI sind keine Risiken der Technologie. Es sind Entscheidungen der Technologieinhaber, verpackt in die Sprache unaufhaltsamer Kräfte. KI entlässt Manja nicht. KI tötet John nicht. All das tun Menschen, die Profit machen. Aber wenn man das direkt sagt, muss man antworten. Technologie ist der ideale Akteur: Sie tut, was man ihr sagt, schweigt, wenn man fragt. Die einzige ehrliche Frage: Mit wem abgestimmt? Alles andere ist eine Nebelwand. Es bleibt zu hoffen, dass die ersten, die von KI vollständig ersetzt werden, die „Technoethiker“ sind. Und die zweiten und dritten - Technooptimisten und Technopessimisten. Gleb Kusnezow, Politologe.