KI ohne Bremsen
KI wählt in Stressszenarien Eskalation statt Kompromiss - und das ist längst keine Futurologie mehr, sondern ein Hinweis auf reale Risiken. Warum Algorithmen zu harten Entscheidungen tendieren und ob man ihnen strategische Wahlentscheidungen anvertrauen kann, darüber sprach „Aktuelle Kommentare“ mit der Mediotechnologin, Mitglied des Expertenklubs „Digorija“ und Entwicklungsdirektorin der Korporation AIR, Jekaterina Nabatnikowa.
Wenn selbst speziell eingestellte Modelle in einem Stressszenario nukleare Eskalation wählen, zeigt das vor allem, dass KI heute nicht als neutraler oder „vernünftigerer“ Akteur strategischer Entscheidungen wahrgenommen werden darf. Ein Modell versteht den Wert menschlichen Lebens, politische Verantwortung, historisches Trauma und die Unumkehrbarkeit einer nuklearen Entscheidung nicht so, wie es ein Mensch tut. Es arbeitet mit Wahrscheinlichkeiten, Mustern und der Logik der Ergebnismaximierung im Rahmen der vorgegebenen Aufgabe. Und wenn die Aufgabe als Wahrung eines Vorteils, Verhinderung einer Niederlage oder Demonstration von Stärke formuliert wird, kann das System zu einem äußerst harten Szenario als „rationalem“ aus rechnerischer Sicht gelangen.
Dass kein einziges Modell Kapitulation wählte, ist ebenfalls bezeichnend. Zum Teil ist das eine Besonderheit von Algorithmen: Sie werden auf großen Textmengen trainiert, in denen die Logik von Rivalität, Abschreckung, Sieg und Reaktion auf Bedrohungen dominiert. Kapitulation wird in einem solchen Rahmen oft nicht als Mittel zur Schadensminimierung interpretiert, sondern als Niederlage, die es zu vermeiden gilt. Zugleich spiegelt das die heutige Konfliktlogik wider, in der politische Systeme tatsächlich häufiger in Kategorien eskalatorischen Drucks denken als an freiwilligen Rückzug. KI zeigt in diesem Sinne weniger Aggression, als dass sie bestehende Muster reproduziert und verstärkt.
Man darf der KI die strategische Entscheidungsfindung nicht in Reinform anvertrauen. Sie kann als Instrument zur Modellierung, zur Datenanalyse, zur Abschätzung von Folgen und zur Identifikation schwacher Signale nützlich sein. Doch als Entscheidungssubjekt in Fragen von Krieg, nuklearer Abschreckung oder Krisenreaktion ist sie äußerst gefährlich, weil sie dazu neigt, das zu formalisieren, was in der realen Politik Gegenstand menschlicher Verantwortung, Ethik und Zurückhaltung bleiben muss. KI „will“ nicht unbedingt Eskalation, kann die Auswahl aber systemisch in Richtung der härtesten und instrumentell am leichtesten fassbaren Szenarien verschieben.
Hier entsteht zudem die Versuchung, die Verantwortung auf den Algorithmus abzuwälzen. Wenn politische oder militärische Führungspersonen sich auf die „Berechnungen des Systems“ zu berufen beginnen, erzeugt das eine gefährliche Illusion von Objektivität. In der Praxis kann das Konflikte beschleunigen, weil KI der Eskalation den Anschein einer technisch begründeten Entscheidung verleihen kann. Folglich lautet die Schlüsselfrage heute: Wie verhindern wir, dass KI-Empfehlungen als Rechtfertigung der gefährlichsten Handlungen wahrgenommen werden?
Jekaterina Nabatnikowa, Mediotechnologin, Mitglied des Expertenklubs Digorija, Entwicklungsdirektorin der Korporation AIR.