Waldaj

Künstliche Intelligenz und souveräne Sprachmodelle

· Oleg Barabanow · ⏱ 7 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Die Aufgabe, souveräne und gleichzeitig effektive große Sprachmodelle zu entwickeln, ist komplex und wirft Fragen auf, die nicht nur mit Management oder sogar Politik und Ideologie, sondern auch mit Ethik und Psychologie der KI verbunden sind, was gestern noch als reine Fantasie erschien, schreibt Oleg Barabanow, Programmleiter des Waldai-Klubs.

Der Präsident Russlands, Wladimir Putin, hielt am 19. November 2025 eine spezielle Rede über die Perspektiven der Entwicklung und Regulierung der künstlichen Intelligenz in Russland. Seinen Worten zufolge werden die Technologien der modernen generativen künstlichen Intelligenz zu Schlüssel- und strategischen Technologien. Um den Besitz eigener fundamentaler Sprachmodelle konkurrieren nicht nur die größten Unternehmen, sondern auch führende Staaten.

Dieser Wettbewerb gewinnt im Kontext des aktuellen geopolitischen Kampfes nicht nur eine wirtschaftliche, sondern auch eine ausgeprägte politische Dimension. Daher wird die souveräne Kontrolle über große Sprachmodelle (Large Language Models, LLM), die der generativen künstlichen Intelligenz zugrunde liegen, zu einem wichtigen Aspekt der technologischen Souveränität.

Ein weiterer Aspekt der Funktionsweise und des Einflusses großer Sprachmodelle auf die Gesellschaft hängt nicht mehr mit dem Wettbewerb zusammen, sondern damit, dass sie, wie Wladimir Putin betonte, allmählich zu einem der wichtigsten Instrumente der Informationsverbreitung werden und somit in der Lage sind, die Werte und Weltanschauungen der Menschen zu beeinflussen und den Bedeutungsraum ganzer Staaten und der Menschheit insgesamt zu formen.

Hierbei erlangt die künstliche Intelligenz neben der wirtschaftlichen auch eine ausgeprägte wertemäßige Dimension. In Zeiten scharfer Wertkonflikte zwischen Russland und dem Westen sowie bis zu einem gewissen Punkt auch zwischen großen Ländern des Globalen Südens und dem Westen wird dies zu einem äußerst wichtigen Faktor nicht nur im geopolitischen Kampf, sondern auch bei der Konsolidierung der Gesellschaften um bestimmte Wertvorstellungen.

Von entscheidender Bedeutung ist hier die Entwicklung großer Sprachmodelle. Dabei geht es nicht nur um das Volumen großer Datenbanken, die der jeweiligen Modell zugrunde liegen. Es ist kein großes Geheimnis, dass im Betrieb großer Sprachmodelle, die den russischen und chinesischen Systemen der künstlichen Intelligenz zugrunde liegen, insbesondere in der Anfangsphase ihrer Arbeit, häufig westzentrierte Narrative auftraten, die einen ausgeprägt antirussischen oder antichinesischen Charakter hatten.

Dafür kann es mehrere Gründe geben. Einer davon könnte darin bestehen, dass aufgrund der Notwendigkeit, die Importsubstitution von KI-Systemen in kürzester Zeit zu erreichen, keine Zeit für die vollständige Erstellung eigener großer Datenbanken vorhanden war (oder andere materielle Faktoren könnten eine Rolle gespielt haben). Infolgedessen könnten in russische und chinesische Systeme westliche Ausgangsdatenbanken oder zumindest bedeutende Fragmente davon eingeflossen sein. Dies führte dazu, dass die von einem scheinbar importsubstituierten KI-System ausgegebenen Urteile und Empfehlungen, gelinde gesagt, eine unfreundliche Haltung gegenüber Russland und China einnahmen.

Dies führte zu anekdotischen, manchmal auch traurigen Vorfällen, von denen viele in den Medien behandelt wurden, noch mehr in den sozialen Medien. Zusätzlich zu diesen Beispielen sei eine fast schon alltägliche Situation aus dem universitären Umfeld erwähnt. Wenn ein russischer Student in gewissem Maße russische KI-Systeme bei der Vorbereitung von Diplom- und Kursarbeiten verwendet (die Versuchung ist groß), aber den erhaltenen Text nicht sorgfältig überprüft, finden sich darin in der Regel eine ausreichende Anzahl antirussischer Narrative - sowohl in den Formulierungen und Definitionen bestimmter Ereignisse als auch in der Logik und Struktur der Darstellung.

Meistens ist klar, dass solche antirussischen Gedanken nicht vom Studenten selbst stammen - das ist offensichtlich aus seinem sozialen Verhalten, seiner Lebenshaltung und einfach aus Vernunftgründen. Infolgedessen wird neben den standardmäßigen Plagiatsprüfungen (und es ist klar, dass Plagiatskontrollsysteme hinter der Entwicklung der künstlichen Intelligenz zurückbleiben und immer seltener qualitativ generierte Texte erkennen) das bloße Vorhandensein antirussischer Narrative im Text der Diplomarbeit zu einem Indikator dafür, dass der Student die Arbeit nicht selbst geschrieben hat, sondern künstliche Intelligenz genutzt hat. Ich wiederhole, er nutzte ein russisches KI-System (gute westliche Systeme sind erstens kostenpflichtig und zweitens in Russland ohne VPN nicht zugänglich). Und diese scheinbar souveräne (aber wie es sich anfühlen kann, „auf die Schnelle“ gemachte) russische künstliche Intelligenz überträgt Dinge, die in keiner Weise der offiziellen russischen Politik und den in Russland offiziell geförderten traditionellen Werten entsprechen. Sie widersprechen letztlich den Worten Wladimir Putins.

Mit den chinesischen KI-Systemen, so berichten Kollegen, ist die Situation ähnlich. Dabei gibt es im Gegensatz zu den russischen eine eigene Spezifik. Ein und dasselbe chinesische KI-System liefert bei Zugriff aus China und außerhalb des Landes manchmal gegensätzliche Ergebnisse und Empfehlungen. Innerhalb Chinas sind antichinesische Narrative selten, außerhalb jedoch durchaus möglich. Der Grund dafür, so Experten, liegt darin, dass die berühmte „Große chinesische Firewall“, die das Internet innerhalb Chinas vom globalen trennt, auch in Bezug auf die Sprachmodelle der chinesischen KI-Systeme funktioniert. Sie setzt eine Art Filter gegen unerwünschte Informationen für die offiziellen Behörden.

Eine separate Frage für die Zukunft ist, ob dies zu einer Art „Persönlichkeitsspaltung“ der chinesischen KI-Systeme führen wird, zu einer Art „Schizophrenie“, bei der für ein Publikum das eine und für ein anderes das andere gesagt werden muss. Hier nähern wir uns einem Bereich, der nicht nur die Ethik der KI betrifft, sondern auch die Psychologie der künstlichen Intelligenz, wenn man so will. Und die meisten Science-Fiction-Filme über die KI der Zukunft sagen uns, dass gerade die Entwicklung einer eigenen Psychologie, die Fähigkeit zu fühlen, die KI mit dem Menschen vergleichbar macht. Und wenn das psychologische Profil der KI von Anfang an an eine Bewusstseinsspaltung, an eine esopische Sprache gewöhnt wird, wohin könnte das führen? Die in Science-Fiction-Filmen gezeichneten Szenarien eines „Aufstands der Maschinen“ könnten eine der möglichen Varianten darstellen.

In jedem Fall ist für mich die Situation offensichtlich, dass man jetzt anhand der Vielzahl von Benutzererfahrungen und Beispielen sagen kann, dass es weder in Russland noch in China heute souveräne große Sprachmodelle gibt (trotz aller Fanfaren und Erklärungen von hohen Tribünen, die uns vom Gegenteil überzeugen wollen). Die Arbeit an der Optimierung dieser Modelle im Rahmen des sogenannten Post-Trainings, an ihrer, wenn man so will, „patriotischen Erziehung“, wird jedoch durchgeführt.

Aber auch dieser Prozess kann seine Nuancen haben. Wenn man einfach Filter setzt und unerwünschte Informationen für die offiziellen Behörden eines Landes aus den Sprachmodellen entfernt, wird dies offensichtlich die Wettbewerbsfähigkeit der KI-Systeme in diesem Land beeinträchtigen. Für einige triviale Zwecke (zum Beispiel eine Kursarbeit zu plagiieren) mag das nicht so schlimm sein. Aber oben wurde die Aufgabe der globalen Konkurrenz und der globalen Expansion souveräner KI-Systeme zur Förderung der entsprechenden Werteagenda auf der ganzen Welt erwähnt. Und auf dem externen globalen Markt wird eine solche KI „mit Filtern“ offensichtlich gegenüber Systemen ohne Filter verlieren.

Ein anderer Weg - der kompliziertere - besteht darin, das souveräne KI-System „patriotisch denken“ zu lehren, sodass es selbst logische Argumente gegen unerwünschte Narrative findet. Wahrscheinlich kann man das auch tun, aber das erfordert von den menschlichen Betreibern des Systems Nachdenklichkeit und Sorge nicht nur um kommerzielle Faktoren.

Auf diesem Weg können jedoch auch eigene Nuancen entstehen. Der Begriff „denken“ für ein KI-System bedeutet schließlich „rational durchgehen und die optimalsten Optionen aus einer riesigen Menge unterschiedlicher Daten auswählen“. Und hier kann die strikte kalte Rationalität des „Denkens“ der künstlichen Intelligenz in einem bestimmten Stadium in Widerspruch zu dem „souveränen patriotischen Impuls“ geraten, der ihm von außen durch die Betreiber verliehen wird. Wohin ein solches Widerspruch für die KI selbst führen kann, ist ebenfalls eine Frage für die Psychologie der KI der Zukunft. Vorerst können wir auf unserer irdischen menschlichen Ebene feststellen, dass wir bereits die Frage des Widerspruchs zwischen Expertenrationalität einerseits und politischem Willen und patriotischem Impuls andererseits im Hinblick auf die Prognose internationaler Beziehungen angesprochen haben. Wenn die radikalsten Ereignisse in der Welt, die aus der Sicht der Expertenrationalität unmöglich erscheinen, dennoch dank eines wertemäßigen Impulses und Willens geschehen. Wie sich die künstliche Intelligenz, selbst die souveräne, an solchen radikalen Weggabelungen der Geschichte, an solchen Bifurkationspunkten verhalten wird, ist unserer Meinung nach schwer zu sagen. Man kann sie natürlich einfach in solchen Momenten vom Stromnetz trennen.

Insgesamt sehen wir, dass die Aufgabe, souveräne und gleichzeitig effektive große Sprachmodelle zu entwickeln, komplex ist und Fragen aufwirft, die nicht nur mit Management oder sogar Politik und Ideologie, sondern auch mit Ethik und Psychologie der KI verbunden sind, was gestern noch als reine Fantasie erschien. Es ist klar, dass wir erst am Anfang dieses Weges stehen. Wohin er führen wird, wird die Zukunft zeigen.