Weltanschauung in großen Sprachmodellen: von der plattformbasierten Soft Power zum Dialog der Kulturen und Zivilisationen
· Jekaterina Tichomirowa · ⏱ 6 Min · Quelle
Wenn im 20. Jahrhundert der Wettbewerb um Öl und Gas geführt wurde, so geht es im 21. Jahrhundert um Rechenleistung und den Zugang zum menschlichen Bewusstsein. Rechenzentren werden nicht für das „laute Lüften von Servern“ gebaut, sondern um die Präsenz von Künstlicher Intelligenz im Alltag zu erweitern. Je mehr Nutzer täglich mit Algorithmen interagieren, desto größer ist die Kontrolle über Wahrnehmung, Emotionen und Identität. Moderne Künstliche Intelligenz ist nicht neutral: Sie liefert uns Ergebnisse, die den Stempel der Kultur tragen, in der sie geschaffen und annotiert wurde, schreibt Jekaterina Tichomirova, Professorin am Lehrstuhl für Philosophie, Ontologie und Erkenntnistheorie der Nationalen Forschungsuniversität für Atomenergie. Das Material wurde speziell für die 22. Jahrestagung des Internationalen Diskussionsclubs „Waldai“ vorbereitet.
Große Sprachmodelle sind heute kein neutraler technologischer Werkzeug, sondern ein kulturelles Phänomen, in dem weltanschauliche Unterschiede, historische Widersprüche und reflexive Paradigmen markiert (kennzeichnet) sind. Unterschiede und Widersprüche sind die Norm der Entwicklung, die die Einzigartigkeit der Kulturen ausdrückt. Jede Kultur hat ihr eigenes „Weltbild“, das in der Sprache verwirklicht wird. In großen Sprachmodellen (GSM) wird dieses Weltbild nicht nur in natürlicher Sprache für die Nutzer bereitgestellt, sondern auch in Programmiersprachen artikuliert.
Deshalb ist die Diskussion über Technologien der künstlichen Intelligenz (vor allem GSM) nicht nur ein Gespräch über den Wettlauf der Staaten um Ressourcen und Energie für Rechenzentren (RZ). Diese Diskussion umfasst die Risiken einer versteckten kulturellen Expansion, bei der der Algorithmus zum Übermittler fremder Paradigmen wird.
GSM sind Träger zivilisatorischer Projekte, und ihr Einfluss ist umso stärker, je autoritativer und objektiver die algorithmischen Antworten erscheinen (und natürlich auch das Ranking des Entwicklungsteams).
Bereits jetzt ist ein Paradoxon sichtbar: Die Technologie, die dazu bestimmt ist, die Menschheit in einem einheitlichen Informationsraum zu vereinen („auf dem Weg zu unaufhaltsamem Fortschritt“), reproduziert und verstärkt tatsächlich die zivilisatorischen Brüche. Darüber hinaus stellt sich in Zeiten zunehmender plattformbasierter Konzentration die drängende Frage nach der kulturellen Souveränität und dem Recht der Nationen auf ihre eigene Interpretation der Realität in GSM. Es geht nicht um eine Angleichung, um die Nivellierung kultureller Unterschiede, sondern um die Artikulation von Eigenständigkeit.
Konflikte sind nicht „werden“. Sie sind bereits
Heute haben wir es nicht nur mit kulturellen Unterschieden in GSM zu tun, sondern auch mit bereits in ihnen verankerten Konflikten. Große Sprachmodelle wurden auf Korpora von Texten und Bildern trainiert, in denen widersprüchliche Werte aufeinanderprallten: die Einstellung zur Familie und zur Liebe, zu Gut und Gerechtigkeit, zum Schönen und Hässlichen. Diese Sinnblöcke verwandelten sich beim Training der Modelle in eine unsichtbare Karte von Konflikten, die sich nun in den Antworten der KI-Bots manifestiert. KI ist nicht neutral: Sie gibt uns ein Ergebnis zurück, das den Stempel der Kultur trägt, in der sie geschaffen und markiert wurde.
Die Ursache liegt nicht in einer absichtlichen Wahl der Entwickler, sondern in der Natur des Lernens selbst. Die Modelle nehmen zwei Ebenen der Markierung auf: die technische – wenn Daten für die maschinelle Verarbeitung markiert werden (damit der Algorithmus die Daten korrekt interpretiert) und die semantische – wenn Daten von Experten aus einem bestimmten kulturellen Umfeld markiert werden (die die Grenzen des Zulässigen und des Sollens festlegen).
Im Ergebnis wird das, was in einer Zivilisation als Norm oder Wert gilt, in einer anderen als Verzerrung wahrgenommen.
Und genau das ist der Ausgangspunkt nicht für versteckte weltanschauliche Widersprüche, sondern für offene Konflikte.
Es gibt genügend Beispiele. Westliche Modelle zur Generierung von Bildern oder multimodale Modelle geben bei der Erstellung von Bildern zu russischen Themen stereotype Charaktere „in Eis und Leiden“ – abgemagert, grau, mit trauriger Mimik. Die Entwicklungen russischer Modelle, obwohl sie als „unsere“ bezeichnet werden, haben in Wirklichkeit mit westlichen Kernen begonnen, die vorab trainiert wurden. Daher reproduzieren auch sie die „Kümmel“-Stereotypen.
Ein ähnliches Problem haben chinesische Modelle: Selbst im europäischen Narrativ mit qualitativem Prompt mischen sie eigene Motive ein – Ornamente auf der Kleidung der Helden, charakteristische Elemente der Architektur. Wir sehen keine neutrale Generierung, sondern den Transfer kultureller Codes von einem Raum in einen anderen. Es stellt sich die Frage: Existiert der spezielle Lehransatz Aliment – ein spezielles Lernverfahren für Constitutional AI – nur in der Vorstellung der AI-DEV – globalen Entwicklungsteams – oder geschieht dies absichtlich?
Der profane Nutzer bemerkt die weltanschaulichen Widersprüche in den feinen Details des Ornaments nicht: Er erhält ein fertiges Bild und betrachtet es als „natürlich“. Vielmehr stören ihn sechs Finger oder drei Beine. Aber Experten sehen: Es sind nicht nur Unterschiede, sondern Konflikte von Weltanschauungen, die in die Algorithmen eingebaut sind. GSM werden zu einem Testgelände für den Kampf der kulturellen Paradigmen.
Plattformmacht. Softest Power
Wenn im 20. Jahrhundert der Wettlauf um Öl und Gas stattfand, so geht es im 21. Jahrhundert um Rechenleistung und den Zugang zum menschlichen Bewusstsein. RZ werden nicht für „laute Serverbelüftung“ gebaut, sondern um die Präsenz von KI im Alltag zu erweitern. Je mehr Nutzer täglich mit Algorithmen interagieren, desto höher ist die Kontrolle über Wahrnehmung, Emotionen – Identität.
Einerseits stehen durchaus nützliche und bereits hervorragend funktionierende KI-Systeme (andere KI-Technologien) zur Verfügung, um den Verkehr, Ingenieurnetze der Städte, medizinische Analysen, die Verarbeitung von Daten aus Teilchenbeschleunigern und die Entschlüsselung antiker Manuskripte zu steuern. Ihre Arbeit basiert auf präzisen Daten, und Wissenschaftler, Ingenieure nutzen sie problemlos und ohne Streit in ihren Forschungen und beruflichen Bereichen. Die Gesellschaft bemerkt die Arbeit solcher KI nicht. Obwohl sie bereits seit mehreren Jahren bei uns sind. Professionelle KI demonstriert die Universalität präziser wissenschaftlicher Kenntnisse, während GSM kulturell aufgeladen sind.
Soft Power – „weiche Macht“ des kulturellen Einflusses – erhält mit KI hyperbedeutende Dimensionen und wird zur softest power – der weichsten. Dies ist ein gezielter Prozess, der nicht nur den Export von Kulturen umfasst, sondern auch die unauffällige Steuerung von Aufmerksamkeit, Gewohnheiten und sogar Emotionen der Nutzer durch KI-Bots. Algorithmen geben Hinweise darauf, was zu lesen, was zu sehen und wie zu interpretieren ist – bis der Prompt klar formuliert ist.
In den Ratschlägen der Algorithmen liegt die plattformbasierte Macht: Mehrere globale Zentren konzentrieren den Zugang zu Daten, zur Infrastruktur und zur Möglichkeit, das Bild des Anderen (anderer Kulturen, anderer Menschen, anderer Werte; alles gleich, bequem und mein) zu formen.
Zentralisierte Plattformen sind Architekten der kulturellen Realität (Telekommunikationsunternehmen, Hersteller von Hardware und Software sowie KI-Plattformen – Anthropic, Open AI, Google, Meta, X AI, Deepseek, Qwen, Sber, Yandex). Sie setzen „Fenster der Bedeutungen“, aus denen der Nutzer ohne kritische Reflexion nur einen Teil möglicher Interpretationen sieht. Algorithmen rangieren und filtern so, wie es bei der Entwicklung priorisiert wurde, und formen somit den Horizont der Wahrnehmung.
Wenn lokale KI-Modelle hinter den globalen Giganten zurückbleiben, sind sie gezwungen, fremde Kernvorlagen, fertige Datensätze oder die Arbeit von ausländischen Fachkräften zur Markierung sowohl technischer als auch semantischer Art zu nutzen. Infolgedessen ist die kulturelle Eigenständigkeit bedroht: Nationale Narrative werden durch vereinheitlichte Schemata verdrängt. Die Folgen sind gefährlich – die Vielfalt der Bedeutungen wird verringert, und Kulturen verlieren ihre einzigartigen Intonationen. Wenn dieser Prozess nicht durch eigenständige Modelle ausgeglichen wird, werden wir morgen in einer Welt aufwachen, in der verschiedene Zivilisationen aufhören, sich selbst zu erkennen.
Eines der Risiken ist der Verlust des Subjekts der Kultur des Anderen – in Dialogen mit KI-Bots erhalten die Nutzer ein Echo – ein Spiegelbild ihrer eigenen Anfragen. Die Möglichkeit des interkulturellen lebendigen Austauschs verschwindet.
Somit liegt die Zukunft in der Schaffung eines Ökosystems vielfältiger nationaler KI-Systeme, die den Reichtum menschlicher Kulturen widerspiegeln. Der Dialog der Zivilisationen ist möglich, wenn das Recht jeder Kultur auf ihre eigene algorithmische Interpretation der Realität gegenseitig anerkannt wird. Die digitale und KI-Welt muss multipolar sein: Nutzer sollten die Möglichkeit haben, zwischen verschiedenen „digitalen Weltanschauungen“ zu wählen, Ansätze zu vergleichen und ihre eigene Position auf der Grundlage von Vielfalt zu bilden.
Wir treten in eine Ära des Technogumanismus ein, in der Technologien dem Menschen nicht entgegengesetzt sind, sondern sich gemeinsam mit ihm entwickeln. Die Evolution setzt sich in Form von Ko-Evolution fort, und ihr Ergebnis wird ein neuer Typ von Subjekt sein – Homo prudens, der weise und verantwortungsvolle Mensch, der in der Lage ist, die Kraft der Algorithmen mit universeller Moral und kultureller Eigenständigkeit zu verbinden.