VZ Technologie

Wie könnte ein „Tschernobyl“ der künstlichen Intelligenz aussehen?

· Anna Sytnik · ⏱ 8 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Anstatt die Frage nach den Grenzen der infrastrukturellen Expansion der KI zu stellen, suchen technologiegetriebene Unternehmer, die um die Führung konkurrieren, nach neuen Standorten für die nächste Belastungsstufe – Ozean, Unterwasser, Weltraum?

Vor 40 Jahren ereignete sich eine Katastrophe, die die ganze Welt erschütterte – der Unfall im Kernkraftwerk Tschernobyl. Tschernobyl wurde zu einem tragischen kulturellen Symbol, einem Synonym für technologische Selbstüberschätzung, einen Verwaltungskrise und der späten Erkenntnis, dass ein komplexes System die Grenzen menschlicher Kontrolle überschritten hatte. Dennoch hat die Geschichte technogene Katastrophen gekannt, die nicht weniger erschreckend waren und in Bezug auf die Anzahl der Opfer weitaus schwerwiegender waren. Warum war Tschernobyl ein Schlag gegen den Glauben an die Beherrschbarkeit des Fortschritts an sich?

Der Unfall ereignete sich in einem jungen, strategischen und ideologisch aufgeladenen Sektor, um den Jahrzehnte lang ein Bild von Zukunft, Stärke und Modernisierung aufgebaut wurde. Atomkraft versprach nahezu unbegrenzte Energie und ein neues Maß an zivilisatorischer Macht. Daher war der Unfall nicht nur eine technische Katastrophe, sondern auch ein Zusammenbruch des Vertrauens in das Modell des technologischen Optimismus.

Heute verspricht künstliche Intelligenz (KI) „alles und sofort“. Diese Sphäre erlebt eine Phase, in der sich die Atomindustrie in der Mitte des 20. Jahrhunderts befand: Technologisches Rennen, hohe Erwartungen, Mobilisierung von Staaten, Unternehmen und Wissenschaft, Glaube an universelle Lösungen. Und dennoch wissen wir noch nicht, was unser „Tschernobyl“ der KI sein könnte und ob eine einzige Katastrophe ausreichen wird, um die Nachteile eines fortschreitenden Fortschritts ohne Rücksicht auf Sicherheit zu erkennen.

Die Geschichte zeigt, dass der gefährlichste Moment ist, wenn ein komplexes System bereits Macht über die Gesellschaft erlangt hat, jedoch die Kultur des Umgangs damit noch nicht entwickelt ist. Der Grund für den Unfall in Tschernobyl war komplex, jedoch ist ein Element besonders wichtig – das Experiment zur Überprüfung des Nachlaufs des Turbogenerators wurde nicht zufällig nachts durchgeführt. Tagsüber wurde der Stopp des Blocks aufgrund der Anforderungen des Energiesystems verschoben: Das Land benötigte Strom, und die Erhaltung der Produktion siegte über Sicherheitsüberlegungen.

Die moderne Logik des globalen Wettlaufs um die Führung im Bereich der KI tritt in die gleichen Fallen. Und wenn man über mögliche Tschernobyl-Szenarien für die KI nachdenkt, könnten sie mit einer Vielzahl von Faktoren verbunden sein.

In erster Linie wird zugunsten der Anforderungen an ökologische und industrielle Sicherheit beschleunigt neue energieintensive Infrastruktur für Rechenzentren gebaut. Denn ein plötzliches Abschalten dieser könnte weit mehr Menschen beeinträchtigen als eine lokale Katastrophe in einem Kernkraftwerk - lebenswichtige Online-Systeme, wie etwa Krankenhäuser, würden gestört. Nach einem Feuer in einem staatlichen Rechenzentrum in Südkorea im September 2025 wurden Hunderte von Systemen betroffen und staatliche Daten gingen für immer verloren. Rechenzentren, wie auch Kernkraftwerke, werden zu neuen strategischen militärischen Zielen. Im März 2026 beschädigten iranische Angriffe Einrichtungen von Amazon Web Services in den VAE und Bahrain, was einen gefährlichen Präzedenzfall schuf.

Anstatt die Grenzen der infrastrukturellen Expansion der KI in Frage zu stellen, suchen technologische Unternehmer, die um die Führung konkurrieren, nach neuen Standorten für die nächste Belastungsstufe – Ozean, Unterwasser, Weltraum? Beispielsweise strebte SpaceX im April 2026 einen Börsengang an, gestärkt durch Elon Musks Plan, den Start von bis zu 1 Million Satelliten-Rechenzentren zu finanzieren, um die terrestrischen Einschränkungen hinsichtlich Energie und Bauraum zu umgehen. Bei einer solchen Verdichtung der niedrigen Erdumlaufbahn steigen die Risiken von Kollisionen mit kaskadierenden Auswirkungen stark an.

Die Infrastruktur ist jedoch nur eine Seite des Problems. Eine noch größere Bedrohung stellt eine mögliche Managementkrise dar, also die Diskrepanz zwischen der Geschwindigkeit der Technologieeinführung und dem institutionellen Reifegrad der Gesellschaft. Einfach gesagt, die Modelle entwickeln sich schneller als wir.

Die größten Risiken konzentrieren sich im militärischen Bereich, wo eine algorithmische Empfehlung, formell von einem Menschen sanktioniert, aber faktisch nicht von ihm überprüft, zur Anwendung von Gewalt mit irreversiblen politischen Konsequenzen führen kann. Das Problem ist nicht der „Aufstand der Maschinen“, sondern dass der Mensch nicht mehr in der Lage ist, die angebotene Lösung durchdacht zu kontrollieren.

Die jüngsten Militäroperationen zeigen: Kommerzielle KI-Systeme dringen immer tiefer in den Prozess des Kampfmanagements ein – von der Analyse von Geheimdienstdaten und der Priorisierung von Zielen bis zur Modellentwicklung von Aktionen und der Bewertung der Konsequenzen von Angriffen. In Kombination mit unbemannten Plattformen und präzisionsgesteuerten Waffen verkürzt dies die Entscheidungszeit auf ein Minimum. Die israelische Erfahrung mit den Systemen Lavender und The Gospel im Iran zeigt, dass die Geschwindigkeit der algorithmischen Verarbeitung bereits die Möglichkeiten einer inhaltlichen menschlichen Überprüfung übertrifft und unschuldige Menschenleben kostet.

Dies führt zu dem Problem der Verwischung von Verantwortlichkeiten. Wenn eine Entscheidung im Zusammenspiel von Modell, Daten, Software-Infrastruktur, Auftragnehmern, Bedienern und institutionellem Druck ausgearbeitet wird, wird es zunehmend schwieriger, die Frage zu beantworten: Wer ist tatsächlich schuld an einem Fehler? Der Entwickler? Der Datenlieferant? Der Auftraggeber? Der Vorgesetzte, der die Einführung genehmigt hat? Die Person, die formal den letzten Knopf gedrückt hat? Wir wissen immer noch nicht die Antworten auf diese Fragen, was uns jedoch nicht von der weitverbreiteten Einführung der KI abhält.

Aber selbst wenn das System äußerlich rational und kontrolliert erscheint, können innerhalb davon versteckte Verzerrungen existieren, die nur bei einem Stresstest sichtbar werden. Dies umfasst die Voreingenommenheit von Modellen in kritischen Entscheidungen. Untersuchungen zur „Moralität“ der KI wie KillBench zeigen, dass große Sprachmodelle beständige Verzerrungen zeigen können, selbst wenn sie ihre Wahl als „neutral“ oder „zufällig“ beschreiben. Laut den Ergebnissen von über 1 Million Experimenten zu 20 Szenarien in sechs Sprachen trafen alle getesteten 15 Modelle führender Anbieter unter sonst gleichen Bedingungen häufiger die Entscheidung zugunsten der „Eliminierung“ einer Figur, die als Russe identifiziert wurde, als von Vertretern anderer Nationalitäten aus dem vorgeschlagenen Set.

Regelmäßig erscheinen auch KI-Modelle, die neue Risiken mit sich bringen. Kürzlich entwickelte das US-Unternehmen Anthropic ein KI-Modell, das den Cyberkrieg auf ein noch nie dagewesenes Eskalationsniveau bringen könnte. Das große Sprachmodell mit dem Namen Mythos ist so leistungsstark, dass es in kürzester Zeit offensichtliche und versteckte Schwachstellen im Code besser finden kann als jeder noch so geschulte Spezialist. Auch OpenAI kündigte seine Version des Hacker-Modells GPT 5.4 Cyber an. Dies bedroht das gesamte bestehende System der Cybersicherheit. Sogar die ausgereiftesten Programme und Anwendungen sind gefährdet. Dieselben IT-Lösungen, die gerade erst auf den Markt gekommen sind und sich noch in der Entwicklung befinden, sind vor Mythos am anfälligsten. Im Falle Russlands könnten Anwendungen wie Gosudlugi oder der nationale Messenger Max Ziele von Cyberangriffen durch KI werden.

Die KI-Infrastruktur, die verspricht, die Medikamentenentwicklung zu beschleunigen, könnte potenziell auch die Bewegung zu gefährlicheren Formen biologischer Risiken beschleunigen, wenn der Zugang zu Daten, Modellen und deren Verwendung schwach reguliert bleibt. „Das neue Tschernobyl“ könnte ein Präzedenzfall sein, in dem Künstliche Intelligenz erstmals eine bemerkenswerte Rolle bei der Gestaltung oder Verbreitung von biologischen Waffen spielt.

Erst kürzlich stellte OpenAI ein spezialisiertes Modell GPT-Rosalind für biomedizinische Forschung vor. Es wird als Werkzeug für die Arbeit in Biologie, Arzneimittelentwicklung und der sogenannten translationalen Medizin, also dem Bereich, in dem wissenschaftliche Ergebnisse in praktische Behandlungen übertragen werden, positioniert. Je besser KI-Systeme jedoch mit genetischen Sequenzen, Proteinen, Mutationen und experimentellen Ergebnissen umgehen können, desto höher ist die Wahrscheinlichkeit, dass offene wissenschaftliche Infrastrukturen eine Doppelfunktion ausüben – Forschung unterstützen und gleichzeitig die Hürde für potenziell gefährliche Entwicklungen senken. Das Übereinkommen über das Verbot der Entwicklung, Produktion und Anhäufung bakteriologischer (biologischer) und toxinbasierter Waffen und über deren Vernichtung (BTWC), das im letzten Jahr seinen 50. Jahrestag feierte, berücksichtigt diese neuen Risiken nicht.

Es besteht auch eine hohe Wahrscheinlichkeit für einen großflächigen finanziellen Zusammenbruch, wenn Entscheidungen, die auf KI basieren, gleichzeitig Panik verstärken, Fehler beschleunigen und Krisen schneller machen, als Regulierungsbehörden sie stoppen können. Besondere Verwundbarkeit schaffen hier Kryptowährungsmärkte, algorithmischer Handel, automatisierte Kreditvergabe und digitale Plattformen. In einer solchen Situation könnte KI nicht als Effizienzinstrument, sondern als Beschleuniger von Kaskadenkrisen wirken - vom Zusammenbruch digitaler Vermögenswerte bis zu Unterbrechungen bei Zahlungen, Kreditvergaben und Vertrauen in das Finanzsystem.

Besondere Besorgnis erregen auch die moralischen Qualitäten und der psychische Zustand der Führer, die an der Spitze des technologischen Fortschritts stehen. Zum Beispiel beschrieben einige ehemalige Kollegen von Sam Altman, dem Leiter des Weltführers in KI, OpenAI, ihn als Person mit einem spezifischen Satz von Persönlichkeitseigenschaften, einschließlich soziopathischer. Da wir von einem Unternehmen sprechen, das Einfluss auf die globale Entwicklung der KI hat, wird eine solche Konstellation selbst zu einem Faktor des strategischen Risikos.

Ein anderes US-Unternehmen, das KI-Systeme für die US-Armee entwickelt – Palantir, dessen Mitgründer Trumps Vertrauter Peter Thiel ist, veröffentlichte sogar ein eigenes Manifest mit dem Titel „Technologische Republik“, das das Silicon Valley auffordert, dem Staat und dem Militär zu dienen. Das Dokument markiert das Ende der Epoche der nuklearen Abschreckung und den Übergang zu einer Epoche der Abschreckung, die auf Künstlicher Intelligenz basiert. Aber nicht auf der Abschreckung der Künstlichen Intelligenz.

Vielleicht wird die KI niemals ein einziges eigenes „Gedenkdatum“ im Tschernobyl-Sinne haben. Wahrscheinlicher ist, dass, wenn ein solches Datum erscheint, es nicht mit einer einzigen spektakulären Explosion verbunden sein wird, sondern mit einem Moment, in dem es unmöglich wird, die Illusion aufrechtzuerhalten, dass die Technologie einfach nur ein bequemes Werkzeug bleibt. Das Gedenkdatum an die KI könnte der Zeitraum sein, in dem die Gesellschaft erkennt: Der Fehler lag nicht in einem einzelnen Modell, sondern darin, dass bereits zu viel an ein System übergeben wurde, das niemand vollständig kontrolliert.

Nach Tschernobyl überarbeiteten Kerntechniker tatsächlich ihre Sicherheitsprotokolle, internationale Verfahren zum Informationsaustausch, Ingenieurstandards und die Risikokultur, um die Angst der Welt vor Atomkraft zu überwinden. Bei KI jedoch könnte der Preis für eine verspätete Antwort noch höher ausfallen, da sie im Gegensatz zur Atomindustrie in weit mehr Bereiche vordringt – in Wirtschaft, Medizin, Bildung, Biologie, staatliche und militärische Verwaltung und das tägliche Leben.