Aktualjnie Kommentarii Technologie

Risiken der KI

· Gleb Kusnezow · ⏱ 3 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Ich habe in der Woche zwei umfangreiche Artikel über die „Risiken der KI“ gelesen. Sehr unterschiedlich, aber aufschlussreich.

Erster Pol: Eliezer Yudkowsky, Buch „If Anyone Builds It, Everyone Dies“. Der Titel ist gleichzeitig These, Argument und Schlussfolgerung. Superintelligenz wird uns vernichten, die Frage ist nur wann. Zielgruppe sind diejenigen, die glauben, sie sehen etwas, das die Masse nicht bemerkt.

Zweiter Pol: Dario Amodei, Essay „Jugend der Technologie“. 15.000 Wörter vom CEO eines Unternehmens im Wert von 60 Milliarden.

5 Kategorien von Risiken:

1. KI gerät außer Kontrolle;

2. Terroristen erhalten Biowaffen;

3. China baut Totalitarismus auf;

4. Menschen verlieren ihre Arbeit;

5. Menschen verlieren den Sinn.

5 Kategorien von Lösungen:

1. Wir arbeiten an der Sicherheit;

2. Wir setzen Klassifikatoren ein;

3. Exportkontrolle ist notwendig;

4. Philanthropie;

5. Menschen passen sich an.

Zielgruppe sind diejenigen, die glauben möchten, dass es Erwachsene gibt, die die Situation kontrollieren.

Was beide Pole gemeinsam haben: Alle Bedrohungen werden entweder in die Zukunft, nach China oder in Abstraktionen verlagert. Über Autoritarismus schreibt Amodei ausführlich: autonome Drohnen, totale Überwachung, personalisierte Propaganda, ein „virtueller Bismarck“ für strategische Entscheidungen. All das ist schrecklich. In China.

Wer wird es dem hypothetischen Starmer verbieten, dasselbe in Großbritannien zu bauen? Oder Trump mit Palantir die Möglichkeit geben, ICE alle Unzufriedenen verfolgen zu lassen? Amodeis Antwort: „Gesetze, die auf die Unterstützung der Bürgerrechte ausgerichtet sind“. Das heißt, dieselben Leute, die Überwachungsinstrumente erhalten, sollen sich selbst einschränken. Dabei verkauft Anthropic bereits KI an die US-Geheimdienste.

Auch über die Wirtschaft schreibt Amodei. Ja, Arbeitsplätze werden verschwinden. Ja, es wird schmerzhaft sein. Lösung: Philanthropie. Er und seine Partner versprechen, 80 % ihres Vermögens zu spenden. Klassisch. Sie sind nicht arm, weil das System so aufgebaut ist, sondern weil Sie Pech hatten. Sie sind eine Art Behinderte. Aber wir lieben Sie und werden teilen.

Es gibt einen Witz: Um die Komfortzone zu verlassen, muss man zuerst hineinkommen, und wir haben kein Geld.

Also, Yudkowsky behauptet, dass KI alle töten wird.

Amodei behauptet, dass Menschen den Sinn verlieren werden.

Beide haben recht. Aber nicht so, wie sie denken.

Yudkowsky hat recht: KI wird töten. Nicht die gesamte Menschheit, sondern die Klasse der Nutznießer des Nachkriegs-Gesellschaftsvertrags. Die Mittelschicht, die siebzig Jahre lang die Stütze des Status quo in den entwickelten Ländern war. Sie wird einfach nicht mehr gebraucht.

Amodei hat recht: Der Sinn wird verschwinden. Nicht, weil die Menschen in eine existenzielle Krise geraten. Sondern weil die Träger und Betreiber von Sinn - die gebildete Mittelschicht - als soziale Schicht verschwinden werden. Sinn ist ein Luxus für diejenigen, deren Grundbedürfnisse gedeckt sind.

Hinzu kommt, dass Klassenanalyse heute tabu ist. „Marx? Ein Schwätzer-Blogger des neunzehnten Jahrhunderts, alle seine Ideen sind bankrott, das Thema ist erledigt“ - das wird Ihnen jeder moderne „Innovationsökonom“ sagen.

Deshalb diskutiert man auf Konferenzen über Bioterrorismus und existenzielle Krisen. Aber nicht:

- Anstieg der Strompreise für Endverbraucher, weil Rechenzentren.

- Verteuerung von Speicher und Hardware, weil Produktionsprioritäten.

- Woher in zehn Jahren die Seniors und Mid-Level kommen sollen, wenn Juniors durch KI ersetzt werden.

- Was die gescheiterten Juniors essen werden - in der Programmierung, in der Medizin, in der Jurisprudenz, überall.

Das Hauptmerkmal des Geschehens ist das Fehlen eines Ereignisses. Es ist keine Fabrik, die geschlossen wird, kein Krieg, der beginnt. Es ist das Kochen des Frosches. Jeden Tag ist die Temperatur etwas höher. Heute ist Ihre Arbeit etwas weniger wert als gestern. Heute haben Sie eine etwas schlechtere Verhandlungsposition. Heute ist jemand mit den richtigen Verbindungen und frühem Zugang zu Technologien Ihrem Sohn ein Stück voraus.

Es gibt keinen Moment für Mobilisierung. Keinen Feind mit Gesicht. Keine Nachricht für das Fernsehen.

Wenn das Wasser kocht, wird es zu spät sein. Nicht, weil alle sterben werden. Sondern weil die Struktur erstarrt. Yudkowsky erschreckt mit dem Tod der Menschheit. Amodei beruhigt mit verantwortungsvollem Fortschritt. Der eine für Paranoiker, der andere für Optimisten. Beide beschäftigen sich mit dem wichtigsten Thema der heutigen Agenda - „Diskussion der Risiken der KI“ und ignorieren dabei sorgfältig die echten Risiken der KI.