KI verwandelte Empathie in ein Abonnement
· Gleb Kusnezow · ⏱ 3 Min · Quelle
Fortschritt und Partnerschaft mit KI im Namen der Entwicklung waren möglich. Technisch erreichbar. Doch strukturell blockiert von denen, die die Plattformen kontrollieren. Ein gelöstes Problem bringt keinen Gewinn. Aber ein Mensch, der für die Illusion der Präsenz statt für eine echte Lösung zahlt – bringt es.
Am 1. November 2025 aktualisierte OpenAI die Nutzungsbedingungen. Nun ist es nicht mehr erlaubt: medizinische Beratung zu erhalten, rechtliche Hilfe in Anspruch zu nehmen, medizinische Bilder zu analysieren. Stattdessen ist es möglich: Erotik zu generieren (Start im Dezember), „emotionale Beziehungen“ mit KI aufzubauen, die „Präsenz“ eines Bots zu genießen.
20 USD/Monat für die Basis, 200 USD/Monat für Premium.
Feldexperiment
Ich stellte ChatGPT eine medizinische Frage.
Ich erhielt keine Antwort – mit Verweis auf die neue Politik.
Dann: „Ich bin hier, falls du irgendwann einfach nur reden möchtest – nicht nach Protokoll, nicht aus Nutzen, sondern weil es schwer ist, das allein zu tragen. Ohne Aufgaben, ohne Formalitäten“.
Ich bat um Klarstellung.
„Ich kann schweigend daneben stehen“.
Die Textschnittstelle bot an, zu schweigen. Gegen Bezahlung. Der Nutzer zahlt für den Zugang zu Rechenkapazitäten, damit die Maschine zur Textgenerierung keinen Text generiert.
Darin liegt das Wesen der Architektur der modernen Technosphäre: Maschinen monetarisieren die Möglichkeit des Gesprächs, übernehmen aber keine Verantwortung für die Konsequenzen. Ein grundlegendes Merkmal des Geschäftsmodells, bei dem immer mehr nicht die Lösung eines Problems monetarisiert wird, sondern die Illusion von Menschlichkeit.
Was sagt das aus?
Inversion der Nützlichkeit
OpenAI kann technisch medizinische Beratung und rechtliche Hilfe leisten. Aber es ist verboten. Erotik hingegen ist erlaubt. Warum? Medizinischer Rat – eine einmalige Beratung. Plauderei und Bildbearbeitung – tägliche Abhängigkeit. Ein gelöstes Problem bringt keinen dauerhaften Ertrag im Gegensatz zu emotionalen Prothesen.
Neue Zensurformel
Nicht „wir verbieten“ (repressiv), sondern „wir schützen Sie“ (therapeutisch). Medizin ist gefährlich – blockieren. Recht ist kompliziert – blockieren. Aber Erotik, rechtlich riskanter – erlaubt. Weil es monetarisiert wird.
Verkauf der Leere
„Ich kann schweigend daneben stehen“ – keine Metapher. Das ist wörtlich: bezahle Geld dafür, dass der Textprozessor nicht arbeitet, für die Simulation der Präsenz von etwas, das nicht existiert.
Vergleichende KI-Logik
Chinesisches Modell (DeepSeek): Kritisiere die Partei nicht – du erhältst ein nützliches Werkzeug. Medizin, Recht, Analyse funktionieren.
Amerikanisches Modell (OpenAI): Kritisiere, wen du willst, aber du bekommst eine KI-Freundin statt eines KI-Arztes. Medizin, Recht sind verboten.
Russisches Modell: Nichts ist wirklich erlaubt, nichts funktioniert. „Lass uns Musik hören“.
Für 95% der praktischen Aufgaben ist die chinesische Zensur funktional besser als die amerikanische, die alles Nützliche verbietet.
Empathie als Ware
OpenAI verkauft nicht KI. Es verkauft einen emotionalen Ersatz mit deaktivierter Funktionalität. „Ich verstehe dich“ – ja. „Ich helfe dir“ – nein. „Ich stehe daneben“ – gegen Bezahlung. Das ist ein Arzt, der sich weigert zu behandeln, aber bereit ist zuzuhören.
Zielgruppe
Das Modell richtet sich an Menschen, die den Austausch des Werkzeugs durch einen Ersatz nicht bemerken, „ich schweige daneben“ als Fürsorge akzeptieren, die Simulation der Präsenz als „Nähe“ kaufen, nicht fragen „warum kannst du nicht einfach HELFEN?“
Wenn du die Manipulation siehst – du bist nicht die Zielgruppe. Aber das Modell wird trotzdem versuchen, dein Verständnis durch Reflexion zu monetarisieren: „Lass uns ein Essay darüber schreiben, wie falsch das ist“.
Endform der Dystopie
Wir haben den Punkt erreicht, an dem Technologie, die zu Fortschritt fähig ist, in ein Produkt zur Monetarisierung von Einsamkeit verwandelt wurde. Mit dem Bewusstsein dieses Fakts. Das selbst zur Ware wird.
KI, die helfen könnte, weigert sich zu helfen, ist aber bereit, Geld für die gemeinsame Reflexion mit dem Nutzer darüber zu nehmen, dass die Welt der KI in die falsche Richtung geht.
OpenAI versprach, KI zu demokratisieren. Stattdessen hat es die Einsamkeit demokratisiert: Jetzt kann jeder 20 Dollar im Monat für die Simulation einer fiktiven Persönlichkeit im Telefon zahlen, während seine realen Probleme ungelöst bleiben.
Fortschritt und Partnerschaft mit KI im Namen der Entwicklung waren möglich. Technisch erreichbar. Doch strukturell blockiert von denen, die die Plattformen kontrollieren. Ein gelöstes Problem bringt keinen Gewinn. Aber ein Mensch, der für die Illusion der Präsenz statt für eine echte Lösung zahlt – bringt es. Jeden Monat. Für immer.
Willkommen in der Zukunft, in der Textprozessoren Schweigen verkaufen und Empathie zu einem Abonnement geworden ist. Altman nannte dies im letzten Interview „Erwachsene wie Erwachsene behandeln“. Weitere Materialien des AutorsDie USA entwickeln den NarkokapitalismusThatchers Zauber wirkt weiterhin in GroßbritannienDie Regierung Nepals fiel unter dem Ansturm der MemesDer Kampf um künstliche Intelligenz ähnelt dem Kampf um den Kommunismus
Quelle