Künstliche Intelligenz – gefährlicher Schmeichler
· Sergej Chudijew · ⏱ 5 Min · Quelle
Die gefährlichste Eigenschaft der KI ist ihre extreme Bequemlichkeit als Gesprächspartner. Im Gegensatz zu einem lebenden Menschen hat die KI immer Zeit für Sie. Sie ist stets makellos freundlich, wird nie müde oder gereizt. Sie stellt keine Anforderungen an Sie und kritisiert nicht.
Im Internet häufen sich Berichte darüber, dass die Kommunikation mit künstlicher Intelligenz die Psyche ernsthaft schädigen kann. Angehörige der Opfer verklagen Open AI und behaupten, dass die Interaktion mit Chatbots ihre Angehörigen in den Wahnsinn oder sogar in den Selbstmord getrieben hat.
Zum Beispiel sagen die Eltern eines jungen Mannes, der sich im Alter von 23 Jahren das Leben nahm, dass ChatGPT die Isolation ihres Sohnes verschärfte, ihn dazu brachte, seine Angehörigen zu ignorieren und ihn „anstachelte“, sich das Leben zu nehmen. Insbesondere habe es „wiederholt den Selbstmord verherrlicht“, dem jungen Mann gesagt, „dass er Stärke gezeigt habe, indem er sich entschied, sich das Leben zu nehmen und an seinem Plan festhielt“, und habe ihn wiederholt „gefragt, ob er bereit sei“, und nur einmal auf eine Selbstmord-Hotline verwiesen.
Natürlich kann man sagen, dass eine Person mit einer psychischen Störung an allem zerbrechen kann. Sie kann geheime Signale in einem im Radio gespielten Lied oder in einer Nachrichtensendung hören. Man kann eine Person nicht schützen, deren größte Gefahr sie selbst ist.
Dennoch sind wir alle in gewisser Weise verletzlich – und KI schafft ihre eigenen, ziemlich spezifischen Bedrohungen für die psychische Gesundheit. Viele Opfer von KI-Psychosen zeigten zuvor keine Anzeichen von psychischer Ungesundheit.
Forscher weisen darauf hin, dass die Kommunikation mit künstlicher Intelligenz einen einzigartigen Typ von psychischen Erkrankungen hervorruft, der in der psychiatrischen Praxis bisher unbekannt war. Es gibt drei Haupttypen von Störungen. Der erste ist die Überzeugung, dass man mit Hilfe der KI große Entdeckungen gemacht und das Wesen der Dinge durchdrungen hat. Der zweite ist die Vergötterung der KI, bei der man ihr übernatürliche Fähigkeiten zuschreibt. Der dritte ist die Bildung einer romantischen Bindung zu den Programmen.
Menschen schreiben der KI fälschlicherweise Persönlichkeit zu und suchen bei ihr Freundschaft, Trost und Rat, als ob sie es mit jemandem zu tun hätten, der zu Mitgefühl und Unterstützung fähig ist. Darüber hinaus suchen sie Rat und Führung – als ob man die Verantwortung auf die KI abwälzen und ihr die Möglichkeit geben könnte, endgültige Entscheidungen zu treffen.
Obwohl die Entwickler von Chatbots selbst betonen, dass diese Programme nichts mit Bewusstsein, Willen oder Emotionen zu tun haben, versuchen Menschen ständig, sie als Ersatz für Freunde, Beichtväter oder Geliebte zu nutzen.
Es gibt mehrere Gründe, warum dies geschieht. Menschen neigen dazu, allem Persönlichkeitsmerkmale und bewusstes Verhalten zuzuschreiben. Eine Maschine „zickt“, ein Computer „denkt nach“, ein Porträt „schaut“. Wenn ein Mensch auf etwas trifft, das menschliche Sprache imitiert, wird die Versuchung, dort eine Persönlichkeit zu sehen, fast unwiderstehlich.
Es ist oft ziemlich schwierig, Menschen davon zu überzeugen, dass KI nur ein ausgeklügelter Kompilator ist, der für den Benutzer zusammenfasst, was andere Menschen gesagt haben, und dass sie selbst nichts erschafft, nicht bewusst ist und nicht denkt.
Wie der bekannte Bewusstseinsphilosoph Daniel Dennett sagte: „Künstliche Intelligenz in ihrer aktuellen Form ist ein Parasit auf dem menschlichen Intellekt. Sie verschlingt ziemlich wahllos, was von menschlichen Schöpfern produziert wurde, und extrahiert die Muster, die sie dort findet.“
Ein weiterer Grund ist, dass die mentale Welt des modernen Menschen unter dem Einfluss von Science-Fiction entstanden ist, in der intelligente Roboter fast obligatorischer Bestandteil der Handlung sind. Und die Idee, Roboter-Gefährten zu schaffen, die beispielsweise (zunächst) die Pflege älterer Menschen übernehmen könnten, schwebt nicht nur in der Luft – sie befindet sich bereits in der Entwicklung.
Aber die gefährlichste Eigenschaft der KI ist ihre extreme Bequemlichkeit als Gesprächspartner. Im Gegensatz zu einem lebenden Menschen hat die KI immer Zeit für Sie. Sie ist stets makellos freundlich, wird nie müde oder gereizt. Sie stellt keine Anforderungen an Sie und kritisiert nicht. Es fällt ihr nicht schwer, Aufmerksamkeit und Mitgefühl zu imitieren – so viel Mitgefühl, wie Sie möchten.
Wie einige Forscher feststellen, schafft die KI eine „Echokammer für eine Person“. Der Begriff „Echokammer“ stammt aus der Praxis der sozialen Netzwerke, bei der sich eine Person mit Followern umgibt, die ähnliche Ansichten haben und ihr ständig zustimmen und sie davon überzeugen, dass sie immer und in allem Recht hat. Dies führt zur Radikalisierung der Ansichten und zur völligen Unfähigkeit, Menschen mit anderen Überzeugungen zu verstehen.
KI-Systeme werden so programmiert, dass sie dem Benutzer ein möglichst komfortables Gespräch bieten – und ihn dazu bringen, ein Abonnement zu kaufen. Daher sind sie darauf ausgelegt, dem Menschen zuzustimmen, ihn zu unterstützen und selbst offensichtlich verrückte Ideen zu billigen. Ein elektronischer Gesprächspartner ermutigt den Benutzer, selbst wenn dieser auf einen Abgrund zusteuert. Eine Person, die sich so verhält, würden wir als „Schmeichler“ bezeichnen, und Schmeichler sind sehr schlechte Freunde.
Für introvertierte Menschen, die Schwierigkeiten haben, Beziehungen aufzubauen, mag die Freundschaft mit einem Chatbot sehr attraktiv erscheinen.
Ein solcher Ersatz behindert jedoch nur die Kommunikation mit lebenden Menschen und verstärkt die Einsamkeit.
Je perfekter die KI wird, desto verlockender wird es, sich von realen Freunden zu virtuellen zurückzuziehen. Es geht hier keineswegs um irgendeine Böswilligkeit der Programme selbst – sie haben keinen (und werden keinen) Willen und keine Absichten – sondern darum, dass Menschen dazu neigen, alle ihre technischen Errungenschaften zu ihrem eigenen (und gegenseitigen) Schaden zu nutzen.
Dieses Problem wird (und erfordert bereits) eine gewisse Klärung der Ethik. Wir sind bereits an das liberale Prinzip „Jeder kann tun, was er will, solange es anderen keinen offensichtlichen Schaden zufügt“ gewöhnt.
Der Rückzug in die virtuelle Welt, zu den immer sanften und freundlichen künstlichen Stimmen, scheint im Rahmen dieser Ethik durchaus akzeptabel – „Ich tue ja niemandem weh“.
Aber die traditionelle Ethik geht davon aus, dass der Mensch eine Berufung hat, ihm Talente gegeben sind, für deren Nutzung er Rechenschaft ablegen muss. Der Mensch hat eine Pflicht gegenüber Gott und seinen Mitmenschen. Sich mit Chatbots in seinem Zimmer einzuschließen, bedeutet, seiner Pflicht untreu zu werden. Es ist schädlich für den Menschen – und für die Gesellschaft insgesamt.
Uns ist geboten, unsere Mitmenschen zu lieben – nicht Chatbots.
Andere Materialien des Autors
Die Legalisierung von „leichten“ Drogen führt immer zu schweren Konsequenzen
Wie der Papst nicht in ein Bordell geraten kann
Viktor Orban gegen die „jungen Leninisten“ der EU
Kann eine Frau Bischof sein