Aktualjnie Kommentarii
Artikel speichern

Die Macht der KI: Wie man neuronale Netze kontrolliert

· Wiktorija Sowgirj · ⏱ 6 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Die rasante Entwicklung der Künstlichen Intelligenz eröffnet neue Möglichkeiten für die Wirtschaft, die Wissenschaft und das Management, verstärkt jedoch gleichzeitig das Gefühl der Verwundbarkeit bei den Bürgern, die KI zunehmend als Quelle von Risiken und Instabilität wahrnehmen. Jüngste Forschungen zeigen: In den USA und im Vereinigten Königreich überwiegt die Besorgnis über die Folgen der KI deutlich den Optimismus, und das Vertrauen sowohl in Unternehmen als auch in staatliche Institutionen bleibt äußerst gering.

In einer solchen Situation geht die Frage, wie und von wem genau die Regulierung von Künstlicher Intelligenz (KI) erfolgen sollte, über die technische Agenda hinaus und wird zu einem grundlegenden Problem des Vertrauens und der Kontrolle, das die Beteiligung unterschiedlichster Stakeholder erfordert.

Der Mangel an Vertrauen

Das Gespräch über die Regulierung von KI kann nicht losgelöst von der öffentlichen Wahrnehmung dieser Technologie geführt werden. Bereits jetzt zeigen Studien ein paradoxes Bild: Je schneller sich KI entwickelt und je breiter sie in den Alltag integriert wird, desto mehr Menschen äußern Besorgnis und Skepsis hinsichtlich ihrer Folgen. Zu Beginn der 2020er Jahre gab es ein Gleichgewicht zwischen vorsichtigem Optimismus und Zurückhaltung, jedoch hat sich bis 2023-2025 das Gewicht eindeutig in Richtung Besorgnis verschoben. Laut Umfragen sind etwa die Hälfte der Bürger der Meinung, dass die Risiken von KI die potenziellen Vorteile überwiegen, was ein allmähliches Vertiefen des Gefühls von Verwundbarkeit und Misstrauen widerspiegelt, insbesondere vor dem Hintergrund lauter Diskussionen über die Bedrohungen durch Automatisierung von Arbeitsplätzen und Manipulation von Informationen. Bemerkenswert ist, dass die Gesellschaft individuelle und kollektive Risiken unterscheidet. Die meisten Befragten geben an, dass sie sich weniger um ihren eigenen Arbeitsplatz sorgen, sondern vielmehr um die Folgen für die Wirtschaft und die Gesellschaft insgesamt. Dies deutet darauf hin, dass KI als eine Kraft von systemischem Maßstab wahrgenommen wird, die das Gleichgewicht ganzer Branchen und sozialer Institutionen bedroht. Ein solcher Wandel verstärkt den Druck auf den Staat und Unternehmen: Von ihnen wird nicht der Schutz jedes einzelnen Arbeitnehmers erwartet, sondern die Schaffung von Regeln, die die Risiken massiver Umwälzungen verringern.

Kontrolle und Verantwortung

Die Frage, wer genau die Verantwortung für die Regulierung von KI übernehmen sollte, wird zum zentralen Thema in den modernen Debatten über die Zukunft der Technologien. Einerseits unterstützen die meisten Bürger die Einführung spezieller Regeln, Einschränkungen und Normen, die die Entwicklung von KI sicher und vorhersehbar machen sollen. Doch sofort entsteht das Problem des Vertrauens in diejenigen, die als Hauptregulatoren fungieren könnten. Technologische Unternehmen, die über die größten Ressourcen und Fachkenntnisse verfügen, werden häufig als Akteure wahrgenommen, die nicht zur Selbstregulierung fähig sind. Der Staat, der traditionell die Rolle des Garanten öffentlicher Interessen spielt, hat ebenfalls nicht genügend Vertrauen. Viele Befragte weisen darauf hin, dass die politischen Institutionen mit dem Tempo des technologischen Fortschritts nicht Schritt halten können. Gesetze veralten schneller, als sie erlassen werden, und Beamte verfügen oft nicht über die notwendige Kompetenz, um komplexe technische Risiken zu bewerten. Darüber hinaus verstärkt das historisch niedrige Vertrauen in staatliche Institutionen in westlichen Ländern den Skeptizismus: Die Menschen befürchten, dass die Regulierung zu einem weiteren bürokratischen Ritual werden könnte, das keinen Einfluss auf reale Bedrohungen hat. Vor diesem Hintergrund entsteht ein Modell der gemeinsamen Regulierung, das die Beteiligung vieler verschiedener Akteure vorsieht. Laut Umfragen unterstützt ein erheblicher Teil der Bevölkerung die Idee, nicht nur staatliche Strukturen und Unternehmen, sondern auch Universitäten, Forschungszentren, gemeinnützige Organisationen, unabhängige Ethikexperten und, was besonders wichtig ist, die Nutzer selbst in den Prozess einzubeziehen. Ein solcher Ansatz wird als ehrlicher und ausgewogener wahrgenommen, da verschiedene Seiten ihre eigenen Werte und Interessen einbringen und das Risiko der Machtkonzentration in wenigen Händen verringern.

Nicht weniger relevant wird die Frage nach der internationalen Dimension. Da KI von ihrer Natur her transnational ist, sind Versuche, sie ausschließlich im nationalen Rahmen zu regulieren, zum Scheitern verurteilt. Die öffentliche Meinung zeigt die Bereitschaft, internationale Kontrollmechanismen zu unterstützen, insbesondere wenn es um die sensibelsten Bereiche geht. Gleichzeitig bleibt Skepsis bestehen, ob Staaten tatsächlich in der Lage sind, sich zu einigen und gemeinsame Regeln zu entwickeln, da auf globaler Ebene nicht nur unterschiedliche Interessen, sondern auch unterschiedliche Wertesysteme aufeinandertreffen, was die Suche nach einem Konsens äußerst schwierig macht.

Architektur der Regulierung

Die Entwicklung von KI zeigt deutlich, dass kein bestehendes Managementmodell allein in der Lage ist, das gesamte Spektrum der Herausforderungen im Zusammenhang mit neuen Algorithmen und deren Implementierung abzudecken. Nationale Initiativen, Unternehmenspraktiken und internationale Vereinbarungen müssen synchron arbeiten und sich gegenseitig ergänzen, anstatt in Konkurrenz zueinander zu stehen. Auf staatlicher Ebene lassen sich verschiedene Ansätze unterscheiden: Die EU hat versucht, eine umfassende normative Basis in Form des AI Act zu schaffen, die USA stützen sich auf Präsidialerlass und Empfehlungen des NIST, während Großbritannien und Kanada „weiche“ Formen der Regulierung entwickeln, die den Fokus auf ethische Prinzipien und freiwillige Standards legen. All diese Maßnahmen zeigen die Vielfalt der Strategien, bieten jedoch bisher kein universelles Modell. Parallel dazu wächst die Aktivität der Unternehmen selbst, die bestrebt sind, ihre Bereitschaft zu zeigen, öffentliche Erwartungen zu berücksichtigen. Vereinigungen wie das Frontier Model Forum entwickeln Sicherheitsstandards für Modelle der neuen Generation, während große Unternehmen eigene Verhaltenskodizes einführen. Solche Schritte sind wichtig für die Schaffung erster Rahmenbedingungen, lösen jedoch nicht das Hauptproblem – das unzureichende Vertrauen der Gesellschaft in die Selbstregulierung der Branche. Daher können Unternehmensinitiativen nur als Element der Gesamtarchitektur betrachtet werden, nicht als vollwertige Alternative zur staatlichen oder internationalen Regulierung.

Besonderes Augenmerk liegt auf internationaler Zusammenarbeit. Dokumente der G7, Empfehlungen der UNESCO und Gipfeltreffen zur Sicherheit von KI in Bletchley und Seoul zielen darauf ab, gemeinsame Regeln zu entwickeln und Szenarien zu verhindern, in denen Länder KI im Sinne von Konkurrenz nutzen und globale Bedrohungen ignorieren. Besonders wichtig ist dies im militärischen Bereich, wo die öffentliche Meinung am nachdrücklichsten gemeinsamen Kontrollen verlangt. Doch gerade hier zeigt sich die größte Schwierigkeit: Die Abstimmung der Interessen von Staaten, die KI nicht nur als Quelle von Risiken, sondern auch als strategischen Vorteil betrachten, bleibt eine äußerst komplexe Aufgabe.

Beteiligung der Gesellschaft

Die Regulierung von KI beschränkt sich nicht auf die rein technische Aufgabe der Entwicklung von Gesetzen und Standards. Im Kern steht die Frage der Legitimität, die direkt von der Einbeziehung der Gesellschaft in den Prozess der Regelbildung abhängt. Wenn Bürger das Gefühl haben, dass Entscheidungen hinter verschlossenen Türen getroffen und von oben aufgezwungen werden, dann laufen selbst die durchdachtesten Initiativen Gefahr, auf Misstrauen und Widerstand zu stoßen. Im Gegenteil, die Einbeziehung der Öffentlichkeit in die Diskussion und Kontrolle der Politik verwandelt den Regulierungprozess in eine gemeinsame Lösungserarbeitung, was zu größerer Stabilität und Effektivität führt. Moderne Studien zeigen, dass die Wahrnehmung von KI nicht nur durch ihren praktischen Nutzen, sondern auch durch die Übereinstimmung mit den Werten der Menschen bestimmt wird. Daher werden in den Diskussionen über die zukünftige Regulierung zunehmend Aufrufe laut, die öffentlichen Stimmungen in der Phase der Technologiegestaltung zu berücksichtigen. Dies erfordert regelmäßige Umfragen, öffentliche Konsultationen sowie die Schaffung von Expertengremien mit Vertretern der Zivilgesellschaft. Solche Instrumente ermöglichen es Entwicklern und Politikern, besser zu verstehen, welche Anwendungen von KI Vertrauen schaffen und welche Besorgnis hervorrufen.

Ein nicht weniger wichtiges Kriterium ist die Transparenz. Das Verbergen von Informationen über Risiken oder der eingeschränkte Zugang zu Forschungsergebnissen untergräbt das Vertrauen und schafft ein Gefühl der Manipulation. Im Gegenteil, die offene Veröffentlichung von Daten, unabhängige Audits von Algorithmen und die Verfügbarkeit wissenschaftlicher Ergebnisse schaffen das Gefühl einer realen Kontrolle und nicht einer bloßen Illusion. In diesem Zusammenhang sind insbesondere internationale Projekte von Bedeutung, wie die Datenbank AI SHARE, die Informationen über die Wahrnehmung von KI in verschiedenen Ländern systematisiert und somit den öffentlichen Zugang zu den gesellschaftlichen Stimmungen gewährleistet.

Die Beteiligung der Gesellschaft hat auch politischen Wert. In demokratischen Systemen sollte die Regulierung das Gleichgewicht der Interessen widerspiegeln und nicht auf die Position einer kleinen Gruppe von Experten oder Unternehmen beschränkt sein. Der Druck der Öffentlichkeit zwingt Politiker dazu, schneller zu reagieren und die Politik an die sich ändernden Erwartungen der Bürger anzupassen. Dies fördert eine gerechtere Verteilung der Vorteile und Risiken der Technologieeinführung und ermöglicht es, die Stimmen derjenigen zu hören, die sonst möglicherweise ignoriert würden.

Victoria Sovgir, Analystin im Zentrum für politische Konjunktur.