Aktualjnie Kommentarii Technologie

Kontur des Vertrauens in KI

· Jekaterina Nabatnikowa · ⏱ 3 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Die staatliche Regulierung der Künstlichen Intelligenz in Russland bewegt sich von der Diskussionsphase in die praktische Umsetzung. Es geht nicht mehr um Konzepte und Erklärungen - es entsteht eine konkrete Architektur von Regeln, Verantwortlichkeiten und Marktzugang.

Über die Änderungen, die das Projekt des Ministeriums für digitale Entwicklung vorschlägt, wie es den Markt beeinflussen wird und was mit ausländischen KI-Diensten geschehen wird, sprach «Aktuelle Kommentare» mit der Medientechnologin, Mitglied des Expertenclubs «Digoria» und Entwicklungsdirektorin der Corporation AIR, Jekaterina Nabatnikowa.

Was ist wichtig im Gesetzentwurf und worauf sollte man achten?

Das Schlüsselmerkmal des Gesetzentwurfs ist der Versuch, einen verständlichen „Kontur des Vertrauens“ um KI zu schaffen. Erstens wird im Gesetz ein risikoorientierter Ansatz angewendet: Nicht alle KI-Systeme werden gleich reguliert, strengere Anforderungen werden an diejenigen gestellt, die Rechte, Sicherheit und den Zugang zu kritischen Dienstleistungen (staatliche Dienstleistungen, Finanzen, Medizin, soziale Dienste) betreffen. Eine formale Definition von KI und die Verteilung der Verantwortung zwischen dem Entwickler des Modells, dem Betreiber des Systems, dem Dienstanbieter und dem Nutzer. Dies schließt die derzeitige rechtliche Lücke, in der für einen Fehler „das neuronale Netzwerk schuld ist“, tatsächlich aber niemand. Eine obligatorische Kennzeichnung von Inhalten, die mit Hilfe von KI erstellt wurden (Foto, Video, Audio), ist ein Instrument gegen Deepfake-Manipulationen und die Verfälschung der Realität. Die Rechte der Bürger bestehen laut Gesetz darin, die Möglichkeit zu haben, Entscheidungen von Regierungsbehörden und staatlichen Unternehmen, die mit Hilfe von KI getroffen wurden, außergerichtlich anzufechten und Entschädigung für Schäden durch unrechtmäßige Nutzung von KI zu verlangen. Für große Akteure bedeutet dies die Notwendigkeit, Prozesse zu formalisieren, die bisher oft halb improvisiert waren: Testen von Modellen auf Diskriminierung und Sicherheit, Dokumentation, Verfahren zur Anfechtung von Entscheidungen.

Warum tritt das Gesetz erst 2027 in Kraft und wovor „versichert“ man sich?

Der verzögerte Start ist eine mehrstufige Absicherung. Erstens technologisch: KI verändert sich zu schnell, und ein Gesetz, das „morgen“ in Kraft tritt, könnte veraltet sein, noch bevor es tatsächlich angewendet wird. Zweitens infrastrukturell: Wenn festgelegt wird, dass die Entwicklung und das Training von Modellen auf dem Territorium der Russischen Föderation erfolgen müssen, sind Rechenzentren, Ausrüstung, Personal und Bewertungsmethoden erforderlich. Dies kann nicht in wenigen Monaten umgesetzt werden. Drittens administrativ: Die Regulierungsbehörden benötigen Zeit, um Verfahren aufzubauen - Register, Aufsicht, methodische Empfehlungen. Unternehmen brauchen Zeit, um die Architektur ihrer Dienste und internen Prozesse anzupassen. Im Wesentlichen ist das Jahr 2027 sowohl ein Sicherheitsnetz für den Staat als auch ein Signal an den Markt: Die Regeln ändern sich nicht plötzlich, die Industrie hat mehrere Jahre Zeit, sich umzustellen.

Was wird mit nicht registrierten und ausländischen KI-Assistenten geschehen?

Das Schicksal nicht regulierter und ausländischer KI-Agenten wird davon abhängen, wie genau im endgültigen Entwurf der Status des Betreibers und des Dienstanbieters in der russischen Gerichtsbarkeit sowie der Mechanismus des Marktzugangs festgelegt werden.

Mit hoher Wahrscheinlichkeit werden große öffentliche Dienste, die für russische Nutzer arbeiten, entweder in den Kontur vertrauenswürdiger Lösungen „integriert“ werden müssen (Registrierung, Erfüllung von Sicherheits- und Kennzeichnungsanforderungen, lokale Infrastruktur) oder sich allmählich aus dem legalen Bereich zurückziehen müssen.

„Graue“ Bots und Assistenten ohne klare juristische Person in der Russischen Föderation, insbesondere wenn sie Politik, Finanzen oder persönliche Daten betreffen, riskieren Blockierungen oder erhebliche Einschränkungen. Chinesische und andere ausländische KI-Modelle werden sich nicht in einer besonderen privilegierten Kategorie befinden: Die entscheidende Frage ist, ob sie eine verantwortliche Einheit in der Russischen Föderation haben und bereit sind, lokale Anforderungen zu erfüllen. Diejenigen, die sich nicht anpassen, werden im Massenmarkt wahrscheinlich verdrängt. Es geht derzeit nicht um einen totalen „Eisernen Vorhang“ für KI, sondern um die Schaffung von Bedingungen, unter denen legale, massenhafte Zugänge vor allem vertrauenswürdige und souveräne Lösungen erhalten.

Was überwiegt - Werte oder Technologien, wo verläuft die „rote Linie“?

Der Gesetzentwurf ist eindeutig um einen wert- und politischen Rahmen herum aufgebaut, nicht um technische Details.

Die rote Linie verläuft durch mehrere Bereiche: Erstens Manipulationen des Bewusstseins und die Verwendung von Deepfake-Inhalten, insbesondere in gesellschaftlich bedeutenden und politischen Themen. Daher der Schwerpunkt auf Kennzeichnung und die Verpflichtung, rechtswidrige Inhalte zu blockieren.

Zweitens bei diskriminierenden Algorithmen: Entwicklern wird ausdrücklich vorgeschrieben, diese auszuschließen und Systeme auf solche Effekte zu testen.

Jekaterina Nabatnikowa, Medientechnologin, Mitglied des Expertenclubs «Digoria», Entwicklungsdirektorin der Corporation AIR.