Aktualjnie Kommentarii
Artikel speichern

Verantwortung auf den Straßen der Zukunft: rechtliche Aspekte des autonomen Fahrens

· Wiktorija Sowgirj · ⏱ 7 Min · Quelle

Auf X teilen
> Auf LinkedIn teilen
Auf WhatsApp teilen
Auf Facebook teilen
Per E-Mail senden
Auf Telegram teilen
Spendier mir einen Kaffee

Die rasante Entwicklung der Technologien für autonomes Fahren stellt die Gesellschaft und das Rechtssystem vor neue Herausforderungen. Fahrerlose Fahrzeuge versprechen, die Unfallrate erheblich zu senken, schädliche Emissionen zu reduzieren und Millionen von Menschen Mobilität zu bieten.

Allerdings tritt zusammen mit diesen Perspektiven auch ein Problem auf, das direkt mit dem rechtlichen Rahmen verbunden ist: Wie soll die Verantwortung im Falle unvermeidlicher Verkehrsunfälle (DPT) mit Beteiligung autonomer Systeme verteilt werden? Die Lösung dieser Frage hängt nicht nur vom Schicksal der Technologien selbst ab, sondern auch vom Vertrauen der Gesellschaft in deren sichere Einführung.

Die Problematik der Verantwortung

Die traditionelle Logik der Regulierung basiert auf der Annahme, dass die Hauptquelle des Risikos der menschliche Fahrer ist, der die Regeln befolgen muss und für die Folgen seiner Fehler verantwortlich ist. Doch im Fall autonomer Fahrzeuge funktioniert dieses Modell nicht mehr: Wenn die Steuerung ohne menschliches Eingreifen erfolgt, reicht die gewohnte Verbindung „Mensch – Schuld – Schaden“ nicht aus, um die entstehenden Risiken zu erklären und zu regulieren. Die rechtliche Ungewissheit in Fragen der Verantwortung wird zu einem ernsthaften Hindernis für die Einführung autonomer Technologien. Versicherungsunternehmen haben Schwierigkeiten bei der Risikobewertung, da die traditionelle Statistik menschlichen Verhaltens an Relevanz verliert und neue Bedrohungen, wie zum Beispiel Algorithmusfehler oder Cyberangriffe, schwer vorhersehbar sind. In einem Umfeld der Ungewissheit neigen Versicherer dazu, entweder die Tarife zu erhöhen oder ganz auf die Bereitstellung von Policen für solche Fahrzeuge zu verzichten, was wiederum die breite Einführung autonomer Transportmittel behindert, selbst wenn diese objektiv in der Lage sind, die Anzahl der Unfälle auf den Straßen zu reduzieren. Die Situation wird auch durch die technologische Spezifik der autonomen Systeme kompliziert. Die Algorithmen treffen Entscheidungen, die oft selbst für ihre Schöpfer intransparent bleiben. Im Falle eines DPT ist es äußerst schwierig, die Kette der Ursachen wiederherzustellen: Spielten Sensorfehler, Programmierfehler, ungünstige Wetterbedingungen oder das Verhalten anderer Verkehrsteilnehmer eine Rolle? Infolgedessen stehen die Gerichte vor der Notwendigkeit zu entscheiden, ob der Algorithmus „vernünftig“ gehandelt hat, obwohl es bisher keine universellen Kriterien für eine solche Bewertung gibt. Dies schafft zusätzlichen Druck auf die Hersteller: Große Unternehmen können sich rechtlichen Schutz und Entschädigungen leisten, aber für kleine innovative Akteure kann das Risiko unvorhersehbarer Verantwortung kritisch sein.

Nicht weniger bedeutend ist die Frage des öffentlichen Vertrauens. Obwohl der menschliche Faktor bis zu 94 % aller DPT ausmacht, erregt jeder Unfall mit Beteiligung autonomer Fahrzeuge unverhältnismäßige Aufmerksamkeit von Medien und Öffentlichkeit. Infolgedessen entsteht der Eindruck von der Unzuverlässigkeit der Technologie, was deren breite Einführung hemmt. Um diese Zweifel zu überwinden, ist ein klares und gerechtes System zur Verteilung der Verantwortung erforderlich, das den Schutz der Geschädigten gewährleistet und gleichzeitig Anreize für die Entwicklung von Innovationen schafft. Aus diesem Grund stehen vor dem Rechtssystem drei grundlegende Aufgaben: ein Modell zu vereinbaren, das den Schutz der Opfer und die Unterstützung des technologischen Fortschritts kombiniert, die Kategorie „Schuld“ im Hinblick auf KI-Algorithmen neu zu überdenken und Lösungen für die Übergangszeit zu entwickeln, in der die Straßen sowohl von traditionellen als auch von autonomen Fahrzeugen genutzt werden.

Ansätze zur Regulierung der Schuld

Die Suche nach einem optimalen Modell zur Verteilung der Verantwortung im Kontext des autonomen Fahrens wird zu einer zentralen Aufgabe für Juristen und Gesetzgeber. Das Problem besteht darin, ein Gleichgewicht zwischen den Interessen der Geschädigten zu finden, die eine schnelle und gerechte Entschädigung erhalten sollten, und den Herstellern, für die übermäßige Haftungsrisiken die innovative Entwicklung und Einführung neuer Technologien erheblich verlangsamen können. Eine der traditionellen Lösungen ist die Produkthaftung. Diese sieht vor, dass der Hersteller nur dann verantwortlich ist, wenn ein Konstruktionsfehler, ein Produktionsfehler oder Mängel in den Gebrauchsanweisungen nachgewiesen werden. Im Hinblick auf autonome Fahrzeuge bedeutet dies, dass der Geschädigte überzeugend nachweisen muss, dass der Unfall tatsächlich aufgrund eines Fehlers des Unternehmens passiert ist. Obwohl dieses Modell logisch und für die Gerichte vertraut erscheint, steht es vor einem ernsthaften Problem: Die Hersteller haben exklusiven Zugang zu Daten über Algorithmen und Tests, was die Beweisführung für den Kläger äußerst schwierig macht. Im Gegensatz dazu wird die Idee der strengen Haftung vorgeschlagen, wonach der Hersteller verpflichtet ist, den Schaden jedes Mal zu entschädigen, wenn sein Fahrzeug die Ursache eines Unfalls ist, unabhängig davon, ob ein Fehler nachgewiesen werden kann oder nicht. Befürworter dieses Ansatzes argumentieren, dass die Risiken auf diese Weise gerecht verteilt werden: Die Unternehmen profitieren von der Nutzung der Technologie und sollten daher auch deren Kosten tragen. Darüber hinaus macht die strenge Haftung den Entschädigungsprozess vorhersehbar und senkt die Transaktionskosten. Kritiker warnen jedoch, dass ein solches Modell die Hersteller mit einer übermäßigen finanziellen Last belasten könnte, insbesondere wenn sie nicht in der Lage sind, ihre Unschuld zu beweisen.

Eine alternative Lösung ist das Konzept, das vorschlägt, dass der Algorithmus als eigenständiges Subjekt betrachtet werden kann, dessen Verhalten nach bestimmten Standards bewertet wird. Hier sind zwei Varianten möglich. Im ersten Fall werden die Handlungen des autonomen Systems mit dem Verhalten eines „vernünftigen menschlichen Fahrers“ verglichen. Wenn ein Mensch in einer ähnlichen Situation besser abgeschnitten hätte, liegt die Verantwortung beim Unternehmen. Die zweite Variante sieht den Vergleich des Algorithmus mit einem „vernünftigen Computerfahrer“ vor, also mit dem Niveau, das die Branche erreicht hat oder das mit modernen Technologien verfügbar ist. Einerseits fördert dies die Entwicklung und den Wettbewerb, andererseits kann es zu einem Rückgang des Schutzniveaus für die Opfer führen: Wenn die gesamte Branche gröbere Fehler macht als der durchschnittliche Mensch, wird ein solches Verhalten dennoch als „vernünftig“ angesehen. Angesichts dieser Widersprüche neigen immer mehr Fachleute zu kombinierten Modellen. Sie schlagen vor, Elemente der traditionellen Produkthaftung beizubehalten und gleichzeitig mit Standards des „vernünftigen Fahrers“ zu ergänzen. Ein solcher Ansatz ermöglicht es, komplexe Fälle vor Gericht zu betrachten, bietet jedoch gleichzeitig Schutz in Situationen, in denen der Algorithmus eindeutig schlechter handelt als der Mensch.

Von dem gewählten Standard hängt auch die Dynamik der Branche ab: Strenge Haftung fördert die Sicherheit, könnte jedoch Investoren abschrecken; der menschliche Standard ist einfach anzuwenden, wird jedoch kaum einen ernsthaften Fortschritt bringen; der Computerstandard fördert den Fortschritt, senkt jedoch den Schutz der Geschädigten.

Systeme zur Schadensersatzleistung und die Rolle des Staates

Die zentrale Aufgabe, vor der das Rechtssystem steht, besteht nicht nur darin, die Standards für die Schuld zu definieren, sondern auch zuverlässige Mechanismen zur Entschädigung der Geschädigten zu schaffen. Selbst wenn die Gesamtzahl der Unfälle mit der Einführung autonomer Fahrzeuge sinkt, wird es unmöglich sein, Vorfälle vollständig zu vermeiden. Folglich besteht die Notwendigkeit, Instrumente zu entwickeln, die gerechte Zahlungen an die Opfer gewährleisten und gleichzeitig nicht zum Hemmnis für den technologischen Fortschritt aufgrund der Bedrohung durch übermäßige Klagen werden. Eine der vielversprechendsten Lösungen ist die Idee eines bundesweiten Entschädigungsfonds, an den sich die Geschädigten direkt wenden können, ohne komplizierte und kostspielige Gerichtsverfahren. Historische Präzedenzfälle, wie der Entschädigungsfonds für die Opfer des 11. September (Victim Compensation Fund), zeigen, dass solche Mechanismen außerhalb der traditionellen Gerichtsbarkeit effektiv funktionieren können, insbesondere wenn es schwierig ist, individuelle Schuld nachzuweisen. Die Schaffung eines solchen Fonds im Bereich des autonomen Fahrens löst mehrere Probleme gleichzeitig. Erstens verringert es die Schärfe der rechtlichen Ungewissheit, indem es den Geschädigten Entschädigung garantiert, selbst wenn die genaue Quelle des Fehlers nicht bestimmt werden kann. Zweitens schafft es Vertrauen in die neue Technologie, indem es zeigt, dass der Staat bereit ist, die Risiken mit den Bürgern zu teilen. Auch für die Hersteller ist der Fonds von Bedeutung: Er verringert die Bedrohung durch unvorhersehbare Gerichtskosten und macht Investitionen in Innovationen vorhersehbarer und sicherer.

Dennoch ist die Umsetzung eines solchen Mechanismus mit einer Reihe von Fragen verbunden. Es muss festgelegt werden, wer der Verwalter des Fonds sein wird – eine Fachbehörde mit Expertise oder ein unabhängigerer Organ. Es ist auch wichtig, die Finanzierungsquellen zu bestimmen: Ein Teil der Mittel könnte vom Staat kommen, ein Teil von den Herstellern. Separat sollten die Teilnahmebedingungen festgelegt werden, um Unternehmen auszuschließen, die Sicherheitsstandards verletzen oder Mängel verbergen. Auch die Frage der Interaktion des Fonds mit dem Rechtssystem bleibt von großer Bedeutung. Ein vollständiger Verzicht auf Gerichte könnte die Bildung einheitlicher rechtlicher Standards verlangsamen, während ein gemischter Ansatz, bei dem der Fonds das Haupt-, aber nicht das einzige Instrument ist, ausgewogener erscheint.

Die Rolle des Staates geht jedoch über die Entschädigungsfunktion hinaus. Neben der Schaffung des Fonds muss der Staat nationale Standards für die Zertifizierung und den Betrieb autonomer Fahrzeuge gewährleisten. Darüber hinaus sollte der Staat hohe Sicherheitsstandards setzen: Zum Beispiel sollte durch Regulierung festgelegt werden, dass Algorithmen in bestimmten Situationen schneller reagieren müssen als Menschen. Letztendlich sind der Entschädigungsfonds und das Regulierungssystem komplementäre Instrumente: Der erste gewährleistet eine schnelle Schadensersatzleistung, der zweite schafft langfristige Sicherheitsstandards. Zusammen ermöglichen sie es, autonome Transportmittel nicht als Quelle neuer Risiken, sondern als Technologie zu betrachten, die die allgemeine Verkehrssicherheit erhöhen und das Vertrauen der Gesellschaft in Innovationen stärken kann.

Viktoria Sovgir, Analystin im Zentrum für politische Konjunktur.