Wir spielen gerade

Wir spielen gerade

Künstliche Intelligenz als Rechtspersönlichkeit? Wer haftet eigentlich für Fehler?

Zurück zur Suche

Sage Advice – Logo
Sage AdviceDer Blog für fundiertes Unternehmerwissen
AbonnierenAbonnieren
Recht

Im März 2018 verunglückte ein Roboterauto von Uber mit schweren Folgen. Ereignisse wie diese lassen Rufe nach gesetzlichen Regelungen von Künstlicher Intelligenz (KI) laut werden: Wer haftet eigentlich für die Fehler von KI? Haben wir es mit einer eigenen Rechtspersönlichkeit zu tun?

Neben den ethischen Dimensionen, also den Sorgfaltspflichten gegenüber Mitarbeitern, Kunden und Interessenten beim Einsatz von Künstlicher Intelligenz, sind es vor allem Haftungsfragen, die eine neue Relevanz bekommen. Fragen danach, inwieweit Maschinen und Roboter zur Verantwortung zu ziehen sind und inwieweit eine Schuldfähigkeit besteht. Die Grundfrage, die dahintersteht ist, ob Künstliche Intelligenz als Rechtspersönlichkeit anerkannt und behandelt wird.

Die Probleme von Künstlicher Intelligenz als Rechtspersönlichkeit

Derzeit sind laut Gesetz natürliche Personen, juristische Personen und bestimmte Personenvereinigungen als rechtsfähig anerkannt. Wenn KI hinzukäme, würde das einen zentralen Paradigmenwechsel in Gang setzen.

In einem maschinen-übergreifenden Haftungsrechtssystem müsste diese zunächst mit Startkapital ausgestattet werden, von dem aus die Maschine Haftungsschäden bezahlt. Damit gehen zahlreiche Probleme einher: Woher kommt das Kapital und wie hoch ist es? Zudem entsteht das Problem, dass diese Form der „Strafe“ durch Haftung keinen Einfluss auf die „Moral“ der Maschine hat. Sie könnte ihr Verhalten lediglich gemäß Trial and Error-Prinzip optimieren. Die Behandlung von KI als eigene Rechtspersönlichkeit wirkt insgesamt nicht salonfähig und wird von Experten abgelehnt. Joachim Müller, Vorstandsvorsitzender der Allianz Versicherungs-AG, weiß: „Für die Folgen ihres Handelns können Maschinen derzeit rechtlich aber nicht verantwortlich gemacht werden“.

Das bestehende Recht ist ausreichend

Obwohl vermehrt rechtliche Unsicherheiten in den Fokus treten, plant das Bundesjustizministerium in dieser Hinsicht derzeit keine Revolutionen. Auch Stephan Lorenz, Lehrstuhlinhaber für Bürgerliches Recht und Internationales Privatrecht an der Ludwig-Maximilians-Universität in München, hält geltende Bestimmungen zur Gefährdungshaftung für ausreichend und geeignet für die Etablierung von KI.

Diese Bestimmungen sehen vor, dass derjenige, der den Nutzen aus dem Einsatz einer gefährlichen Sache zieht, auch dafür haftet – unabhängig von der Ursache des entstandenen Schadens. Ob also Mensch oder Maschine einen Fehler macht, ist zunächst egal. Laut Joachim Müller wird Herstellerhaftung, auch von Softwareherstellern, das zentrale Thema von KI im Rechtsbereich.

Künstliche Intelligenz in Unternehmen

Wie kann die Wirtschaft von dieser Technologie profitieren?

  • Freund oder Feind?
  • Wachstumsmotor?
  • Potentiale!
  • und was Sie bei der Einführung im Unternehmen beachten sollten!
Whitepaper laden

Daraus resultiert: Sofern keine Produktionsfehler bestehen, haftet im Beispiel eines Autounfalls der Fahrzeughalter. Ansonsten könnten Autohersteller in die Pflicht genommen werden. Laut EU-Kommission sind bislang 95 Prozent aller Verkehrsunfälle auf menschliches Fehlverhalten zurückzuführen. Doch in Zukunft könnten Systemfehler beziehungsweise, „technisches Versagen“ als Unfallursache vermehrt auftreten.

Gesetze zur ethischen Einführung von KI

Neben Haftungsfragen beziehen sich aktuelle Forderungen auch zunehmend darauf, Gesetze über die ethische und rechtskonforme Entwicklung und Verwendung von KI zu erlassen. Denn einige Entwicklungen in der KI kommen mit Menschenrechten immer stärker in Berührung, etwa wenn KI zur Vorhersage von Kriminalität oder in zur Überwachung des Bürgerverhaltens genutzt wird. Szenarien wie die algorithmische Ermittlung von Kreditwürdigkeit können im Zweifelsfall mit dem Diskriminierungsverbot kollidieren. Auch Unternehmen sollten sich mit den rechtlichen und ethischen Fragen rund um KI auseinandersetzen.

Exkurs: KI in der Rechtsbranche

Spannend ist neben der Rechtslage von KI auch der Einsatz der Technologie in der Rechtsbranche, beziehungsweise Rechtsprechung selbst. Die Potentiale sind groß. KI-Algorithmen übernehmen beispielsweise Routinearbeiten wie das Durchsuchen von Verträgen nach bestimmten Klauseln und Informationen. Sie kategorisieren diese, identifizieren Muster und finden lückenhafte Stellen, an denen bestimmte Regelungen (möglicherweise systematisch) fehlen.

Das Durchsuchen von Ergebnislisten und juristischer Literatur geschieht nicht mehr nur nach Schlagwörtern, sondern nach dem Aspekt der Relevanz. Die Auswertung von Gerichtsentscheidungen gibt Auskunft darüber, wie bestimmte Richter urteilen, welche Argumente den Ausschlag für ein Urteil geben und wie hoch etwa die Wahrscheinlichkeit einer erfolgreichen Klage ist.

Weitere Einsatzmöglichkeit: Zur Rechtsauskunft dienen praktische Chatbots, die mithilfe der Verarbeitung natürlicher Sprache die Anliegen von Klienten verstehen.

Künstliche Intelligenz als  Rechtspersönlichkeit?

KI sollte keine eigene Rechtspersönlichkeit werden. Der Fokus sollte vielmehr auf Bestimmungen des aktuellen Rechtssystems liegen. Zusätzliche Regelungen über die rechtssichere Verwendung von KI verhindern Kollisionen mit ethischen und moralischen Grundsätzen.

Unternehmen, die KI-Technologien verwenden, sollten geltende gesetzliche Bestimmungen wie die Gefährdungshaftung für ihren spezifischen Anwendungsfall durchspielen. Das hilft, Verantwortlichkeiten zu klären und nimmt Mitarbeitern die Scheu vor Zusammenarbeit und Kontakt mit ihren KI-Kollegen.

Schreiben Sie einen Kommentar