Lade Login-Box.
Topthemen: Bilder vom WochenendeStromtrasse durch die RegionBlitzerwarnerVER Selb

 

Schuldfrage bei künstlicher Intelligenz noch ungeklärt

Im Science-Fiction-Klassiker «Dark Star» denkt eine intelligente Bombe, sie sei Gott - und sprengt das Raumschiff. So weit ist die Technik noch nicht. Doch Juristen zerbrechen sich die Köpfe: Wer haftet, wenn künstliche Intelligenz Fehler macht?



Autonom fahrendes Fahrzeug
Die Technologie für autonomes Fahren entwickelt sich unaufhaltsam weiter. Doch können intelligente Maschinen für Folgen ihres Handelns verantwortlich gemacht werden?   Foto: Hauke-Christian Dittrich

Es ist ein Alptraum für jeden Autofahrer: Eine Fußgängerin überquert unvermittelt die Straße - es bleiben nur Sekundenbruchteile, ein tödliches Unglück abzuwenden.

Bei Unfällen haftet nach deutschem Recht in aller Regel bislang der Fahrer beziehungsweise der Halter des Autos. Doch was ist, wenn der Fahrer eine Maschine ist, der Mensch hinter dem Steuer nur Passagier?

Ein derartiger Unfall ereignete sich im März in den USA mit einem Roboterauto des Fahrdiensts Uber. Eine 49-Jährige kam ums Leben, die Schuldfrage ist bislang nicht geklärt. Der rasante Fortschritt der künstlichen Intelligenz (KI) beschäftigt auch die Juristen in Europa. Im Haftungsrecht werden inzwischen Fragen diskutiert, die vor zwanzig Jahren noch jeder für Science Fiction erklärt hätte.

Das hat auch Bedeutung für die Versicherungen, die bei Unfällen zahlen. «Maschinen mit Lern-Algorithmen werden in immer größerem Umfang Fahraufgaben im Auto übernehmen und schrittweise das menschliche Verschulden verdrängen», sagt Joachim Müller, Chef der Sachversicherung bei der Allianz Deutschland. «Für die Folgen ihres Handelns können Maschinen derzeit rechtlich aber nicht verantwortlich gemacht werden.»

Bislang haften in aller Regel der Fahrer beziehungsweise der Halter. Die Autohersteller können nur dann rechtlich zur Verantwortung gezogen werden, wenn ein Produktionsfehler einen Unfall verursacht. 

Doch künstliche Intelligenz am Steuer macht Unfälle denkbar, bei denen kein technischer Defekt vorliegt, sondern der Computer einfach die falsche Entscheidung trifft. Selbstlernende Software kann auf Grundlage zuvor eingegebener Daten quasi selbsttätig Muster und Situationen erkennen und darauf reagieren. «Es erscheint mir schwierig, Programmen ein Verschulden anzulasten - egal ob sie ausschließlich einem vorgegebenen Algorithmus folgen oder sich selbstständig weiterentwickeln», sagt Allianz-Vorstandsmitglied Müller dazu.

Bei der Debatte geht es keineswegs nur um Roboterautos. Schon wird diskutiert, ob KI-Maschinen generell nicht eine eigene Rechtspersönlichkeit zugesprochen werden sollte. Dann könnte die künstliche Intelligenz quasi selbst haften. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.

Doch dem stehen nicht zuletzt praktische Gründe entgegen: Eine Maschine hat kein Konto, letztlich müsste immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.

Und es würde sich eine noch weitergehende Frage stellen: Wenn eine Maschine zivilrechtlich verantwortlich sein kann, muss dann nicht auch das Strafrecht geändert werden? «Wird das selbstfahrende Auto in der Garage inhaftiert? Verschrottet?», fragt Allianz-Manager Müller.    

Kriminelle Maschinen im Knast bleiben vorerst Science Fiction. Doch sollten für computerverursachte Unfälle nicht die Autohersteller haften? «Das kann sich der Gesetzgeber überlegen», sagt der Rechtswissenschaftler Stephan Lorenz, Lehrstuhlinhaber für Bürgerliches Recht und Internationales Privatrecht an der Ludwig-Maximilians-Universität in München. «Ich persönlich halte das nicht für sinnvoll, denn auch bisher ist es schon so, dass für Produktfehler der Hersteller haftet.»

Lorenz hält die derzeitigen Regelungen für ausreichend: «Es ist aus juristischer Sicht keine Revolution vonnöten.» Nach geltender Rechtslage hafte im Autoverkehr der Halter für Schäden, die mit seinem Fahrzeug verursacht werden. «Es gilt hier wegen der potenziellen Gefahr das Prinzip der Gefährdungshaftung.»

Dieses besagt, dass für den Betrieb bestimmter potenziell gefährlicher Maschinen und Anlagen - dazu zählen etwa Autos, Züge, Flugzeuge und Atomkraftwerke - der Betreiber haftet. «Diese Haftung reicht aus, auch wenn das Auto selbst fährt», sagt Rechtswissenschaftler Lorenz.

Auch nach Einschätzung des Bundesjustizministeriums besteht derzeit kein Handlungsbedarf. Regelungen zum automatisierten Fahren sind erst 2017 in das Straßenverkehrsgesetz aufgenommen worden. «Bisher sehen wir keinen Grund, dass wir an der bewährten Reihenfolge der Haftung etwas ändern sollten», sagt ein Sprecher.

Doch da die Technik rapide fortschreitet, ist das letzte Wort längst nicht gesprochen. Auch in den USA ist es bisher so, dass die Hersteller nur für Produktionsmängel haften. Doch argumentierte die Denkfabrik US Chamber Institute für Legal Reform kürzlich, dass dieses Prinzip nicht mehr angemessen sei - weil KI-Software nach dem Verkauf dazulerne und sich verändere.

Der Versicherungskonzern Allianz plädiert zumindest dafür, über ein Gesetz zur Verwendung von künstlicher Intelligenz nachzudenken. «Dieses Gesetz sollte einen Gefährdungshaftungstatbestand enthalten», sagt Sachversicherungschef Müller. Was bedeuten würde, dass KI dann rechtlich ähnlich zu betrachten wäre wie Auto und Atomkraftwerk: potenziell gefährlich.

Veröffentlicht am:
12. 07. 2018
09:51 Uhr

Für »Meine Themen« verfügbare Schlagworte

zu Meine Themen hinzufügen

Hinzufügen

Schlagwort zu
Meine Themen

zu Meine Themen hinzufügen

Hinzufügen

Sie haben bereits von 15 Themen gewählt

Bearbeiten

Sie verfolgen dieses Thema bereits

Entfernen

Für die Nutzung von "Meine Themen" ist ihr Einverständnis zur Datenspeicherung nötig.

Weiter
Autofirmen Bomben Europäische Kommission Gerät Haftung Intelligenz Joachim Müller Juristen Künstliche Intelligenz Ludwig-Maximilians-Universität München Raumfahrzeuge Rechtswissenschaftler Strafvollzugsanstalten Uber
Diesen Artikel teilen / ausdrucken


Mehr zum Thema
In drei Farben

21.10.2019

Mit dem Google Pixel 4 mehr Sterne sehen als mit dem Auge

Googles Smartphone Pixel 4 ist eine Kamera, um die zufällig noch ein Smartphone gebaut wurde. Mit neuen Chips und viel Software will das Gerät bei der mobilen Fotografie neue Standards setzen. » mehr

«Dare2Del»

13.01.2020

Wie Forscher «Desktop-Messies» helfen wollen

Unmengen von Daten zu speichern ist technisch kein Problem - aber es kann belastend sein für die Psyche, die Energiebilanz und den Geldbeutel. Künstliche Intelligenz soll dem Menschen nun beim Aufräumen helfen. » mehr

Elektronikmesse IFA

31.08.2018

Intelligente Hausgeräte auf der IFA

Selbst den Toaster wird es noch erwischen: Hausgeräte sind vernetzt - und werden «intelligent». Das Smart Home ist nicht neu, aber die Hersteller arbeiten an neuen Service-Angeboten. Sprachassistenten und Künstliche Inte... » mehr

AI-Kamera-Funktion

12.07.2018

Das LG G7 ThinQ im Test

Künstliche Intelligenz für die Kamera, Spitzenhardware für den Klang und reichlich Leistung unter der Haube. So soll das LG G7 ThinQ die Android-Oberklasse aufmischen. Aber ist da eigentlich überhaupt noch Platz? » mehr

Im Praxistest

02.10.2019

Das neue iPhone 11 im Praxistest

In der Einladung zum Launch der neuen iPhones hieß es «By innovation only». Nun sind iPhone 11 und iPhone 11 Pro in den Läden. Wie viel Innovation in den Modellen steckt, zeigt ein Praxistest. » mehr

«Oddly Satisfying» Videos

03.01.2020

Online-Videos statt Schäfchen zählen

Videos der Kategorie «Oddly Satisfying» werden im Internet millionenfach angeschaut, obwohl sie mitunter nichtssagend erscheinen. Vermutlich ist genau das der Reiz. » mehr

Autor

dpa

Kontakt zur Redaktion

Veröffentlicht am:
12. 07. 2018
09:51 Uhr



^