Heute diskutiert das Europäische Parlament den Delvaux-Bericht zu zivilrechtlichen Regelungen im Bereich Robotik. Morgen stimmen wir darüber ab.

Der Bericht spricht sich angesichts der Übernahme von Tätigkeiten durch Roboter dafür aus, eine umfassende Debatte „über die Tragfähigkeit unserer Steuer- und Sozialsysteme“ anzustoßen. Da im Rechtsausschuss ein Satz angenommen wurde, der fordert, dabei auch über die Einführung eines allgemeinen Grundeinkommens zu reden, wollen Konservative den Abschnitt entfernen. Es ist noch unklar, ob der Absatz die morgige Abstimmung überstehen wird.

* * *

Im Folgenden möchte ich noch einige andere wichtige Elemente aus dem Bericht vorstellen, die auf Betreiben meiner Grünen/EFA-Kolleg*innen und mir aufgenommen wurden.

Roboter und künstliche Intelligenz kommen nicht nur in Form selbstfahrender Autos, von Industriemaschinen oder vierbeiniger Kreaturen daher, die nicht umfallen, wenn man sie tritt. Eher kleinere Geräte wie etwa medizinische Implantate oder robotische Prothesen enthalten zunehmend komplexe Algorithmen. Wenn ein Gerät eine Körperfunktion verbessert oder ersetzt, werden seine Träger*innen darauf angewiesen.

Die Autonomie, Selbstbestimmung und ein Leben in Würde hängt für Personen, die ein solches Gerät tragen, dann von eben jenen ab. Und natürlich von der Software, die darauf läuft. Wie jede Software kann auch solche, die auf medizinischen Implantaten läuft, Sicherheitslücken haben. Stell dir vor, deine Sinne oder motorischen Fähigkeiten könnten manipuliert werden – wenn du dazu gebracht werden könntest, Töne zu hören, die eigentlich nicht da sind oder Körperteile sich plötzlich nicht mehr so verhalten, wie du willst. Im schlimmsten Fall kann es dabei um Leben und Tod gehen. Menschen, die Implantate tragen, sind auf diese angewiesen wie auf andere Körperteile. Deswegen muss der Gesetzgeber sicherstellen, dass der Zugang zu Wartungsdiensten, Weiterentwicklungen und insbesondere Softwareupdates sichergestellt werden muss.

Die Versorgung mit diesen Dingen muss auch dann sichergestellt sein, wenn ein Hersteller aus irgend einem Grund nicht mehr am Markt sein sollte oder entscheidet, ein Gerät nicht mehr zu unterstützen. Auf unseren Vorschlag hin ruft der Bericht dazu auf, unabhängiger treuhänderischer Stellen einzurichten, an die Hersteller umfassende Konstruktionsangaben übergeben müssen. Einschließlich Software-Quellcodes.

Der Dieselskandal hat erneut gezeigt, dass öffentliche Stellen Herstellerangaben unabhängig nachvollziehen können müssen. Behörden und Prüforganisationen können nur dann ein Verständnis von der Funktionsweise eines Gerätes erlangen, wenn sie auch die Möglichkeit erhalten, per „Reverse Engineering“ Software und Geräte zu untersuchen und Herstellern gegebenenfalls für Nachlässigkeiten und Nichtbeachtung zur Verantwortung zu ziehen. Der Bericht betont dass Design und Software-Quellcode den Behörden im voraus zur Verfügung gestellt werden sollten damit sie die Funktionalität eines Geräts verstehen können.

* * *

Die Arbeitsgruppe Digitales der Grünen/EFA, der ich angehöre, hat ein Positionspapier zu Robotik und künstlicher Intelligenz (PDF) (ODT) erstellt. Hier sind seine 10 Empfehlungen in Kürze:

  1. Eine informierte öffentliche Debatte. Die Gesellschaft sollte die Möglichkeit haben, zur Gestaltung der Technologie in deren Entwicklungsstadium beizutragen. Daher sind öffentliche Konsultationsprozesse und eine informierte Debatte von größter Bedeutung. Wir fordern eine Debatte auf europäischer Ebene mit dem Ziel, die technologische Revoluti­on mitzugestalten. Mit einer Reihe an Regeln, insbesondere zur Steuerung von Haftung und Ethik wird den eigentlichen europäischen und humanistischen Wertvorstellungen Rechnung getragen, die Europas Beitrag zur Gesellschaft ausmachen, mit dem Ziel, diese technologi­sche Revolution der Menschheit dienlich zu machen.
  2. Vorsorgeprinzip. Wir fordern, dass Forschung und Technologie zum maxima­len Nutzen für alle genutzt und potenzielle unbeabsichtigte soziale Auswirkungen vermieden werden, insbesondere hinsichtlich aufkommender Technologien. Wir schlagen vor, dass Ro­botik und künstliche Intelligenz auf Grundlage einer Folgenabschätzung weiterentwickelt und erarbeitet werden, wobei die besten verfügbaren technischen Sicherheitsstandards und die Möglichkeit der Intervention einzubeziehen sind.
    Gemäß der verantwortungsvollen Forschung und Innovation sind die Anwendung des Vor­sorgeprinzips und die Beurteilung der langfristigen ethischen Auswirkungen der neuen Tech­nologien zu einer frühen Phase ihrer Entwicklung unabdingbar.
  3. Do-no-harm-Prinzip. Roboter sind multifunktionale Werkzeuge. Sie sollten nicht dafür entwickelt werden, Menschen zu töten oder ihnen zu schaden. Ihr Einsatz muss gemäß garantierten individuellen Rechten und Grundfreiheiten erfolgen. Dazu zählen die Grundsätze der datenschutzfreundlichen Technikgestaltung sowie der menschlichen Unver­sehrtheit, die Achtung der Menschenwürde und der menschlichen Identität. Der Mensch hat Vorrang vor den ausschließlichen Interessen der Wissenschaft und der Gesellschaft. Die Ent­scheidung, einen Menschen zu verletzen oder zu töten sollte nur durch eine gut ausgebilde­te menschliche Anwender*in getroffen werden. Daher sollte die Verantwortung und Rechen­schaftspflicht eines Menschen beim militärischen Einsatz von Robotern nicht aufgehoben werden. Die Entwicklung von Robotern und künstlicher Intelligenz sollte im Einklang mit dem humanitären Völkerrecht und dem Recht des bewaffneten Konflikts erfolgen.
  4. Ökologischer Fußabdruck. Wir sind uns bewusst, dass die Robotik und die künstliche Intelligenz dazu beitragen können, Prozesse umweltfreundlicher zu gestalten, während gleichzeitig der Bedarf besteht, ihren ökologischen Fußabdruck auf ein Minimum zu reduzieren. Wir betonen, dass die Grundsätze des regenerativen Designs Anwendung fin­den sollen und die Energieeffizienz gesteigert werden muss, indem der Einsatz von erneuer­baren Energiequellen in der Robotik sowie der Einsatz und die Wiederverwendung von Sekundärrohstoffen gefördert und die Abfälle reduziert werden.
  5. Erweiterungen. Wir sind der Überzeugung, dass die Bereitstellung von sozia­len oder Gesundheitsdiensten nicht davon abhängig gemacht werden sollte, ob Robotersys­teme und künstliche Intelligenz in Form eines Implantats oder als Erweiterung des menschli­chen Körpers akzeptiert werden. Eingliederung und Vielfalt müssen für unsere Gesellschaft an erster Stelle stehen. Die Würde von Menschen mit oder ohne Behinderung ist unantast­bar. Personen, die Geräte als Implantate oder Erweiterungen tragen, können nur selbstbe­stimmt leben, wenn sie Volleigentümer der entsprechenden Geräte und all ihrer Bestandtei­le sind, einschließlich der Möglichkeit deren Innenleben neu zu gestalten.
  6. Menschliche Autonomie. Wir sind der Überzeugung, dass die menschliche Autonomie nur vollständig geachtet werden kann, wenn das Auskunftsrecht und das Einwilli­gungsrecht geschützt werden, einschließlich des Schutzes von Personen, die selbst nicht in der Lage sind, ihre Einwilligung zu erteilen. Wir lehnen das Konzept des „Dateneigentums“ ab, das im Gegensatz zum Datenschutz als Grundrecht stehen und Daten als handelbare Ware einstufen würde.
  7. Haftung und Verantwortung. Die gesetzliche Verantwortung sollte bei einer Person liegen. In Bezug auf die Sicherheit trägt der Hersteller auch dann die Verantwortung, wenn in einer Benutzervereinbarung ein Haftungsausschluss vorhanden ist. Hersteller, Pro­grammierer*in oder Betreiber*in sollten aufgrund unbeabsichtigter Ursachen möglicher Schäden nicht automatisch von ihrer Haftung und Verantwortung ausgeschlossen werden. Um mögliche Folgen eines Ausfalls und einer Fehlfunktion ausreichend komplexer Systeme zu vermindern, sollten unserer Auffassung nach Konzepte wie eine Gefährdungshaftung in Erwägung gezogen werden, und auch Pflichtversicherungsverträge.
  8. Offenheit. Wir sprechen uns für Offenheit aus, von offenen Standards und in­novativen Lizenzierungsmodellen bis hin zu offenen Plattformen und Transparenz, um eine Anbieterbindung zu vermeiden, mit der die Interoperabilität eingeschränkt wird.
  9. Produktsicherheit. Robotersysteme und künstliche Intelligenz sollten als Pro­dukte so entwickelt werden, dass sie wie andere Produkte auch sicher sind und ihren Zweck erfüllen. Roboter und KI sollten schutzbedürftige Nutzer*innen nicht ausbeuten.
  10. Finanzierung. Die Europäische Union und ihre Mitgliedstaaten sollten zu diesem Zweck die Forschung finanzieren, insbesondere in Bezug auf die ethischen und recht­lichen Auswirkungen der künstlichen Intelligenz.

Bild: Rio Nishiyama

Soweit dies durch das Gesetz möglich ist, hat der Schöpfer auf das Copyright und ähnliche oder Leistungsschutzrechte zu seinem Werk verzichtet.

Kommentare geschlossen.