Abo
Künstliche Intelligenz

Eine Technologie warnt vor sich selber

ChatGPT, selbstfahrende Autos, KI in der Medizin: Künstliche Intelligenz in unserem Alltag wirft viele rechtliche Fragen auf.

Ruth Brüderlin

&

Monica Fahmy

Künstliche Intelligenz, KI

Der Einsatz von KI in Bereichen wie der Medizin oder Autoindustrie wirft neue Fragen bezüglich Haftung und Verantwortung auf.

Suse Heinz × DALL-E; die Illustrationen wurden von künstlicher Intelligenz anhand von Schlüsselbegriffen gezeichnet

Werbung

Künstliche Intelligenz (KI) fasziniert, erleichtert den Alltag und stellt die Menschheit zugleich vor komplexe rechtliche Herausforderungen. Sogar ChatGPT sieht das so, wie der demokratische US-Kongressabgeordnete Ted Lieu – einer von nur drei Abgeordneten mit einem Uni-Abschluss in Informatik – herausfand: In seinem im Januar 2023 in der «New York Times» publizierten Kommentar zum Thema «Zukunft mit KI» liess er ChatGPT den ersten Abschnitt schreiben. Darin beschreibt der Bot eine Welt, in der von lernfähigen Computern gesteuerte Waffen auf den Strassen in Umlauf sind, die selber entscheiden, wann sie feuern. Und auf wen. ChatGPT schreibt: «Die rasanten Fortschritte in der KI-Technologie haben deutlich gemacht, dass es jetzt an der Zeit ist zu handeln, um sicherzustellen, dass KI in einer Weise eingesetzt wird, die sicher, ethisch vertretbar und nützlich für die Gesellschaft ist.» Er sei von KI begeistert, schreibt Lieu: «Gleichzeitig macht mir KI Angst, vor allem KI, die nicht überwacht und reguliert wird.»

Partner-Inhalte

Klar ist: Es braucht Gesetze. Die Prozesse dafür in der Politik sind zäh und langwierig. Die Entwicklung der künstlichen Intelligenz hingegen geht rasend schnell. Fragen nach Verantwortung und Haftung stellen sich bereits heute in verschiedenen Bereichen.

Wer ist haftbar bei Fehldiagnosen?

Beispielsweise im Gesundheitswesen. So hat die US-Arzneimittelbehörde Food and Drug Administration KI-Tools zugelassen unter anderem für die Diagnose von Schlaganfällen und Hirnblutungen, das Erkennen von Vorhofflimmern und die Interpretation von MRT-Bildern des Gehirns. Das birgt rechtliche Risiken, etwa zur Haftungsfrage bei einer Fehldiagnose. Oder zur Verantwortung, wenn künstliche Intelligenz eine unnütze oder gar schädliche Behandlung durchführt. Wer ist schuld? Die Herstellungsfirma der KI? Wenn ja, kann sie überhaupt zur Rechenschaft gezogen werden, wenn sie etwa ihren Sitz in einem Land hat, das einem Rechtshilfeersuchen der Schweiz nicht nachkommt? Haftet die Institution, die KI einsetzt, also beispielsweise das Spital? Und wer dort? Der IT-Verantwortliche, der die KI beschaffte? Das medizinische Personal, das sie einsetzte? Oder gar die KI selbst?

Werbung

Künstliche Intelligenz, KI

Was ist, wenn eine KI eine Fehldiagnose stellt?

Suse Heinz × DALL-E
Künstliche Intelligenz, KI

Was ist, wenn eine KI eine Fehldiagnose stellt?

Suse Heinz × DALL-E

Die Verbindung der Schweizer Ärztinnen und Ärzte (FMH) schreibt in der Publikation «Künstliche Intelligenz im ärztlichen Alltag», der Arzt könne für das haftbar gemacht werden, was er erkennen, beeinflussen und aufgrund seiner Fachkompetenz zu verantworten habe. Dazu gehöre der Entscheid, bei der Diagnose und Behandlung KI-Systeme einzusetzen respektive darauf zu verzichten. Basis bildeten die bisherigen Haftungsgrundlagen, schreibt die FMH.

Werbung

In den USA hingegen sieht man durchaus die Hersteller von KI in der Pflicht. Die Anwaltskanzlei The Eisen Law Firm in Cleveland, Ohio, ist auf Behandlungsfehler spezialisiert. Einerseits sei KI keine lizenzierte medizinische Person, könne also bei Kunstfehlern rechtlich nicht belangt werden. Andererseits: KI sei ein Produkt, und «wenn ein Produkt nicht funktioniert und Schaden verursacht, können Opfer den Hersteller verklagen». Eine weitere Möglichkeit für Patienten sei, auf Kunstfehler zu klagen, weil der Arzt KI falsch eingesetzt oder sich zu sehr darauf verlassen habe.

Unklare Schuldfrage beim Crash

Bereits Standard ist der Einsatz von KI in der Automobilindustrie, von autonomen Fahrfunktionen bis zu erweiterten Fahrassistenzsystemen. Im «Jusletter», einer Schweizer juristischen Online-Fachzeitschrift, wurde dieser Punkt angesprochen. Unter dem Titel «Künstliche Intelligenz: Handlungsbedarf im Schweizer Recht» schreiben die Autorinnen und Autoren: «Eine zentrale Herausforderung sind die Klärung der zivilrechtlichen Haftung im Schadensfall und die Sicherstellung der strafrechtlichen Verantwortlichkeit.»

Werbung

Künstliche Intelligenz, KI

Bei einem Unfall durch KI-gesteuerte Fahrzeuge stellen sich auch ethische Fragen.

Suse Heinz × DALL-E
Künstliche Intelligenz, KI

Bei einem Unfall durch KI-gesteuerte Fahrzeuge stellen sich auch ethische Fragen.

Suse Heinz × DALL-E

Wer also muss die Verantwortung übernehmen, wenn ein autonomes Fahrzeug einen Unfall verursacht? Der Fahrer, der Autohersteller oder die Entwickler der KI-Software? Nicht in allen Staaten gelten dieselben Gesetze und Vorschriften. Wenn ein autonomes Fahrzeug in einem Land mit laxeren Regeln zwar zugelassen ist, aber in einem Staat mit strikteren Vorschriften einen Unfall verursacht, dann wird es interessant sein, die rechtliche Auseinandersetzung zu verfolgen.

Werbung

Darüber hinaus stellen sich ethische Fragen. Denkbar ist beispielsweise, dass die Bord-Software in einer Notsituation selbstständig entscheidet, es sei besser, einen Fussgänger zu touchieren als einen anderen Verkehrsteilnehmer. Rein rational würde das eventuell sogar Sinn machen. Aber wäre es auch ethisch vertretbar?

Was ist mit Datenschutz?

Eine ganz andere Problematik ist der Datenschutz. KI-Systeme sammeln immense Mengen an Informationen – von Patienten, Autofahrern und Passagieren und von jeder Person, die das Internet nutzt. Es ist unklar, wer für den Datenschutz verantwortlich ist; einheitliche Standards, klare Regeln für deren Erhebung, Nutzung und Speicherung, fehlen. Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) verweist auf die Verantwortung der Datenbearbeiter. Sie müssen dafür sorgen, dass die Bestimmungen des Datenschutzgesetzes (DSG) eingehalten werden, speziell die in Artikel  4 definierten Grundsätze. Und sie müssen für die Richtigkeit der Daten (Art. 5) und deren Sicherheit (Art. 7) sorgen.

Werbung

Künstliche Intelligenz, KI

KI sammeln grosse Mengen an Daten von Menschen, auch von Patienten.

Suse Heinz × DALL-E
Künstliche Intelligenz, KI

KI sammeln grosse Mengen an Daten von Menschen, auch von Patienten.

Suse Heinz × DALL-E

Silvia Böhlen, Kommunikationsverantwortliche des EDÖB, räumt ein, dass gerade bei der Verarbeitung grosser Datenmengen das Risiko besteht, dass vermeintlich anonymisierte Daten, zum Beispiel von Patienten, identifiziert werden können. Zudem dürfen Daten über den Gesundheitszustand nicht zu Versicherungen oder den Arbeitgebern gelangen. «Die Verantwortlichen haben dem beim Aufbau und beim Betrieb der Systeme Rechnung zu tragen», sagt Böhlen, «etwa im Rahmen der im revidierten Datenschutzgesetz explizit verankerten Prinzipien ‹Privacy by design› und ‹Privacy by default›.» Das Datenschutzgesetz sei bewusst technologieneutral formuliert, sagt Böhlen, sodass die formulierten Grundsätze jederzeit Gültigkeit haben. «Mit der Totalrevision des Datenschutzgesetzes, das am 1.  September 2023 in Kraft tritt, haben Gesetzgeber und Politik dem Rechnung getragen.»

Werbung

KI-Systeme lernen anhand der Daten, mit denen sie gefüttert werden. Damit fliessen aber auch direkt oder indirekt Verzerrungen mit ein. Technologien für KI entwickeln nach wie vor überwiegend Männer. Und sie verwenden hauptsächlich westliche Daten. Die KI übernimmt damit automatisch auch Klischees und Vorurteile, was zur Ungleichbehandlung von Frauen und Männern sowie von Menschen aus anderen Kulturkreisen führt.

Diskriminierung als grosses Risiko sehen auch die Verfasser einer Studie, welche die Staatskanzlei des Kantons Zürich mit der Juristischen Fakultät der Universität Basel und der NGO Algorithmwatch.ch im Februar 2021 publiziert hat: «Daten können fehlerhaft oder unvollständig sein und so alte Diskriminierungsmuster reproduzieren oder gar neue etablieren. Als problematisch wird auch die fehlende Nachvollziehbarkeit betrachtet. Teilweise ist es fast unmöglich, zu verstehen, wie lernende Algorithmen zu ihren Ergebnissen kommen.»

Werbung

Nadja Braun Binder ist Professorin für Öffentliches Recht an der Universität Basel und eine der Autorinnen der Studie. Auf die Frage, was die rechtlichen Herausforderungen im Zusammenhang mit KI im Staat und in der Verwaltung seien, nennt sie etwa die Sicherstellung der Verfahrensgarantien: «Setzt eine Behörde für den Erlass einer Verfügung maschinelle Lernverfahren ein, muss sichergestellt sein, dass sie ihre Entscheidung begründen kann. Ausserdem darf der Einsatz von künstlicher Intelligenz nicht zu diskriminierenden Entscheidungen führen. Schliesslich ist zu prüfen, ob überhaupt hinreichende Rechtsgrundlagen für den KI-Einsatz im öffentlichen Sektor bestehen», so Braun.

Anpassen statt neu machen

In anderen Teilen der Welt schreitet man voran: Am 27.  Januar 2023 unterzeichneten die USA und die EU eine «Verwaltungsvereinbarung über künstliche Intelligenz für das Gemeinwohl». Sie soll «auf verantwortungsvolle Weise» Fortschritte in der KI vorantreiben. Florent Thouvenin ist Jurist und Professor für Informations- und Kommunikationsrecht an der Universität Zürich. Er sagt: «Aus heutiger Sicht ist davon auszugehen, dass – im Gegensatz zum EU AI Act – in der Schweiz keine umfassende Regulierung von KI erlassen wird.» Vielmehr geht Thouvenin davon aus, dass hierzulande das geltende Recht punktuell angepasst werde, etwa zur Sicherstellung von Transparenz, zum Erfassen von Diskriminierung und im Bereich der Haftung. «Es scheint weitgehend anerkannt, dass diese Regeln technologieneutral sein sollen», sagt Thouvenin, «also nicht nur gelten, wenn beispielsweise ein Schaden durch den Einsatz von KI verursacht oder jemand diskriminiert wird, sondern jeden Schaden und jede Diskriminierung erfassen – unabhängig, ob die Ursache ein Mensch, eine Maschine oder ein Zusammenwirken von Mensch und Maschine ist.»

Werbung

Fünf Risikofelder

In diesen Bereichen sieht Florent Thouvenin, Jurist und Professor an der Universität Zürich, die grössten rechtlichen Herausforderungen beim Einsatz von künstlicher Intelligenz:

  • Transparenz: Das Recht muss die Erkennbarkeit und die Nachvollziehbarkeit des Einsatzes von KI sicherstellen. Menschen müssen erkennen können, wenn sie mit einem KI-System interagieren (etwa einem Chatbot), und sie müssen bis zu einem gewissen Grad nachvollziehen können, wie ein Entscheid zustande kommt.
  • Privacy/Datenschutz: Die Herausforderungen von KI können zwar durch das Datenschutzrecht adressiert werden. Die Lösungen sind aber nicht immer sinnvoll, und der Datenschutz kann auch eine grosse Hürde für die Entwicklung und den Gebrauch von KI sein.
  • Diskriminierung: Die Schweiz hat kein allgemeines Anti-Diskriminierungs- oder Gleichbehandlungsgesetz für Firmen. Nur Diskriminierungen wegen des Geschlechts oder einer Behinderung sind verboten. Neue Normen müssen technologieneutral sein, also Diskriminierungen durch Menschen und Maschinen erfassen.
  • Manipulation: KI kann Menschen in deren Denken und Handeln beeinflussen. Typisches Beispiel sind Systeme zur Empfehlung von Inhalten wie auf YouTube. Ob und unter welchen Voraussetzungen eine Beeinflussung als Manipulation – auch rechtlich – zu qualifizieren ist, ist unklar. Hier besteht Forschungsbedarf.
  • Haftung: Die Regeln zur Haftung müssen angepasst werden, um auch durch den Einsatz von KI-Systemen verursachte Schäden adäquat zu erfassen. Das gilt insbesondere für das Produktehaftungsrecht, aber auch für die Auslegung und Anwendung der Bestimmung über die allgemeine ausservertragliche Haftung.

Spielwiese für Kriminelle

Fehldiagnosen, Fehlentscheide, Diskriminierung und Verstösse gegen den Datenschutz: Es menschelt bei der künstlichen Intelligenz. Und sie verfügt über ein beachtliches Potenzial an krimineller Energie. Anfang April warnte Europol, die europäische Polizeibehörde mit Sitz in Den Haag, ausdrücklich vor den kriminellen Einsatzmöglichkeiten von ChatGPT. Mit dessen Fähigkeit, sogar die Art und Weise zu imitieren, wie eine bestimmte Menschengruppe kommuniziert, lasse es sich bestens missbrauchen für Betrug, Phishing, Desinformation und andere Verbrechen im Bereich Cybercrime.

Werbung

Jetzt wird gehandelt. Als bislang erstes Land sperrte Italien am 30. März 2023 den Zugang zu ChatGPT. Per sofort. Der Grund: Verletzungen des Datenschutzes. Damit folgte die italienische Datenschutzbehörde der Empfehlung von ChatGPT. Die KI hatte in der «New York Times» geschrieben: «Es ist jetzt an der Zeit zu handeln. Andernfalls könnten die Risiken von künstlicher Intelligenz ihre Vorteile bei Weitem überwiegen.»

Dieser Artikel erschien im BILANZ Special «Top-Anwälte 2023».

Werbung

Auch interessant

Werbung