Suche
  • Digital Humanists

“Künstliche Intelligenz an sich ist wertneutral”

Aktualisiert: Sept 2

Muss ihr Einsatz dennoch reguliert werden?


Interview von Jolanda Rose und Cassandra Askin


Antworten auf Fragen zu Regulierung von künstlicher Intelligenz, ethischen Prinzipien als Vorstufe der Regulierung und unterschiedliche Betrachtungsweisen je nachdem ob staatliches oder unternehmerisches Handeln für gesellschaftliche Überwachung sorgt, hat Prof. Martin Ebers im Gespräch mit Digital Humanists erörtert. Er ist Associate Professor für IT-Recht, Gründer der Robotics and AI Law Association und erforscht das Zusammenspiels von Ethik, Digitalisierung und Recht.


Jolanda Rose: Sie sind Präsident von RAILS und Associate Professor für IT-Recht an der Universität Tartu. Wie sind Sie zu den Themen Digitalisierung, Recht und Ethik gekommen?

Martin Ebers: Nach Abschluss meiner Habilitation im Jahre 2015 habe ich im Gespräch mit Kollegen vermehrt merkwürdige Fälle diskutiert. Darunter war z.B. der Fall, in dem ein selbstfahrendes Auto betankt werden musste und sich die Frage stellte, ob es zu einem Vertragsschluss gekommen ist oder nicht. So habe ich angefangen, über dieses Thema zu recherchieren. Dabei habe ich festgestellt, dass es zum damaligen Zeitpunkt noch gar nicht so viel Literatur gab. Selbst im US-amerikanischen Schrifttum gab es damals nur ganz vereinzelt Aufsätze zu diesem Thema. So entstand relativ schnell die Idee, mit der RAILS (Robotics and AI Law Society, Anm. der Redaktion) eine Rechtswissenschaftliche Gesellschaft für Künstliche Intelligenz und Robotik zu gründen, die sich mit den vielfältigen Fragen der KI und Robotik beschäftigt.


Jolanda Rose: Das ist ein spannender Werdegang. Im Rahmen von RAILS haben Sie letztes Jahr eine Konferenz zu “ Governance of AI & Robotics: A European Approach?” veranstaltet, die ich glücklicherweise besuchen konnte. Wie hängen Ihrer Einschätzung nach Technik und Ethik zusammen?

Martin Ebers: Es gibt praktisch keine wertneutrale Technik. In jeder technischen Entwicklung steckt eine Wertentscheidung. So haben wir z.B. auf Online-Plattformen nur bestimmte Möglichkeiten zu kommunizieren. Der ganze digitale Bewegungsraum wird durch die jeweiligen Plattformbetreiber determiniert. Allein dieses Beispiel zeigt, wie stark Ethik und Technik miteinander verknüpft sind. Die Problematik wird durch die zunehmende Algorithmisierung unserer Gesellschaft verstärkt: Technik reguliert immer stärker unseren Alltag, unser Verhalten und unsere Gesellschaft. Die große Frage ist dementsprechend, wie Technik mit ethischen Werten und Rechtsnormen verknüpft werden kann.


Jolanda Rose: Sie sagen Technik reguliert unser Verhalten – wie sollte man diese Technik dann regulieren? Bedarf sie aus juristischer und gesellschaftlicher Sicht der Regulierung? In der letzten Zeit gab es da ja große Diskussionen bezogen auf die Einführung der Corona-Tracing-App. Es wurde danach gefragt, was Technik eigentlich darf und wie viel Überwachung zum Wohl der Gemeinschaft akzeptabel sei. Diese Fragen werden von Bürgerinnen und Bürgern sonst nie gestellt, wenn es um technische Produkte von großen Unternehmen, wie z.B. Google Maps, geht. Beim Einsatz dieser von Staats wegen stieß dies dann auf einmal auf Empörung. Wie haben Sie in dieser Krisenzeit den Diskurs empfunden? Hatten Sie das Gefühl, dass ethische oder freiheitliche Prinzipien dadurch wieder an Bedeutung gewonnen haben? Wie sehen Sie das insgesamt im Kontext der Regulierung? Sollte bei der Regulierung technischer Produkte ein Unterschied gemacht werden, je nachdem ob sie von staatlichen Stellen oder von Unternehmen entwickelt wurden?

Martin Ebers: Ja, ich glaube in der Corona-Krise hat es eine große Rolle gespielt, dass die Pandemie zuerst in China ausgebrochen ist, also in einer Diktatur. Die Maßnahmen, die in China und anderen asiatischen Staaten zur Eindämmung der Pandemie getroffen wurden, waren und sind äußerst freiheitsbeschränkend. Als sich das Virus anschließend auch in Europa und dabei vor allem in Italien stark verbreitete, haben viele westliche Staaten das chinesische Modell kopiert. Das hat zu massiven Freiheitseinschränkungen geführt, die man in Deutschland nicht so stark zu spüren bekommen hat wie z.B. in Italien oder Spanien, in denen sich das Infektionsgeschehen schneller und massiver gezeigt hat. Während der Corona-Krise sind nicht nur demokratische Kontrollmechanismen und demokratische Rechte, wie das Demonstrationsrecht, stark beschnitten worden. Vielmehr ist in manchen Ländern mit den Corona-Tracking-Apps eine Form der digitalen Totalüberwachung entstanden. All dies hat, so glaube ich, das Bewusstsein der Menschen dafür geschärft, dass derartige Einschränkungen einer demokratischen Kontrolle bedürfen. Das Problem ist natürlich nicht neu. Bereits vor der Corona-Krise haben private Unternehmen wie Facebook, Amazon oder Google das Verhalten von Nutzern getrackt und analysiert, um auf diese Weise Persönlichkeitsprofile und Score-Werte zu bilden. In China werden ähnliche Scoringsysteme für das Sozialkreditsystem genutzt. Was in der westlichen Welt passiert, lässt sich insofern durchaus mit der östlichen Welt vergleichen. Allerdings mit einem wesentlichen Unterschied: Wenn Staaten dazu übergehen, KI-getriebene Analysemethoden und Entscheidungssysteme zu verwenden, dann ist das Missbrauchspotential infolge des staatlichen Gewaltmonopols natürlich sehr viel höher, als das privater Unternehmen.


Jolanda Rose: Der Unterschied zwischen staatlicher Überwachung und Tracking von Unternehmen ist vielen, die sich mit der Verknüpfung von Ethik und Digitalisierung auseinandersetzen, bewusst. Zumindest von wissenschaftlicher Seite aus wird die Regulierung von Technik oder KI schon länger diskutiert. Dazu werden sehr unterschiedliche Meinungen vertreten. Nun gab es im letzten Jahr mit den “Ethics Guidelines for Trustworthy AI” einen offiziellen Vorstoß zu dem Thema von einer Expertenkommission der EU. Nach der Veröffentlichung wurde von komplizierten Verhandlungen berichtet. Es stand der Vorwurf im Raum, dass die Guidelines viel zu allgemein wären um einen Effekt zu haben. Vielleicht können Sie dazu Stellung beziehen? Wie schätzen Sie die Effektivität solcher Guidelines ein? Welche Reaktionen gab es im Nachgang von unternehmerischer und wissenschaftlicher Seite?

Martin Ebers: Es ist wichtig zu erwähnen, dass sich der Diskussionsprozess zunächst außerhalb der EU entwickelt hat. Schon vor Jahren haben internationale Unternehmen, Unternehmensverbände und Organisationen angefangen, ethische Leitprinzipien für den Umgang mit KI zu entwickeln. Heutzutage gibt es kaum ein größeres Unternehmen, das nicht selbst eigene ethische Leitlinien entwickelt hätte. Unter den Verbänden ist vor allem IEEE (Institute of Electrical and Electronics Engineers, Anm. der Redaktion) zu nennen, der mit über 420.000 Mitgliedern weltweit größte Berufsverband von Ingenieuren aus den Bereichen Elektrotechnik und Informationstechnik. IEEE hat bereits vor Jahren damit begonnen, ethische KI-Prinzipien zu entwickeln, nämlich die „Ethically Aligned Design“. Als das KI-Thema dann in Europa ankam, war es nur folgerichtig, ethische Leitlinien auch auf europäischer Ebene zu diskutieren. Insofern kann man die Diskussion um ethische Prinzipien auch als Vorstufe zur Regulierung betrachten. Das Problem mit ethischen Leitlinien ist natürlich, dass diese rechtlich unverbindlich sind. Problematisch ist außerdem, dass viele Prinzipien so weit gefasst sind, dass man sie in einem konkreten Fall kaum anwenden kann. Viele Prinzipien stehen zudem zueinander in einem Spannungsverhältnis, ohne dass es Leitlinien gäbe, wie ein Konflikt zwischen verschiedenen ethischen Prinzipien aufgelöst werden sollte.

Was die von Ihnen erwähnte Arbeit der von der Europäischen Kommission eingesetzten „High Level Expert Group on AI“ anbelangt, so wurde mir von verschiedener Seite berichtet, dass es sehr kontroverse Diskussionen gegeben haben soll. Ein großer Streitpunkt war vor allem die Frage, ob es sogenannte „red lines“ geben müsste, also nicht verhandelbare ethische Prinzipien, die festlegen, was in Europa mit KI in keinem Fall gemacht werden darf. Derartige rote Linien könnten vor allem gezogen werden beim Einsatz autonomer Waffensysteme, bei der Gesichtserkennungssoftware oder bei Sozialkreditsysteme. Letztlich konnte sich die Expertenkommission jedoch nicht auf rote Linien einigen. Dies zeigt den begrenzten Nutzen ethischer Leitlinien. Wenn ethische Leitlinien noch nicht einmal bestimmte, äußerste Grenzen des Einsatzes von KI abbilden können, dann ist das aus meiner Sicht schon problematisch.


Jolanda Rose: Wurden die Guidelines denn dann zumindest institutionell weiterentwickelt? Waren sie das Ende des Diskussionsprozesses der Expertenkommission?

Martin Ebers: Die Expertenkommission hat neben den Ethik-Leitlinien auch noch Politik- und Investitionsempfehlungenerarbeitet sowie eine Assessment-Liste, mit deren Hilfe Unternehmen ihre KI getriebenen Produkte bewerten können. Ethische Leitlinien schärfen das allgemeine Bewusstsein für Probleme. Dennoch sollte man an diesem Punkt jetzt nicht stehen bleiben, sondern grundlegende Fragen diskutieren: Wie muss der geltende Rechtsrahmen weiterentwickelt werden? Sollten gänzlich neue Regeln eingeführt werden, um die Entwicklung und/oder den Gebrauch von KI Systemen zu regulieren?


Jolanda Rose: Was wäre denn Ihre Idealvorstellung von Regulierung?

Martin Ebers: Ich habe keine pauschale Antwort auf diese Frage. Letztlich muss man sich immer das konkrete Problem anschauen, um zu entscheiden, ob ein Regulierungsbedarf besteht.


Jolanda Rose: Wie könnte in diesem Zusammenhang die Haftung geregelt werden?

Martin Ebers: Bei Künstlicher Intelligenz stellt sich grundlegend die Frage, wer unter welchen Voraussetzungen dafür haften soll, wenn bei Einsatz eines KI-Systems ein Schaden entsteht. Dabei sollten zunächst einmal die bereits bestehenden Haftungsregeln in den Blick genommen werden. Hier gibt es vor allem die Produkthaftungsrichtlinie, die das mitgliedstaatliche Haftungsrecht vollharmonisiert. Parallel dazu kommen nationale Deliktsrechte zur Anwendung. Hier muss zunächst überprüft werden, welche Haftungslücken derzeit bestehen. Die bestehenden Regelungen müssen evaluiert und überarbeitet werden. Die ProdHaftRL ist von 1985 und passt dementsprechend nicht mehr zu den neuen Technologien.

Darüber hinaus gibt es aber auch noch eine Reihe weiterer Regulierungsfragen. KI-Systeme werden ja zum Beispiel auch dafür eingesetzt, um bestimmte Scoringwerte zu bilden. Die Debatte um diese Scoringwerte ist äußerst spannend: Sollen Verbraucher die Möglichkeit haben, ein Scoring-System überprüfen zu lassen, wenn sie aufgrund einer schlechten Bonitätsprüfung keinen Kredit bekommen? Wenn ja, wie weit sollen diese Überprüfungsmöglichkeiten gehen? All dies zeigt, dass es keine pauschalen Antworten auf die Frage gibt, wie KI reguliert werden soll. Insofern kann es auch nicht den einen KI-Rechtsakt oder das eine KI-Gesetz geben – so, wie es ja auch kein Gesetz gibt, welches das gesamte Internet reguliert.


Jolanda Rose: Das ist klar. Genauso wie es beim Internet der Fall war, wird sich auch der Einsatz von künstlicher Intelligenz auf alle Lebensbereiche auswirken. Das Recht ist aktuell in viele Fachgebiete aufgeteilt, die verschiedene Gesellschaftsbereiche regulieren. Dementsprechend müssen die Regularien auch auf diese Fachgebiete verteilt in Bezug auf KI erweitert werden, insofern man dies regulieren möchte.

Martin Ebers: Aktuell wird beispielsweise über die Regulierung von Online-Plattformen diskutiert. Dazu will die europäische Kommission bis Ende des Jahres noch einen Vorschlag machen - den sog. Digital Services Act. Dieser Digital Services Act soll letztlich die E-Commerce RL ablösen. Die E-Commerce RL enthält ja bekanntlich vor allem Haftungsprivilegierungen für Plattformen. Wenn eine Plattform selbst keine Inhalte generiert, sondern nur Inhalte von Nutzern veröffentlicht, so haftet sie derzeit nur unter besonderen Voraussetzungen. So haftet Google zum Beispiel nicht für jeden rechtswidrigen Inhalt, der in den Suchergebnissen angezeigt wird. Andererseits haben Plattformen durch den Einsatz von KI die Möglichkeit, Inhalte zu priorisieren und zu filtern. Die bei Google angezeigten Suchergebnisse oder der Newsfeed bei Facebook werden auf diese Weise von Algorithmen gesteuert. Dahinter stehen zumeist kommerzielle Interessen, um bestimmte Anwendungen verkaufen zu können oder zumindest sicherzustellen, dass die Nutzer länger auf der Plattform bleiben. Die spannende Frage lautet deswegen: Können sich Plattformen, die auf diese Weise Künstliche Intelligenz einsetzen, überhaupt noch auf die in der E-Commerce-Richtlinie vorgesehenen Haftungsprivilegierungen berufen? Inwieweit muss der Rechtsrahmen neu justiert werden, um die Plattformen stärker in die Verantwortung zu nehmen? – Plattformen sind heutzutage ja weitestgehend an die Stelle der großen Medienunternehmen getreten. Gerade deswegen stellt sich die Frage, wie mit Fake News, Filterblasen, Echokammern und Deep Fakes umzugehen ist.


Jolanda Rose: Im Zusammenhang mit dem Thema Regulierung kommt von Seiten vieler (Start-Up-) Unternehmer regelmäßig die Kritik, dass in Europa so viel Wert auf Richtlinien gelegt würde, dass europäische Unternehmen dadurch der Zugang zu innovativen Märkten verwehrt und dadurch jeglicher Anschluss in der Entwicklung solcher Systeme verloren würde. Halten Sie diese Kritik für berechtigt? Sie haben schon darauf Bezug genommen, dass diese Ethics Washing in Europa durchaus ein Problem ist. Stellen die aktuellen Richtlinien ohne konkrete Haftungsregulierung überhaupt eine Hürde für Unternehmen dar?

Martin Ebers: Ein konkretes Beispiel für eine recht scharfe Regulierung ist die DSGVO, die mit ihren weitreichenden Sanktionen ein hohes Sanktionspotential hat. Insofern wird immer wieder die Befürchtung geäußert, dass europäische Unternehmen im Nachteil wären. Um KI-Systeme zu trainieren, braucht man ja bekanntlich für viele Anwendungen eine große Menge personenbezogener Daten. Auf diese Daten können europäische Unternehmen aber aufgrund der DSGVO-Vorgaben nicht in demselben Umfang zugreifen, wie z.B. US-amerikanische oder chinesische Unternehmen. Meines Erachtens sind diese Befürchtungen dennoch nur zum Teil berechtigt. Neben personenbezogenen Daten gibt es ja auch (nicht personenbezogene) Maschinendaten, die bei der Entwicklung smarter Produkte und im Rahmen der Industrie 4.0 eine große Rolle spielen. In diesen Daten steckt ein großes Potential, das von vielen Unternehmen überhaupt noch nicht ausgeschöpft wird. Abgesehen davon könnte die EU in Sachen Regulierung global betrachtet auch eine Vorreiterrolle einnehmen. Schon jetzt gibt es viele außereuropäische Länder sowie US-Bundesstaaten wie Kalifornien, die sich bei der Ausgestaltung ihres Datenschutzrechts an der DSGVO und damit an europäischen Werten orientieren. Dasselbe könnte im Bereich der KI-Regulierung passieren. Auch hier scheint die Europäische Union eine Vorreiterrolle einnehmen zu wollen.

Andererseits sind aber auch Zweifel angebracht: Wenn viele Produkte und Dienstleistungen außerhalb Europas erfolgreich entwickelt werden, dann lässt deren Nutzung auch in Europa nur schwer stoppen. Eine Regulierungsform, die ich insofern für sehr vielversprechend halte, ist das Modell der Co-Regulierung. Bei einer Co-Regulierung arbeiten Unternehmen, Unternehmensverbände und Standardisierungsorganisationen zunächst einmal selbst bestimmte Standards aus. Im Anschluss werden diese Standards sodann staatlicherseits anerkannt, beispielsweise durch eine Zertifizierung oder ein Gütesiegel. Die internationalen Standardisierungsorganisationen sind derzeit dabei, auch für KI bestimmte Standards auszuarbeiten. So wird beispielsweise danach gefragt, welche Qualitätskriterien für Daten gelten sollten. Die Qualität von Daten ist ja ganz entscheidend für die Funktionsweise eines KI-Systems. Wenn z.B. ein bestimmtes Datum diskriminierend ist und das System damit gespeist wird, kommt ein entsprechend diskriminierendes Ergebnis heraus. Eine Standardisierung in diesem Bereich könnte also dafür sorgen, dass derartige Diskriminierungen künftig vermieden werden. – Co-Regulierung ist natürlich kein Patentrezept und kann auch nicht sämtliche Fehlentwicklungen verhindern. Aus diesem Grund muss es neben der Co-Regulierung rechtlich verbindliche Maßstäbe geben.


Jolanda Rose: Das war jetzt schonmal sehr spannend. Ich würde gerne noch diese eine Frage anschließen: Was stellen Sie sich als Szenario für eine ideale Kombination von Ethik, Technik und Recht für eine Gesellschaft vor, die innovationsgetrieben ist und trotzdem den Menschen respektiert?

Martin Ebers: Aus meiner Sicht muss ein Dialog zwischen den Disziplinen angestrebt werden, gleichzeitig muss aber auch die Bevölkerung stärker eingebunden werden. Wichtig ist, das eine gemeinsame Sprache gefunden wird, mit der ein gesamtgesellschaftlicher Dialog über den verantwortungsvollen Umgang mit Technik geführt werden kann. Bei den Entwicklern von KI-Anwendungen muss das Bewusstsein dafür geschaffen werden, dass Technik nie wertneutral ist, sondern Wertentscheidungen enthält. In den Unternehmen muss eine Kultur entwickelt werden, die einen verantwortungsvollen Umgang mit Technik mit Blick auf die gesamtgesellschaftlichen Auswirkungen sicherstellt. Auch bei Usern muss viel Aufklärungsarbeit geleistet werden. Viele haben in diesem Bereich noch kein großes Allgemeinwissen. So gibt es beispielsweise Untersuchungen, die besagen, dass über 60 Prozent der Facebook-User überhaupt gar nicht wissen, dass der Newsfeed nicht chronologisch angezeigt wird, sondern von einem Algorithmus priorisiert wird.

Wichtig für die Regulierung von Künstlicher Intelligenz ist allerdings auch die Erkenntnis, dass KI an sich wertneutral ist. Ein und dasselbe KI-System kann sowohl für nützliche als auch schädliche Zwecke eingesetzt werden, so beispielsweise in der Medizin zur Diagnose und Behandlung von Krankheiten oder im Bereich der Kriegsführung in Form von autonomen Waffensystemen. Notwendig ist daher ein differenzierter Rechtsrahmen, der eine vorschnelle, innovationshemmende Überregulierung vermeidet, andererseits aber sektorspezifisch vor allem dort eingreift, wo ein besonders großer Handlungsbedarf besteht.


Was ist deiner Meinung nach der richtige Umgang mit der Regulierung von KI und sollten ethische Leitlinien rechtlich verpflichend sein? Wir freuen uns auf deine Rückmeldung!

108 Ansichten