Prof. Dr. med. Christiane Woopen ist Professorin für Ethik und Theorie in der Medizin und langjährige Politikberaterin. Sie ist seit Juli 2018 Mitglied und Ko-Sprecherin der Datenethikkommission der Bundesregierung. Seit 2017 hat sie den Vorsitz des Europäischen Ethikrates (European Group on Ethics in Science and New Technologies).
Von 2001 bis 2016 war sie Mitglied des Deutschen Ethikrates, ab 2012 dessen Vorsitzende. Sie ist promovierte Humanmedizinerin und habilitierte sich im Fach Ethik und Theorie der Medizin an der Medizinischen Fakultät in Köln, wo sie seit 2009 eine Professur innehat. Seit 2013 ist sie Geschäftsführende Direktorin des interfakultären Zentrums ceres, das von fünf der sechs Fakultäten der Universität getragen wird. Einer ihrer Arbeitsschwerpunkte ist die Digitalisierung der Arbeitswelt unter ethischen Gesichtspunkten.
Computer tragen keine Verantwortung
29:31 Minuten
Die Datenethik-Kommission der Bundesregierung hat Leitplanken für den Umgang mit algorithmischen Systemen im Allgemeinen und KI im Speziellen definiert. Überfälliger Wegweiser? Oder Anleitung zum Rückbau Deutschlands zum analogen Inselstaat?
Digitale Algorithmen, also voll automatiserte, computergenerierte Abläufe, greifen zunehmend in unsere Leben ein. Sie treffen ohne menschliches Zutun Entscheidungen oder beeinflussen sie maßgeblich. Sie sind kaum mehr wegzudenken aus der Produktion, aber sie stecken auch hinter Sprachassistenten wie Siri und Co.; sie entscheiden über Kreditwürdigkeit; gewichten Informationen für Nutzerinnen und Nutzer bei Online-Suchfunktionen; sie steuern die Partnerwahl bei Dating-Portalen und, und, und...
Die Daten-Ethikerin Christiane Woopen, Ko-Sprecherin der Datenethikkommission der Bundesregierung, sieht großen Nutzen in algorithmischen Systemen, auch solchen mit selbstlernenden Anteilen wie Künstliche Intelligenzen - KI genannt. Zugleich warnt sie aber auch vor erheblichen Risiken für grundlegende Rechte und Freiheiten.
Im Zweifel verbieten
Deshalb gelte es, algorithmische Systeme an ethischen Grundsätzen auszurichten. Das sei nicht nur allgemeingültig zu verabreden sondern auch durchzusetzen. Dabei müsse das "Schädigungspotenzial" berücksichtigt werden. Je schwerer der zu befürchtende Schaden für die Freiheit und die Grundrechte von Menschen durch eine KI-Anwendung, desto mehr regulatorische Eingriffe seien notwendig. Im schlimmsten Falle müsse es auch Verbote geben. In jedem Falle gehörten nicht nur grundlegende Fragen der Verantwortlichkeit geregelt. Es sei auch sicher zu stellen, dass mit selbstlernender Software nicht ganze Gruppen unhinterfragt diskriminiert und Ungleichkeiten verfestigt und verstetigt werden.
Grundlage von allem sei dabei eine Pflicht zur Transparenz.
Das Interview im Wortlaut:
Deutschlandfunk Kultur: Frau Woopen, zunehmend übernimmt das, was wir gemeinhin Künstliche Intelligenz, KI, nennen, Aufgaben von oder neben Menschen – sei es in der Produktion, bei der Kreditvergabe, in der Medizin, bei Job-Bewerbungen, bei der Partnerwahl und, und, und, und…
Am Anfang, Frau Woopen, gleich mal die Gretchenfrage: Wie halten Sie es denn mit der KI? Dein Freund und Helfer, also eher Nutzen stiftend oder Risiko für grundlegende Rechte?
Christiane Woopen: Ich bin neuen Technologien gegenüber erst einmal immer sehr positiv gestimmt, weil es ja erhebliche Potenziale birgt. Aber so, kann man eigentlich fast platt sagen, wie alles im Leben gibt es nicht nur Dinge, die Positives haben, sondern alles hat auch seine Probleme und Herausforderungen. Aber dafür sind wir ja da, dass man die gestaltet.
Deutschlandfunk Kultur: So ist, glaube ich, auch der Tenor des Gutachtens der Datenethikkommission der Bundesregierung, deren Ko-Vorsitzende Sie sind. Allerdings gab es an dem Gutachten auch heftigste Kritik. Zum Beispiel war in der "Frankfurter Allgemeinen Zeitung" zu lesen, dass das "die Anleitung zum Rückständigsein" wäre, dass man in der Kommission die Technik zwar wünschenswert, aber im Kern doch als bedrohlich empfindet, dass da Digitalangst verbreitet würde" usw. usw….
Woopen: Sie können sich vorstellen, dass wir als Datenethikkommission diese Kritik für verfehlt halten. Dadurch, dass wir Vorschläge machen, wie man die Probleme bewältigt, sind wir ja nicht direkt rückwärtsgewandt. Wir wollen auch Deutschland nicht zu einem "analogen Inselstaat" zurückbauen. Wir wollen vielmehr die Nutzung von Daten und auch von algorithmischen Systemen fördern, machen dazu sehr viele Vorschläge. Aber natürlich kümmern wir uns auch darum, dass es Probleme geben kann für grundlegende Rechte und Freiheiten der Bürger und für das Gemeinwohl der Gesellschaft. Das kann man ja durch entsprechende Maßnahmen eingrenzen.
Deutschlandfunk Kultur: Was Sie da im Einzelnen vorschlagen, diskutieren wir gleich. Ein Wort noch zu der Datenethikkommission selbst. Die wurde vor einem guten Jahr, Herbst 2018, von der Bundesregierung eingesetzt, hat 16 Mitglieder – heterogen besetzt von der Medizin-Ethikerin über die Zivilrechtsprofessorin bis zum Datenschützer, Vertretern der Wirtschaft und der Verbraucher. Es hat ein Papier gegeben, über 200 Seiten lang, mit Handlungsempfehlungen für den Umgang mit algorithmischen Systemen.
Jetzt müssen wir an der Stelle, glaube ich, eine kurze Begriffsbestimmung machen. Algorithmische Systeme sind ein anderes Wort für KI, Künstliche Intelligenz? Oder sind KI eine Teilmenge solcher algorithmischen Systeme?
Woopen: Das Letztere ist richtig. Also, algorithmische Systeme können ganz unterschiedlicher Art sein. Es sind ja letztlich Rechenvorgänge, Rechenprogramme, die man schreibt. Die kann man so schreiben, dass von vornherein jeder Schritt festgelegt wird. Man kann sie aber auch so schreiben, dass selbstlernende Anteile darin sind. Das ist ja das, was bei maschinellem Lernen und bei der Künstlichen Intelligenz geschieht. Deswegen sind Systeme, die Künstliche Intelligenz enthalten, Teilsysteme von algorithmischen Systemen oder ein Teilbereich.
Wenn man jetzt nur KI reguliert, vergisst man eine ganze Menge anderer algorithmischer Systeme, die eben genauso ein Schädigungspotenzial mit sich bringen können. Insofern haben wir uns auf den ganzen Bereich konzentriert und nicht nur die KI ins Zentrum gestellt.
Grundrechte müssen in der digitalen Welt gelten
Deutschlandfunk Kultur: Es ja so, dass tatsächlich zunehmend ganz wesentliche Entscheidungen getroffen werden oder zumindest maßgeblich beeinflusst werden von solchen selbstlernenden Systemen, algorithmischen Systemen. Der Auftrag an die Datenethikkommission lautete, ich zitiere mal, "ethische Leitplanken zu definieren für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens im Informationszeitalter".
Jetzt könnten wir ja eigentlich ganz platt denken: Wieso braucht man da nochmal neue ethische Grundsätze? Müssten nicht in der analogen Welt die gleichen wie in der digitalen Welt gelten und umgekehrt?
Woopen: In der Tat müssen wir keine neuen ethischen Maßstäbe definieren und auch die grundlegenden Rechte und Freiheiten nicht neu festlegen, die zum Schutz des Einzelnen und für das gesellschaftliche Zusammenleben gelten. Diese ganz prinzipiellen Maßstäbe haben wir bereits in Deutschland in der Verfassung festgelegt. In Europa gilt die Grundrechte-Charta. Es gilt aber schon, neue Fragestellungen zu beantworten, wie man diese grundlegenden Rechte und Freiheiten unter neuen technologischen Bedingungen tatsächlich schützt.
Deutschlandfunk Kultur: Also, es ist keine neue Ethik, die da entsteht, sondern die Anwendung der existierenden Ethik – Würde des Menschen, wie schon im Grundgesetz festgeschrieben, Privatheit des Menschen, Gerechtigkeit, Solidarität und Ähnliches anzuwenden auf diese algorithmischen Systeme.
Woopen: Ganz genau. Es ist halt wichtig zu sehen, dass wir ja in einer freiheitlichen, demokratischen Gesellschaft auch weiterhin leben wollen. Daran ändert sich ja nichts. Wir wollen auch die Selbstbestimmung des Menschen weiter schützen. Sie bekommt durch die digitalen Technologien zum Teil einen enormen Aufwind. Also, Selbstbestimmungsmöglichkeiten werden erweitert. Andererseits können solche Systeme auch die Möglichkeiten zur Selbstbestimmung eingrenzen. Das gilt es natürlich zu vermeiden.
"Verantwortung kann immer nur bei Menschen liegen"
Deutschlandfunk Kultur: Ein ganz zentraler Punkt und vielleicht auch ein zentrales Problem scheint mir das Stichwort "Verantwortung". Bleibt die Verantwortung bei allem, was Maschinen für uns, statt uns, mit uns zusammen tun, immer beim Menschen - auch bei voll automatisierten Prozessen?
Woopen: Ja. Die Verantwortung kann immer nur bei Menschen und bei Institutionen liegen, weil das diejenigen sind, die überhaupt in moralischer und ethischer Hinsicht Verantwortung übernehmen können. Diese Systeme, algorithmischen Systeme, können ja selber keine Entscheidungen im eigentlichen Sinne fällen, weil sie nichts abwägen können. Sie können es nicht begründen. Sie können nicht überlegen, welche Auswirkungen die eine oder andere Entscheidung beispielsweise auf die Selbstbestimmung oder den Schutz der Privatheit hat.
Also, die Datenethikkommission hat drei Formen dieser Zusammenarbeit zwischen menschlichen Entscheidungen und den Schlussfolgerungen und Rechenergebnissen algorithmischer Systeme unterschieden.
Das eine sind die Algorithmen basierten Entscheidungen, die die Selbstbestimmung des Menschen nicht eingrenzen. Der Mensch baut sie in seinen Entscheidungsprozess ein. Die zweite Stufe sind die Algorithmen getriebenen Entscheidungen. Da wird den algorithmischen Systemen schon eine Menge an Vorabweichenstellungen zugeschrieben, bevor der Mensch dann in den Entscheidungsprozess eintritt.
Beispielsweise: Sie kriegen 300 Bewerbungen. Das algorithmische System leitet an Sie als Mensch aber nur 20 weiter, weil die anderen 280 von dem System selber schon als ungeeignet heraussortiert wurden. Und die dritte Stufe sind dann die Algorithmen determinierten Entscheidungen. Das ist auch das, was wir als die "automatisierte" - manche sagen "autonome" - Anwendung dieses Rechenergebnisses betrachten. Da kriegt dann gleichsam der Bewerber, ohne dass ein Mensch eingeschaltet ist, direkt schon die Ablehnung oder Zusage für den Arbeitsplatz, für den er sich beworben hat.
Warum dann trotzdem die Verantwortung beim Menschen oder der Institution bleibt, liegt darin begründet, dass ja der Mensch dieses System einsetzt. Und er gestaltet es in einer bestimmten Form. Deswegen muss die Verantwortung auch letztlich beim Menschen bleiben.
Deutschlandfunk Kultur: Aber bei welchem Menschen? Bei demjenigen, der das betreffende System entwickelt hat oder bei demjenigen, der es besitzt oder bei demjenigen, der es anwendet? Wer?
Woopen: Das kann man so allgemein und pauschal nicht beantworten, weil es natürlich am Anwendungskontext liegt. Es ist ja etwas anderes, ob ein Hersteller von Getränkeautomaten ein algorithmisches System einsetzt, um dann die Zuordnung von Cola- und Fanta-Flaschen zu sortieren, oder ob Sie ein Sensoren-System haben, das verkauft wird an einen Hersteller von Traktoren, der wiederum den Traktor an einen landwirtschaftlichen Betrieb verkauft und man dann schauen muss, wer eben dann für welche Anteile und Prozesse und Wartungen etc. die Verantwortung übernehmen muss. – Das muss man sich im Einzelfall anschauen.
KI kann eine Gefährdung für wesentliche Rechte sein
Deutschlandfunk Kultur: Wann ist für Sie eine Künstliche Intelligenz, ein algorithmisches System potenziell eine Gefährdung für den Menschen im ethischen Sinne?
Woopen: Ein solches System ist immer dann eine Gefährdung für den Menschen, wenn er in wesentlichen Gütern bedroht ist. Dazu zählen mal ganz prinzipiell diese grundlegenden Rechte und Freiheiten - also die Selbstbestimmung, seine Privatheit, Fragen von Gerechtigkeit und Solidarität, Fragen der Sicherheit, Fragen der Nachhaltigkeit, Fragen des Vermögens und des Eigentums. Man muss also prüfen, ob diese Größen - das war jetzt natürlich keine abschließende Liste - in irgendeiner Form gefährdet sind und wie man dem begegnen kann, ohne die Potenziale des Einsatzes dieses Systems aufzugeben.
Deutschlandfunk Kultur: Aber Lassen Sie uns mal bei dem Beispiel, das Sie eben hatten, einen Moment bleiben. Ich bewerbe mich. Durch einen Algorithmus, durch ein automatisiertes System fliege ich in der Vorentscheidung schon mal raus. Ist das nicht eine Gefährdung meines Rechts, als Individuum behandelt zu werden, weil ich doch in gewisser Weise als Gruppe bewertet werde – also, als Frau bin ich nicht geeignet oder weil ich kein Abitur habe, bin ich nicht geeignet oder weil ich zu alt, zu jung, weiß ich was bin?
Woopen: Ein solches System hat auf jeden Fall ein Gefährdungspotenzial, zum Beispiel auch im Hinblick auf Diskriminierungen, so wie Sie sagen. Es könnte ja sein, dass das System so funktioniert, dass schon mal von vornherein alle Frauen oder alle Männer über 50 heraussortiert werden. Deswegen würde man in diesem Risiko adaptierten Regulierungssystem, das die Datenethikkommission vorschlägt, dort eben auch ein bestimmtes Gefährdungspotenzial sehen. Das heißt, auch gewisse Aufsichtspflichten, Transparenzpflichten, Dokumentationspflichten etc. damit verbinden, so dass dann der Einzelne, der aussortiert wurde, ein Recht darauf hätte zu erfahren, warum das so geschehen ist.
Je potenziell schädlicher eine KI, desto mehr Regulierung nötig
Deutschlandfunk Kultur: Also, je gefährlicher potenziell für die Rechte des Menschen eine Anwendung ist, desto stärker gehört sie reguliert?
Woopen: Ganz genau. Ich finde, unsere ganzen Lebenswelten sind mittlerweile durchdrungen von algorithmischen Systemen. Da können wir jetzt nicht für jedes einzelne eine Zulassung fordern. Das wäre völliger Unfug und würde alles blockieren. Wir müssen sie schon nach Risikoklassen sortieren, so dass wahrscheinlich der allergrößte Teil algorithmischer Systeme keiner zusätzlichen Regulierung oder keiner zusätzlichen Aufsicht bedarf. Aber solche, die mit einem erhöhten Risikopotenzial oder sogar mit einem ganz erheblichen Schädigungspotenzial einhergehen, gehören eindeutig reguliert und unter bestimmte Aufsichten.
Deutschlandfunk Kultur: Wann muss ein System oder eine Anwendung verboten werden?
Woopen: Dann, wenn sie ein unvertretbares Schädigungspotenzial haben.
Deutschlandfunk Kultur: Wer entscheidet das, was unvertretbar ist? Da muss man sich gesellschaftlich verabreden. Nennen Sie mal ein Beispiel, was für Sie unvertretbar ist.
Woopen: Also, man muss sich verabreden bzw. die Datenethikkommission fordert halt vom Gesetzgeber, dass er ein System der Risikoklasseneinstufung gesetzlich verankert, wobei aber natürlich die Konkretisierung durchaus untergesetzlich in bestimmten Sektoren erfolgen kann. Das ist ja in der Finanzbranche etwas ganz anderes als beispielsweise beim Verkehr.
Deutschlandfunk Kultur: Also die Beteiligten in einer Branche, in einem Bereich, Bankenwelt beispielsweise, sollen sich selber verabreden?
Woopen: Das soll so erfolgen. Und zwar soll die Aufsicht sektorspezifisch erfolgen. Bleiben wir beim Finanzwesen. Da wäre das eben dann die BaFin, also die Bundesaufsicht für Finanzdienstleistungen. Diese Aufsichtsbehörden sollen einen Beirat erhalten, in dem Unternehmen und zivilgesellschaftliche Vertreter vertreten sind, damit eben auch die Interessen dort mit in diese Ausarbeitung und in die Anwendung eingebracht werden können, damit es zu einem Interessensausgleich, aber natürlich kompetenzbasiert kommen kann.
Die Unternehmen, die jetzt solche algorithmischen Systeme anwenden möchten, nehmen selber diese Risikoeinstufung vor nach den Kriterien, die aber transparent und offen sind.
Deutschlandfunk Kultur: Aber die Unternehmen werden sich doch nicht selbst eine Anwendung verbieten.
Woopen: Nein, das muss natürlich festgelegt sein. Gut, sie können sich dafür entscheiden, diese Anwendung nicht zu benutzen, weil sie ihnen zu risikoreich erscheint. Das ist ja jedem überlassen. Aber die tatsächlichen Verbote, die gesetzlich verankert sind, die müssen natürlich durch das Parlament festgelegt werden.
Einige Algorithmen müssen verboten werden
Deutschlandfunk Kultur: Trotzdem ist es so, dass bestimmte Dinge von außen von vornherein verboten gehören? Also, ein Stichwort ist sicherlich die Frage nach einer Totalüberwachung oder nach einer Beeinflussung von politischen Wahlen. Gibt es über solche Dinge hinaus noch etwas, wo Sie sagen, "da gibt’s keine Diskussion und nicht branchenintern oder bereichsintern, sondern das gehört von Staatswegen verboten"?
Woopen: Ja. Die Datenethikkommission nennt tatsächlich ein paar solcher Dinge, die verboten gehören. Dazu gehört beispielsweise auch die unterschwellige Manipulation von Verbrauchern im Internet, beispielsweise durch sogenannte "Dark Patterns" oder "Addictive Designs". Das sind bestimmte Oberflächengestaltungen im Internet. Wenn Sie auf die Webseiten gehen, werden Sie entweder irregeleitet, oder auf andere Seiten hin manipuliert oder wo ein Suchtpotenzial erzeugt werden soll etc. – So etwas gehört nach Ansicht der Datenethikkommission verboten.
Deutschlandfunk Kultur: Aber was nicht verboten gehört, ist Profiling und Scoring - also die Zusammenführung von persönlichkeitsbezogenen Daten, um Eigenschaften von Menschen vorauszusagen und natürlich auch zu bewerten?
Woopen: Das ist nicht in jedem Fall verboten. Das ist aber auch jetzt schon in bestimmten Bereichen nach der Datenschutzgrundverordnung, die ja für alle europäischen Mitgliedsstaaten unmittelbar geltendes Recht ist, verboten. Da fordert die Datenethikkommission aber tatsächlich eine Verschärfung.
Der Schutz der Privatheit gliedert sich mittlerweile eigentlich auf zwei Ebenen auf. Das eine sind die personenbezogenen Daten, worüber jeder Einzelne entscheiden kann, ob er sie irgendwie öffentlich sichtbar machen möchte, ob er sie irgendjemandem weitergeben möchte zur Weiterverwendung etc. Aber das ist ja auch an seine Einwilligung oder an gesetzliche Erlaubnisse geknüpft.
Das Zweite ist da drunter liegend: Da werden diese Daten genommen, die man beispielsweise vielleicht ja gerne öffentlich zur Verfügung stellt, wie ein Facebook-Like, weil man gerne zum Ausdruck bringt, dass das Bild ein ganz tolles Bild ist. Daraus wird auf andere Persönlichkeitseigenschaften geschlossen. Die werden quasi algorithmisch errechnet. Sie wollten aber vielleicht gar nicht zu erkennen geben, zu welcher Religionsgemeinschaft Sie gehören oder welche sexuellen Vorlieben Sie haben. Sie wollten etwas ganz anderes zum Ausdruck bringen.
Hier bedarf es tatsächlich noch weitergehender Vorschriften, um solche Profilbildungen einzugrenzen.
Transparenz, Aufsichtspflichten und Informationsrechte
Deutschlandfunk Kultur: Ein riesiges Problem, das Stichwort fiel schon, ist das der Diskriminierung, die möglich ist durch selbstlernende Software, und auch der Verfestigung und Verstetigung von Ungleichheiten. Das schöne Beispiel, was immer gern genommen wird: In einem bestimmten Viertel einer Stadt ist die Ausfallsrate bei Krediten besonders hoch. Und wenn jemand in diesem Bezirk wohnt und sich um einen Kredit bewirbt, dann kriegt er möglicherweise eine Ablehnung, trotz anderer positiver Kriterien. Oder er bekommt nur deutlich schlechtere Konditionen, weil eben die statistische Wahrscheinlichkeit relativ hoch ist, dass er seinen Kredit auch nicht bedienen könnte. Was lässt sich gegen so was machen? Also, verbieten offenbar auch nicht.
Woopen: Nein, verbieten muss man so etwas nicht, aber man braucht bestimmte Transparenz- und Aufsichtspflichten. Das heißt, bei einem solchen Algorithmus, der ganz klar eine höhere Gefährdungsstufe hätte, also nicht zu diesen völlig unproblematischen Algorithmen gehört, würde es erfordern, dass man beispielsweise bei der Behörde die Faktoren offenlegt und die Gewichtungen, anhand derer dann das algorithmische Ergebnis errechnet wird.
Deutschlandfunk Kultur: Aber müssen nicht vor allen Dingen die Verbraucher das wissen? Muss ich nicht wissen, warum wird mein Kredit jetzt abgelehnt?
Woopen: Ja. Je nach Anwendungsfall kann es da durchaus Informationsrechte geben, so dass man dann einfordern kann zu erfahren, warum man diesen Kredit nicht bekommen hat. Je nachdem wie offen von vornherein die Faktoren sein müssen – es gibt natürlich auch an Abwägungsprozessen, beispielsweise mit Geschäftsgeheimnissen oder so, denn die andere Seite hat ja auch ihre Rechte. Das muss je nach Anwendung abgewogen werden.
Deutschlandfunk Kultur: Ähnlich bedenklich wie die Diskriminierung, über die wir gerade schon geredet haben, ist vielleicht auch die algorithmische Gewichtung von Inhalten, die ein Nutzer oder eine Nutzerin im Netz zu sehen bekommt oder eben auch nicht. Das ist nicht ohne Folgen für die Demokratie. Deshalb heißt es auch im Gutachten der Datenethikkommission: "Den nationalen Gesetzgeber trifft die verfassungsrechtliche Pflicht, die Demokratie vor den Gefahren für die freie, demokratische und plurale Meinungsbildung, die von Anbietern mit Torwächterfunktion" (da meint sie Facebook, Youtube und ähnliche) – die von diesen Torwächtern "ausgehen, durch Etablierung einer positiven Medienordnung zu schützen". Was ist eine "positive Medienordnung"?
Woopen: Es geht darum, dass der Staat die Aufgabe hat sicherzustellen, dass das Informationsangebot, das die gesellschaftliche Debatte prägt, neutral ist und auch eine Vielfalt gewährleistet. Es soll keine einseitige Information geben, die dazu führt, dass Menschen sich nicht unter Zurverfügungstellung vielfältiger Informationen eine eigene Meinung bilden können. Und es sollte Tendenzen entgegengetreten werden, die zu einseitigen Polarisierungen oder auch zur Ausbildung von Extremeinstellungen führen, die dann demokratiefeindlich wären. Insofern ist es schon wichtig, da sehr genau hinzugucken, wo Monopole vielleicht sich entwickeln auch für die Information der Öffentlichkeit.
Wenn das Nutzerverhalten der Gesellschaft dahin laufen würde, dass sie sich quasi ausschließlich noch über Google oder Facebook informieren und darüber an der öffentlichen Debatte beteiligen und es dann zu entsprechenden Tendenzen der Polarisierung käme oder so, dann wäre der Staat durchaus gefordert, hier einzugreifen.
Vielfältige Information von Staatswegen ermöglichen
Deutschlandfunk Kultur: Aber wieso von Staatswegen? Ich meine, es ist doch das Recht eines jeden einzelnen Bürgers, sich da zu informieren, wo er oder sie möchte.
Woopen: Das ist absolut das Recht der Bürgerinnen und Bürger. Sie brauchen nur die Möglichkeit, sich vielfältig zu informieren.
Deutschlandfunk Kultur: Und sie bräuchten in dem Falle dann die Möglichkeit, beispielsweise personalisierte Feeds, also das, was ihnen ihrem Datenprofil entsprechend bestimmte Informationen zufüttert oder zeigt, abzuschalten?
Woopen: Zumindest muss man erkennen, wo politische Informationen beispielsweise mir auf meinen Account bei irgendeinem sozialen Medium intermediär gespielt werden, die darauf beruhen, dass man von mir ein persönliches Profil entwickelt hat.
Deutschlandfunk Kultur: Also, wenn jetzt, sagen wir mal, Youtube, Facebook, Google und Co. möglicherweise so etwas wie eine Art Lizenz bräuchten, um das zu tun, was sie tun, nämlich auch Informationen zu verbreiten, dann ist das Medienrecht. Und Medienrecht ist Ländersache in Deutschland. Das ist Ihnen oder der Datenethikkommission schon bewusst, dass das ein ordentlicher Eingriff in die Medienlandschaft wäre?
Woopen: Das ist uns völlig bewusst. Nicht umsonst wird aber derzeit ja auch ein neuer Medienstaatsvertrag diskutiert. Das heißt, uns ist ja allen bewusst, dass sich die Medienlandschaft durch die Digitalisierung ganz erheblich verändert hat. Ich will damit gar nicht sagen, dass die sich zum Negativen verändert hat. Das ist ja zum Beispiel von außerordentlichem Vorteil, dass jetzt sich durch die Sozialen Plattformen auch jede Bürgerin und jeder Bürger öffentlich äußern kann und die Möglichkeit hat, sich eine Stimme zu geben.
Insofern muss man das aber trotzdem mit Tendenzen abwägen, die wir uns vielleicht nicht wünschen, beispielsweise dass durch irgendwelche Fake-Accounts Millionen Menschen entweder in einem Land oder weltweit erreicht werden, mit Nachrichten gefüttert werden, die überhaupt nicht stimmen, also den sogenannten "Fake-News", oder in einer Art und Weise emotionalisiert wird, dass eine politische Stimmungslage in einem Land zu kippen droht. Das sind ja Dinge, die muss man beobachten.
Medienlandschaft beobachten – ja. Zensieren – nein.
Deutschlandfunk Kultur: Das ist auch eine schmale Linie zur Zensur.
Woopen: Die soll natürlich nicht erfolgen. Das ist vollkommen klar. Und hier fordert es hohe Sensibilität, auch eine große Bereitschaft, diese empirische Forschung zu fördern. Denn es hat ja keinen Zweck, wenn wir jetzt hier alle mal ein Bauchgefühl entwickeln, ob das jetzt schwierig ist oder nicht, sondern man darf natürlich in die Rechte auch der Medien-Intermediäre und auch in die öffentliche Medienlandschaft nur eingreifen, wenn es tatsächlich Gefährdungen gibt.
Deutschlandfunk Kultur: Die Datenethikkommission, Frau Woopen, macht einen weiteren, relativ weitgehenden Vorschlag. Es soll eine neue EU-Verordnung für algorithmische Systeme geben. – Eine Art TÜV?
Woopen: Nein, einen TÜV haben wir nicht vorgeschlagen, sondern wir haben ein risikoadaptiertes Modell vorgeschlagen, so wie wir das eben ja schon angesprochen haben. Und wir halten die europäische Ebene für wichtig, weil wir uns sonst im globalen Kontext wohl nur schlecht behaupten können.
Man hat ja bei der Datenschutzgrundverordnung gesehen, dass das Europa tatsächlich sehr stark gemacht hat im internationalen Dialog. Etwas Analoges wünschen wir uns auch für die algorithmischen Systeme. Denn die großen, mächtigen Anbieter kommen ja nicht aus dem europäischen Bereich, sondern eben in der Regel aus USA oder aus China. Insofern brauchen wir hier auch ein europäisches Recht, das mit den Systemen, die von dort kommen, hier in der europäischen Landschaft entsprechend angewendet wird.
Deutschlandfunk Kultur: Da fragt man sich natürlich, warum es überhaupt einer bundesdeutschen Datenethikkommission bedurfte. Denn es gibt ja so etwas auf europäischer Ebene. Da arbeiten Sie auch mit. Sie sind sogar die Vorsitzende. Da gibt es schon solche Leitplanken und Vorstellungen - die mögen im Detail etwas variieren - also das, was jetzt für Deutschland erarbeitet worden ist. Warum nicht auf europäischer Ebene bleiben?
Woopen: Weil wir im Gutachten der Datenethikkommission ja auch viele Dinge empfohlen haben, die rein den deutschen Gesetzgeber betreffen oder deutsche Unternehmer.
Man muss ja Europa auch immer aus den Mitgliedsstaaten heraus denken. Insofern fand ich das auch eine sehr kluge Entscheidung, im Koalitionsvertrag die Datenethikkommission einzusetzen, damit die deutsche Politik auf der europäischen Ebene dann mit einer entsprechend fundierten Stimme sprechen kann.
Bestehende Gesetze für digitale Ebene anpassen und erweitern
Deutschlandfunk Kultur: Die Frage ist noch, ob wir tatsächlich neue Gesetze brauchen oder ob es vielmehr darum geht, die bestehenden auch in der digitalen Welt durchzusetzen. Also, wir haben die Datenschutzgrundverordnung auf EU-Ebene - das hatten Sie schon angesprochen - die übrigens auch das Recht formuliert, nicht ausschließlich einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu sein. Es gibt das Gesetz für unlauteren Wettbewerb, wo Irreführung und Manipulation der Geschäftspraktiken, wie Sie sie auch schon angesprochen haben, mit suchterzeugenden Designs und Ähnliches, verboten sind. Es gibt das Antidiskriminierungsrecht, was natürlich verbietet, dass man aufgrund seiner Gruppenzugehörigkeit, Geschlechtszugehörigkeit oder Ähnlichem diskriminiert wird.
Also warum brauchen wir neue Gesetze? Geht’s nicht vielmehr darum, das, was wir haben, auszuweiten auf die digitale Welt?
Woopen: Zum einen müssen wir natürlich gründlich prüfen, welche Gesetze wo wie gelten und ob sie bestimmte digitale Implikationen damit umfassen. Dann ist es ja auch gut. Es gibt aber ganz klar auch Gesetze, die müssen ergänzt werden, …
Deutschlandfunk Kultur: Zum Beispiel?
Woopen: … dass sie eben auch die digitalen Bereiche ergänzen. Ein Beispiel ist das Allgemeine Gleichbehandlungsgesetz. Also, die Merkmale, die dort aufgelistet sind, wie Geschlecht und die Dinge, die Sie schon genannt haben - die müssen ja nicht unmittelbar als Faktor in das algorithmische System, in die Berechnung eingehen. Aber vielleicht kommt indirekt das Ergebnis dieses Systems dazu, dann insbesondere Frauen zu diskriminieren, weil das eben diejenigen sind beispielsweise, die im Schnitt das niedrigere Einkommen haben in den Daten, mit denen dieses System trainiert worden ist.
Also, insofern braucht es eine Erweiterung dieses Allgemeinen Gleichbehandlungsgesetzes, um den Diskriminierungsschutz unter den Bedingungen der Künstlichen Intelligenz und des maschinellen Lernens tatsächlich auch umzusetzen.
Und auf der europäischen Ebene braucht es eben tatsächlich eine neue Verordnung zu algorithmischen Systemen. Da gibt es nichts, was man einfach nur erweitern könnte, um zu demselben Ergebnis zu kommen, sondern da bedarf es eines neuen Rechtssetzungsaktes.
Viele Diskussionen nötig, KI ethisch einzuhegen
Deutschlandfunk Kultur: So wichtig wie das wahrscheinlich ist, aber Ihnen ist sicher bewusst, dass das natürlich auch Entwicklungen bremst. Wir wissen, dass wir in Europa bei der digitalen Entwicklung, auch was KI, Künstliche Intelligenzen, angeht, extrem hinterher hinken. Die ungebremste Aufholjagd macht das nicht gerade möglich, denn das kostet natürlich, wenn man es regeln will, wenn man es diskutieren will, wenn man Leitplanken nicht nur setzen, sondern umsetzen will, viel Zeit.
Woopen: Erstmal brauchen solche Akte viel Zeit, das ist vollkommen klar, und eine intensive Diskussion. Währenddessen braucht es aber die Entwicklungen nicht zu hemmen. Und auch, wenn das alles mal, so wie es die Datenethikkommission vorschlägt, implementiert wäre, würde das nicht vor allem blockieren, sondern vor allem fördern. Ich sage Ihnen auch warum.
Wir haben uns extra darum bemüht, nicht einen riesenbürokratischen Aufbau, neue Behörden und neue Aufsicht….
Deutschlandfunk Kultur: Doch, Sie schlagen eine neue Aufsichtsbehörde auf Bundesebene vor.
Woopen: Nein, tun wir nicht.
Deutschlandfunk Kultur: Aber Sie wollen zumindest zusammenführen, was bisher an Aufsichtsfunktionen auf Landesbehörden verteilt ist.
Woopen: Jetzt sprechen Sie da von dem Vorschlag, dass die Landesdatenschutzbehörden sich für den Wirtschaftsbereich - nicht für den öffentlichen Bereich, für den Wirtschaftsbereich - koordinieren sollen, um eine einheitliche Rechtsanwendung zu befördern, was im Übrigen dann den Fortschritt beschleunigt. Fragen Sie mal die Unternehmen, die an den Landesdatenschutzbehörden und unterschiedlichen Rechtsanwendungen verzweifeln. Das blockiert.
Und nur, falls diese Landesdatenschutzbehörden sich nicht einigen sollten, dann soll der Gesetzgeber eine bundesweite Aufsicht für den Datenschutz im Wirtschaftsbereich einrichten.
Was mir noch wichtig ist zu betonen, ist, dass die Entwicklung und die Schnelligkeit der Entwicklung und Innovation dann ja steigen, wenn es Rechtssicherheit gibt. Dann trauen sich die Menschen, ganz anders nach vorne zu gehen. Und wir erleben dann möglicherweise auch nicht ein Desaster, das letztlich alles wieder zurückführt. Wenn Sie nämlich einmal einen riesigen Schaden produziert haben, verschwindet das Vertrauen der Öffentlichkeit darin, dass technologischer Wandel der Gesellschaft zugute kommt.
Blinde Überregulierung?
Deutschlandfunk Kultur: Aber es wird Sie nicht überraschen, dass beispielsweise der Verband der Internetwirtschaft eco von "blinder Überregulierung" spricht, die da umgesetzt werden sollte, und dass "die Entwicklung unter Einsatz von KI als Schlüsseltechnologie massiv beeinträchtigt würde und die Digitalisierung in Deutschland nur noch weiter verzögert wird".
Woopen: Also, es ist uns natürlich völlig bewusst, dass es da einen Automatismus gibt, dass bestimmte Verbände, wenn sie nur das Wort "Regulierung" hören, gleichsam automatisiert auf Gegenreaktion schalten. Ich habe bisher noch nicht ein substantiiertes Argument gehört, warum die Vorschläge, die die Datenethikkommission unterbreitet, tatsächlich im Alltag zu einer Blockade führen würden.
Deutschlandfunk Kultur: Zum Schluss vielleicht noch die Frage, Frau Woopen: Was passiert jetzt mit den Empfehlungen der Datenethikkommission? Landen sie in der Schublade? Oder ist es schlussendlich ein Auftakt, um wirklich intensiv über diese Themen zu diskutieren?
Woopen: Die Datenethikkommission selber versteht es eher als Anfang denn als Ende. Natürlich soll das jetzt in einen kontinuierlich weitergehenden Dialog von Ethikrecht und Technologie und auch von Politik und in der Gesellschaft dienen. Die Bundesregierung hat wesentliche Empfehlungen der Datenethikkommission zum Umgang mit Daten bereits jetzt in die Eckpunkte für eine deutsche Datenstrategie übernommen. Und die Ministerien sind jetzt im Einzelnen dabei zu prüfen, was in ihrem Anwendungs- und Zuständigkeitsbereich vorrangig zu etablieren ist.
Wir führen auch schon Gespräche auf der europäischen Ebene. Denn die derzeitige Präsidentin, Frau von der Leyen, hat ja bereits angekündigt, dass sie in den ersten 100 Tagen ihrer Präsidentschaft Vorschläge für eine Regulierung der Künstlichen Intelligenz unterbreiten möchte. Und da werden die deutschen Empfehlungen sicherlich auch eine Rolle spielen.