Was sind die zentralen Themen, die Sie als Co-Vorsitzende der deutschen Datenethikkommission beschäftigen?
CHRISTIANE WENDEHORST: Den Auftrag hat die deutsche Bundesregierung erteilt, in Österreich ist man noch nicht so weit, aber da kommen wir auch noch hin. Uns sind drei große Fragenkomplexe vorgelegt worden: Künstliche Intelligenz, algorithmische Entscheidungsfindung und der Umgang mit Daten. Zu jedem dieser großen Fragenkomplexe finden Sie zahlreiche Unterfragen, etwa: Was sind die ethischen Grenzen für den Einsatz Künstlicher Intelligenz in der Medizin, in der Pflege, beim staatlichen Handeln? Wie wandelt sich unsere Arbeitswelt? Wie muss das Design von KI aussehen, damit der Mensch weiter im Mittelpunkt steht?


Ist der Einsatz Künstlicher Intelligenz schon so weit gediehen, dass sich diese Fragen stellen?
Natürlich stehen wir noch eher am Anfang, aber die technologische Entwicklung ist rasant und es ist keinesfalls zu früh, dass wir uns damit beschäftigen.

Wo sind die Roten Linien beim Einsatz Künstlicher Intelligenz?
Ganz klare Rote Linien sind natürlich: Der Mensch darf nie zum Objekt einer Maschine werden oder zum Objekt anderer Personen, die sich einer Maschine bedienen. Das ist aber gleichsam nur die oberste Ebene, und wir müssen sehr viel genauer hinsehen. Es bedarf eines umfassenden „Ethics by design“-Ansatzes.

Algorithmen beschäftigen uns tagtäglich, etwa in Sozialen Medien bestimmen Algorithmen, was wir sehen – und was nicht. Wo sehen Sie da die kritischsten Punkte?
Der brisanteste Punkt ist sicherlich der Diskriminierungsschutz.

Weil Algorithmen oft auch eine Art „Black Box“ für ahnungslose Anwender sind?
Genau. Es können auch vollkommen willkürliche Entscheidungen herauskommen, wenn der Algorithmus aufgrund irgendwelcher Korrelationen zu bestimmten Schlussfolgerungen führt. Das sind Gefahren, die wir im Auge behalten müssen. Wenn man Algorithmen überhaupt nicht mehr in den Griff bekommt, muss man deren Einsatz eben unterbinden.

Sollte der Staat den Einsatz von Algorithmen überprüfen oder sind sie eben Geschäftsgeheimnis?
Man sollte nicht alle Algorithmen gleich behandeln. Algorithmen als solche sind nicht per se gut oder schlecht. Niemand verlangt heute, alle Algorithmen einer Vorabkontrolle zu unterziehen, das wäre vollkommen überzogen. Es geht um bestimmte Algorithmen, die zu Entscheidungen führen, die für den Einzelnen schwerwiegende Folgen haben.

Das Thema der Datenselbstbestimmung hat einen zunehmend höheren Stellenwert, siehe DSGVO – zum Vorteil des Einzelnen, aber zum Schaden der Wirtschaft?
Wir gehen davon aus, dass ethisch hochwertiges Design von datenintensiven Produkten auch zu einem Wettbewerbsvorsprung der europäischen Industrie führen kann.

Obwohl man bei uns mit den Daten viel zurückhaltender umgeht als es etwa in China?
Derzeit ist die gängigste Theorie, dass dies zu einem Innovationsschub führt. Dass europäische Unternehmen in die Entwicklung datenschutzfreundlicher Techniken investieren werden und dass dadurch, wenn mittelfristig das Bewusstsein für Datenschutz in den USA und anderen Teilen der Welt gewachsen ist, europäische Unternehmen einen Wettbewerbsvorteil haben. Ob das am Ende aufgehen wird oder nicht, ist natürlich ein Streitpunkt.

Sie sprechen vom „dritten Weg“ zwischen USA und China. Werden wir dennoch offener werden müssen in Bezug auf unsere Daten – das Recht auf Analogität wird sich etwa beim autonomen Fahren nicht spielen.
Das glaube ich auch. Die Welt rundherum ändert sich – wir können den Wandel nicht vollkommen aufhalten. Aber wir können dafür sorgen, dass er den Menschen in den Mittelpunkt stellt und dass gewisse Grenzen nicht überschritten werden.

Mit dem „Internet of Things“ findet in Zukunft Vernetzung in Echtzeit statt. Welche Herausforderungen kommen in dieser Frage auf uns zu?
Das exponentielle Zunehmen der Datenströme im Zusammenspiel mit Künstlicher Intelligenz wird die Probleme nochmals zuspitzen. Das betrifft auch unsere privatesten und intimsten Bereiche. Ich kann beispielsweise nicht nachvollziehen, dass Personen sich vernetzte Geräte mit vielen Sensoren ins Schlafzimmer oder ins Wohnzimmer stellen, ohne sich im Geringsten zu fragen, was das mit ihren Daten macht.

Haben Sie eine Alexa zuhause?
Nein, natürlich nicht.

Sind Sie auf Facebook?
Nein, ich habe kein Facebook-Profil, ich boykottiere derzeit noch soziale Netzwerke. Aus Zeitproblemen – diese Profile müssen ja gepflegt werden – und auch aus dem Wissen heraus, was damit passiert. Auch wenn man sich durch Absenz nicht schützen kann. Man kann sogar sagen, dass dann noch stärker verzerrte Bilder der eigenen Persönlichkeit entstehen können, weil Unternehmen dann Schattenprofile anlegen aus den Daten, die andere Nutzer über mich haben – ein kontrolliertes Facebook-Profil wäre vermutlich bei Lichte betrachtet sogar die bessere Variante.

Über das Autonome Fahren werden wir zum kontrollierten Teil eines Netzwerks – mit welchen Konsequenzen?
Bereits jetzt müssen alle Autos für die Funktion des Notruf-E-Calls vernetzt sein – natürlich ist das auch schon mit Blick auf weitere Anwendungen gedacht. Man wird sich auf kurz oder lang dem nicht entziehen können.

Wissen Sie, welche Daten von Ihnen kursieren, beherrschen Sie noch Ihre Daten?
Nein, keine Chance. Auch die Datenschutzgrundverordnung ändert daran wenig. Selbst wenn ich Buch führe würde, wem ich alles meine Einwilligung gegenüber erkläre, habe ich doch keinerlei Kontrolle darüber, wie meine Daten dann weiter geteilt werden. Ganz klare Aussage: Ich habe keine Kontrolle über meine Daten.

Braucht Facebook mehr Kontrolle, muss der Zugang für Daten auf diese Plattform kontrolliert werden?
Wenn es um Upload-Filter geht, schreit die halbe Welt auf, dass hier praktisch Zensur stattfinde. Wenn so etwas passiert wie beim Attentäter von Christchurch, kippt die Diskussion wieder in die andere Richtung und man verlangt eine stärkere Kontrolle aller Postings. Man muss aber beide Aspekte im Auge haben und eine Balance finden.

Ist das Phänomen des „Social Scorings“ – ein Punktesystem für „vorbildliches“ Verhalten – wie in China bei uns vorstellbar?
Ich hoffe nicht. Allerdings hat mir zu denken gegeben, als im Sommer in einem Seminar mit Studierenden die Mehrheit dem chinesischen Modell des Social-Scorings einiges abgewinnen konnte. In meinen Augen ist eine Allzeitüberwachung mit tief greifenden Konsequenzen mit unseren Grundrechten in keiner Weise vereinbar. Mir hat es aber zu denken gegeben, ob die junge Generation Dinge nicht völlig anders einschätzt als es die unsere tut – vielleicht sieht alles in zwanzig Jahren ganz anders aus.