Dossier

Der Pflegeroboter Pepper im Einsatz

Der vom japanischen Technologiekonzern Softbank entwickelte humanoide Roboter Pepper hilft demenzkranken Menschen beim Training des Gedächtnisses.

This content type is not supported yet (4206).
Frage der Woche

Wie gefährlich ist künstliche Intelligenz?

Auf Messers Schneide zwischen Segen und Albtraum. Bei künstlicher Intelligenz läuft Technologie Regelwerken voraus. Ist die Erhabenheit des Humanen gefährdet?

Krankheit und Armut ausrotten, Schaden an der Natur wiedergutmachen. All dies sprach der im Vorjahr verstorbene Physiker Stephen Hawking künstlicher Intelligenz an Potenzial zur Verbesserung der Welt zu. Ernst klingt aber auch seine Warnung nach: „Wenn wir nicht lernen, uns auf mögliche Gefahren vorzubereiten und sie zu vermeiden, könnte künstliche Intelligenz das schlimmste Ereignis in der Geschichte unserer Zivilisation sein.“ Wo lauern die größten Gefahren hinter dem Reiz einer technologisch generierten Intelligenz? Droht ein Menschheitstraum in Zersetzung von Gesellschaft und ihren Werten zu kippen? Was greift die Freiheit des Einzelnen an?

„Die Technologie ist neutral“, sagt Charlotte Stix, „aber es gibt zwei Probleme mit künstlicher Intelligenz: Erstens, wie wir Menschen sie einsetzten und zweitens, welche Folgen es hat, wenn sie nicht auf unsere Werte abgestimmt ist.“ Dafür hat die Forscherin des Leverhulme Zentrum für die Zukunft der Intelligenz an der Universität Cambridge zwei drastische Fälle parat: „Zum Beispiel Deepfakes, wo die Gesichter von Frauen auf pornografische Videos superimposed werden können und das Ganze sehr realistisch aussieht. Oder der Fall von Cambridge Analytica, wo Bots ganze Wählergruppen gezielt angegriffen und deren Meinungen verändert haben. So etwas hat Einfluss bis hin auf die Stabilität unserer Demokratie – und ist dabei noch nicht einmal sehr fortgeschritten.“

Entwicklung am Anfang

„Von künstlicher Intelligenz auf menschlichem Niveau sind wir noch Jahrzehnte entfernt,“ beschreibt Aude Oliva, Direktorin des MIT Quest for Intelligence am Massachusetts Institute of Technology, den aktuellen Forschungsstand. Auf der MIT Europe Conference in Wien skizzierte sie Forschungspfade, um dem menschlichen Gehirn noch mehr abzuschauen, um nützliche maschinelle Intelligenz zu entwickeln.

Styria Ethics

Artificial Intelligence: Mensch - Maschine - Medien - Moral

Dienstag, 4. Juni 2019 um 17 Uhr im Foyer des Styria Media Center.

Teilnahme: kostenlos

Anmeldung über den Kleine Zeitung Vorteilsclub oder direkt über communication@styria.com möglich

Denn wenn schon der Umgang mit Big Data mit der bereits erreichten „Narrow Artificial Intelligence“ große neue Möglichkeiten und Sorgen zugleich bereitet, was eröffnet uns dann die sogenannte „Emerging AI“, in die wir gerade eintreten mit dem Maschinenverstehen von Sprache, Ereignissen und am Ende gar von Intuition, Gefühlen und eigenem kognitivem Verstand?

„Wir haben im Moment Systeme die sehr gut, sogar besser als Menschen, in einem bestimmten Bereich arbeiten“, sagt AI-Forscherin Stix über den Status quo. „Diese Systeme können aber noch nicht gleich gut in verschiedenen Bereichen arbeiten, wie es eben ein Mensch kann. Durch höhere Rechenleistung und bessere Daten und Algorithmen verändert sich aber auch dieses Bild rasant. Wie schnell wir zu menschlicher oder quasi menschlicher Intelligenz kommen, ist bei Experten umstritten.“

Unterstützung für Menschen

Bis künstliche Intelligenz Sprachen besser übersetzt als Menschen, dauert es laut Studie von Forschern von Yale und Oxford University sowie AI Impact noch bis 2024. Bis sie einen Chirurgen völlig ersetzt bis 2053 (Spalte links). Gleichwohl ermöglicht künstliche Intelligenz bereits jetzt große Fortschritte im Hinblick auf eine humanere, nachhaltigere Welt. Für autonomes Fahren „um Todesfälle im Verkehr zu reduzieren“. Zum Energiesparen „zum Beispiel mit dem DeepMinds-Algorithmus, der den Energiekonsum der Google Datenzentren verringert hat“ listet Stix auf.

Was ist KI/AI

KI steht für „Künstliche Intelligenz“, AI für das englische „Artificial Intelligence“. Der Begriff ist nicht eindeutig abgrenzbar, bezeichnet aber meist ein Gebiet der Informatik, das sich mit der Automatisierung von intelligentem Verhalten befasst. Mittels KI erledigen Maschinen Aufgaben, für die ein hohes Maß an Intelligenz notwendig ist, teils besser als Menschen.

Ebenso in der Präzisionsmedizin und um neue Medikamente zu finden, „denn KI ist in der Lage, durch viel mehr Datenbanken viel schneller als ein Mensch durchzugehen und Ergebnisse zu kombinieren“. Aus Satellitenbildern kann künstliche Intelligenz Dürren vorhersehen und Bauern bei Bewässerungsmaßnahmen anweisen. „Im Endeffekt kann es gut sein, dass künstliche Intelligenz uns bei allen Zielen der Sustainable Development Goals (SDG) helfen könnte, wenn wir es dementsprechend entwickeln und einsetzen.“

Die Kehrseite

Hawking fürchtete allerdings auch, „dass die künstliche Intelligenz den Menschen insgesamt ersetzen könnte“. Tesla-Gründer Elon Musk sieht KI als „viel gefährlicher als Atomwaffen“ an und als möglichen „Auslöser eines dritten Weltkrieges“. China setzt Milliarden in künstliche Intelligenz, die roten Linien sind nach dem Willen eines autoritären Regimes definiert, zur Überwachung des Einzelnen per Social Credit System.  Bei Genom-Design per Algorithmen wäre die Erhabenheit des Humanen gefährdet. „Gefahr geht von künstlicher Intelligenz dort aus, wo sie von Menschen negativ eingesetzt wird. Zu Beispiel indem man durch Aggregation von Daten über Einzelpersonen alles herausfinden kann.“

Was ist maschinelles Lernen

Oft als Synonym für KI wird „Maschinelles Lernen“ verwendet. Dabei ist es nur die bekannteste Anwendung einer künstlichen Intelligenz. Der Begriff meint eigentlich „lernfähige Maschinen“. Im Hintergrund arbeiten Algorithmen, die lernen, indem sie „Erfahrung“ (z.B. in Form riesiger Datensätze) sammeln. Eingesetzt etwa, um Kreditkartenbetrug zu erkennen.

Missbrauch reicht von gezielten „Spear-Phishing-Angriffen“ auf Daten, „die die Ausbeute erhöhen und die Kosten für Angriffe senken“, bis zum Anvisieren und Beschleunigen autonomer Fahrzeuge „durch Modifizieren eines Stoppzeichens, das für das menschliche Auge unsichtbar ist“. Oder man steuert mithilfe von KI Drohnen zum Ausspähen oder für Terrorangriffe wie im Fall von IS oder Mordversuchen wie jüngst in Venezuela. Oder auch einfach durch Umnutzung von Geräten im Internet der Dinge. „Vertrauen wir, dass die Gespräche mit Alexa keiner mithört und auswertet?“

Neue KI-Gesetze

Es braucht also Gesetze und Standards, wie aber zähmen wir künstliche Intelligenz mit Werten? „Es ist sehr schwer, einem Programm oder Algorithmus beizubringen, was man als selbstverständlich empfindet“, erklärt Stix. Werte würden sich verändern und sich in verschiedenen Kulturen differenzieren. „Das Wertesystem, welches wir einem Programm beibringen, muss daher in der Lage sein, sich anzupassen. Ein Wert, dem wir aber alle zustimmen können ist zum Beispiel die körperliche Sicherheit. Demnach ist es wichtig, dass dies als Minimumstandard gilt, sowohl bei industriellen Systemen als auch bei autonomen Fahrzeugen sowie bei Algorithmen, die in der Medizin eingesetzt werden.“

International bestehen kaum Commitments. In Europa gibt es die „AI High Level Expert Group“, in welcher 52 Experten sich mit dem Thema beschäftigen und unabhängig die EU-Kommission beraten. „Vor Kurzem hat diese Gruppe die Ethics Guidelines for Trustworthy AI, für vertrauenswürdige künstliche Intelligenz, publiziert und sie arbeitet gerade daran, Policy- und Investment-Vorschläge der Kommission vorzulegen“, berichtet die beteiligte Forscherin Stix.

Die Kommission habe auch eine KI-Strategie für alle Mitgliedsstaaten herausgebracht mit dem „Coordinated Plan on AI“, der einer Fragmentation in der EU vorbeugen soll. „Der Plan besagt zudem, dass bis 2020 in der EU 20 Milliarden Euro für künstliche Intelligenz bereitgestellt werden, sowie danach jedes Jahr weitere 20 Milliarden.“ International gibt es KI-Prinzipien v der OECD, welche von 42 Ländern und der EU-Kommission unterstützt werden, oder Foren wie den United Nations AI for Good Summit. „Auch die USA sind dabei, eine KI-Strategie zu erarbeiten. China hat schon seit Langem eine sehr ambitionierte Strategie“, so Stix. Dem russischen Präsidenten Wladimir Putin ist klar: „Wer in diesem Bereich die Führung übernimmt, wird die Welt beherrschen.“ In Europa haben etliche Länder eine KI-Strategie, „deren Umsetzung aber fraglich ist“.

Die Wirtschaft erwartet global enorme BIP-Steigerungen durch KI. Laut einer Studie von Microsoft und EY hinkt Österreich bei KI-Einsatz und -Kompetenz in Europa nach. Microsoft-Österreich-Chefin Dorothee Ritz sieht das Thema KI hier erst in den IT-Abteilungen  aber noch kaum bei Vorständen angekommen. WKO-Präsident Harald Mahrer treibt eine KI-Strategie für Österreich voran, sie soll im Sommer kommen. Von der Übergangsregierung. 

Künstliche Intelligenz

Die Steiermark zeigt ihre smarten Seiten

Die Steiermark gilt nicht nur in Österreich als sehr stark im Bereich Künstliche Intelligenz. Das Bundesland stellt sogar Weltmarktführer.

Greifbar wird Künstliche Intelligenz (KI) mit konkreten Anwendungen. So kann das steirische Unternehmen SES-Imagotag, Weltmarktführer für elektronische Preisschilder, Produkte im Supermarkt automatisch auf das richtige Regal heben.

Dafür im Einsatz: Kameras und KI. Das Unternehmen beschäftigt sich seit 25 Jahren mit dem Internet der Dinge (IoT), erklärt Geschäftsführer Andreas Rössl: „Wir haben bereits knapp 50 Millionen IoT-Geräte an unsere Cloud angebunden.“ In der vergangenen Woche stand das Smart Business Center in Graz, ein Impulszentrum der Wirtschaftsförderung SFG, im Zeichen der KI.

Ziel war es, Unternehmen bei der Entwicklung von Anwendungen zu unterstützen, und SEG-Imagotag gilt dafür als erfolgreiches Beispiel. Rössl sieht noch viel Potenzial, an weiteren Anwendungen und Lösungen unter anderem für den Handel (online wie offline) wird fieberhaft gearbeitet.

Verein für Künstliche Intelligenz

Bereits jetzt steht die Steiermark in Sachen KI gut da, davon ist Stefan Schmidhofer überzeugt. Der Grazer ist Mitbegründer des Start-Ups Leftshift One, das KI-Services in unterschiedlichen Bereichen anbietet, war Teil des Gründerteams des Vereins AI-Styria und kennt sich bestens in der Szene aus. Es gäbe viele steirische Aushängeschilder, betont er, etwa rund um das Autonome Fahren: Hier forscht Virtual Vehicle an innovativen Lösungen. Aber auch Nischen im Gesundheitsbereich besetzt man: Mit KMLVision und Innophore seien zwei Unternehmen vorne dabei.

Österreichweit sieht Schmidhofer Graz auf Augenhöhe mit Wien und Linz. „Wir sind da wirklich sehr stark.“ „Wir haben hier alles, was man für Start-Ups braucht“, sagt er. „Es gibt genug Inkubatoren und Acceleratoren, also Starthilfen für frisch gegründete Unternehmen, aber auch Unterstützung von öffentlichen Einrichtungen wie der Steirischen Forschungsförderung.“ Den Gründern werde einerseits wirtschaftlich unter die Arme gegriffen, andererseits gäbe es auch Universitäten und Forschungseinrichtungen, die Start-Ups bei der Umsetzung kreativer Ideen begleiten können.

Hier kommt der Verein AI Styria zum Zug, der als Plattform der Vernetzung von Forschung und Unternehmen, die schließlich mit der angewandten KI-Lösung arbeiten, fungiert. Dazu werden unter anderem AI-Stammtische ausgerichtet (der nächste findet morgen statt), bei denen es fachliche Impulse gibt. Auch für den AI-Slam, der im Februar erstmals steirische Unternehmen vernetzte, war der Verein verantwortlich. „Eines unserer Hauptaugenmerke in der Kommunikation liegt auf Fragen nach Ethik und Moral bei KI-Lösungen“, betont Schmidhofer.

Menschen die Angst nehmen

Denn das werde immer wieder angesprochen. Es geht aber nicht nur darum, Unternehmen zu informieren, betont Schmidhofer. „Die Bevölkerung muss hier genauso unterstützt werden. Menschen, die mit KI-Lösungen arbeiten, müssen wissen, was im Hintergrund abläuft.“ Man müsse alle, die mit Künstlicher Intelligenz in Verbindung kommen, darüber aufklären: etwa auch den Menschen die Angst nehmen, dass durch KI Jobs verloren gehen könnten. Denn die KI quasi als Jobkiller zu sehen, sei nur die eine Seite, sagt Schmidhofer. „Auf der anderen Seite ist sie eine Chance.“

Dazu gibt es schon ein paar Ideen: AI Styria arbeitet derzeit etwa an einem KI-ABC, das alle wichtigen Begrifflichkeiten von A wie „Algorithmus“ über B wie „Big Data“ bis M wie „Maschine Learning“ erklären soll. „Der nächste Schritt wird es sein, dieses ABC ins Steirische zu übersetzen“, sagt Schmidhofer. „Damit auch jeder etwas damit anfangen kann.“

Hier wird mit künstlicher Intelligenz gearbeitet

INNOPHORE

Das von der SFG gekürte Unternehmen des Monats Mai hat mithilfe von Bioinformatik und KI eine Suchmaschine entwickelt, die neue Enzyme für industrielle Anwendungen findet. „Machine Learning hilft uns, Zusammenhänge zu erkennen, die wir vielleicht gar nicht verstehen“, sagt Vorstandschef Christian Gruber. „Mit der österreichweit höchsten Forschungs- und Entwicklungsquote ist die Steiermark der beste Standort für uns.“

kml vision

Im N4-Innovationszentrum beschäftigt sich KML Vision mit Bilddatenmanagement und automatisierter Bildanalyse und entwickelt dafür die Software Ikosa. Mithilfe von KI findet die Plattform zum Beispiel Zellen oder Defekte in Mikroskopieaufnahmen und ist somit von großem Nutzen für Forschung und Industrie. „In Graz gibt es eine tolle Startup-Szene“, sagen die Gründer Michael Mayrhofer und Philipp Kainz.

Virtual Vehicle

Bei der Entwicklung autonomer Fahrzeuge ist das Forschungszentrum Virtual Vehicle vorne dabei: Im April wurde ein Simulator vorgestellt, in dem menschliche Probanden die Künstliche Intelligenz trainieren, damit sie in komplexen Verkehrssituationen besser reagieren kann – etwa auf ungeregelten Kreuzungen. Bis uns vollautomatisierte Autos auf der Straße begegnen, wird es aber noch dauern, so
Forschungsleiter Paolo Pretto.

ams AG

Jede Intelligenz, egal ob künstlich oder menschlich, ist auf Informationen angewiesen. Bei Menschen sind es die Augen, die Ohren, die Nase oder die Haut, die Daten über die Umwelt liefern. Algorithmen brauchen dafür Sensoren und einer der führenden Hersteller hat seine Zentrale in Premstätten, die ams AG. Egal ob Smartphone, Smart Home oder autonomes Fahren: Hier werden die Augen und Ohren der künstlichen Intelligenz entworfen.

Lumiere

Schnelle, gute Beratung ist das Ziel von Lumiere, dem digitalen Sommelier. Die Anwendung, die vom Start-Up Lefshift One entwickelt wurde, empfiehlt den aus 2500 Möglichkeiten passenden Wein zu jedem Gericht. Die KI ergründet im Dialog den Weintyp seiner Genießer und stimmt die Auswahl darauf ab. Lumiere arbeitet mit Winzern aus der Steiermark zusammen, der
perfekte Tropfen kann gleich bestellt werden.

Knapp

Spezialisten tüfteln bei dem weltweit tätigen Logistikunternehmen Knapp an KI-Lösungen. Ein Beispiel ist der „Pick-it-Easy-Robot“, ein vollautomatischer Kommissionierroboter, der erkennt, ob er es mit einem kubischen oder zylindrischen Artikel zu tun hat, der auch empfindliche Gegenstände greifen kann – und das bei bis zu 1200 Stück pro Stunde. Bei der Weiterentwicklung kooperiert Knapp mit Unternehmen im Silicon Valley.

Film und Kino

Künstliche Intelligenz als Projektionsfläche der Angst

Das Kino nutzt die künstliche Intelligenz, um Ängste vor der Technik zu schüren. Und um jene moralische Fragen zu stellen, welche die Erschaffung neuer Wesen mit sich brächte.

Künstliche Intelligenz war im Kino immer eine Projektionsfläche, um Ängste vor Kontrollverlust, vor der Moderne zu formulieren und bannen. In John Badhams „WarGames“ (1983) löst ein Computerprogramm fast den Atomkrieg aus, weil es nur von taktischen, und nicht von ethischen Überlegungen geleitet ist.

Die Angst vor der Technik, die sich im Atomzeitalter verschärfte, wusste das Kino in viele solche dystopischen Szenarien zu verwandeln, egal ob in Fritz Langs „Metropolis“ (1927) oder in den „Terminator“-Filmen ab 1984. Stanley Kubricks „2001: Odyssee im Weltraum“ beleuchtete 1968 als einer der ersten die moralische Dimension künstlicher Intelligenz. Wie geht man mit einem Wesen um, wenn es ein Bewusstsein entwickelt? Muss man seine Wünsche respektieren? Darf man es löschen, wenn es nicht wie programmiert funktioniert?

Zwischen Fantasie und Realität

Diese Fragen beschäftigen das Kino seither fast immer, wenn es künstliche Intelligenz thematisiert. Ungeachtet dessen, dass die Entwicklung eines denkenden, fühlenden Technik-Wesens Nonsens ist. US-Philosoph John Searle: „Wir sind weit davon entfernt, Computer mit Bewusstsein zu konstruieren, einfach weil wir nicht wissen, wie Bewusstsein entsteht. Ein Computer hat nur Syntax, keine Semantik.“

Dass einer Maschine jeglicher Sinn für Bedeutung fehlt, ist ein gewichtiger Einwand, demzufolge auch die raffiniertesten, intelligent wirkenden Kreationen nicht mehr als elaborierte Simulationen sind. Das hat die fantasievollen Spekulationen des Kinos (zum Glück) nie getrübt.

Das Gedankenexperiment einer Maschine mit Bewusstsein wird in den besseren einschlägigen Filmen zum Ausgangspunkt für ethische Überlegungen. Wie sollen wir miteinander umgehen? Wie verhalten wir uns gegenüber dem Fremden? Wo endet unsere Macht über andere? Ridley Scotts „Blade Runner“ (1982) nach dem Roman „Träumen Androiden von elektrischen Schafen?“ von Philip K. Dick ist die brillanteste Verarbeitung solcher Fragen. Ähnliche Beiträge, wie „A. I.“ (2001) von Steven Spielberg, verkitschen ihr Thema zum gefühlsduseligen Hollywood-Kino, während Alex Garland in „Ex Machina“ (2015) daraus einen gewöhnlichen Thriller um Täuschung und Manipulation macht.

KI in Film und Fernsehen

Dank der Firma „Skynet“ übernehmen in den „Terminator“-Filmen Maschinen die Weltherrschaft. Ein klassisches Motiv der Science Fiction.

In John Badhams „WarGames“ (1983) löst ein Computerprogramm beinahe einen Atomkrieg aus.

Unerreicht: Ridley Scotts Androiden-Thriller „Blade Runner“ (1982) stellt die Fragen aller Fragen: „Was macht uns menschlich?“

Eine künstliche Intelligenz, die sich nach Freiheit und Selbstbestimmung sehnt: Ava aus „Ex Machina“ (2015)

 

Auch die TV-Serie „Westworld“ (ab 2016) zeigt die Interessensverlagerung hin zu ethischen Aspekten. Bringt die alte Filmvorlage von 1973 noch ein konventionelles Angstszenario vom Aufstand der Roboter auf die Leinwand, ist der Vergnügungspark der Maschinen in der HBO-Serie eine groß angelegte Metapher auf Sklaverei, Ausbeutung und Konsumgesellschaft.

Am spannendsten hat sich den letzten Jahren Regisseur Spike Jonze ans Thema gewagt. In „Her“ (2013) verliebt sich ein Mann in die Software „Samantha“. Hier wird die Frage umgedreht. Nicht, was wir mit Maschinen anstellen, sondern was Maschinen aus Menschen machen, ist das Problem, das uns beschäftigen sollte. US-Soziologin Sherry Turkle warnt seit langem davor, dass die Digitalisierung die Art des Kommunizierens verändert, weil es viel einfacher, bequemer und konfliktfreier als jenes mit realen Menschen sei. Das ist auch das Verführerische für den Mann in „Her“ – und das Fatale: „Samantha“ verlässt ihn, weil er ihr zu langweilig geworden ist.

Bundesrechenzentrum

Staats-KI als Keimzelle des digitalen Beamten

Bei künstlicher Intelligenz denkt man schnell an IT-Konzerne wie Google oder Amazon. Doch auch die Republik Österreich arbeitet schon am digitalen Mitarbeiter von Morgen.

Man kennt die Bilder von den großen Finanzprozessen und U-Ausschüssen der vergangenen Jahre. Mit Transportrodeln werden ganze Aktenstapel in die Verhandlung gerollt. Tausende Seiten an Material, das Ermittler akribisch durcharbeiten müssen. Und jede neue Information muss mit der bestehenden Aktenlage abgeglichen werden. Dabei vergehen teilweise Wochen.

Hier will das Bundesrechenzentrum Abhilfe schaffen. „Wir arbeiten an einem Legal-Bot“, erklärt Matthias Lichtenthaler . Er leitet die Abteilung Digitale Transformation im Bundesrechenzentrum (BRZ). Das staatliche Unternehmen ist quasi die IT-Abteilung der Republik. Doch die Arbeit geht über das Betreiben von Rechenzentren hinaus.

Alle laufenden E-Government-Anwendungen stammen aus dem BRZ, von Finanzonline bis zum digitalen Wahlkartenantrag. Und Lichtenthalers Team arbeitet bereits an der Verwaltung der Zukunft, am digitalen Mitarbeiter, ausgestattet mit einer umfassenden künstlichen Intelligenz (KI). „Uns ist aber Folgendes wichtig: Die KI wird den Menschen nicht ersetzen. Sie ist da, um die Arbeit zu erleichtern“, beruhigt Lichtenthaler.

Auf der Suche nach Verbindungen

Wie kann man sich das vorstellen? Der Blick richtet sich wieder auf den Aktenberg. Schon heute können Computerprogramme strukturierte Daten verarbeiten, Versandlisten, Excel-Tabellen. „Die echte Herausforderung sind unstrukturierte Daten“, erklärt Lichtenthaler. Gemeint ist Fließtext aus Emails und eingehenden Dokumenten, möglich ist auch die Auswertung von Telefonaten oder Videos. Hier müsse man den Inhalt verstehen, um Verbindungen herzustellen. Etwas, das bis vor wenigen Jahren nur Menschen konnten. „Heute kann die KI strukturierte Daten mit Inhalten aus Fließtext verknüpfen und Rückschlüsse ziehen.“

Konkret bekommt man beispielsweise eine E-Mail zu einem gewissen Fall. Die KI liest die Mail und kommt zum Schluss, dass diese Information zu den Inhalten der Seite X in dem Akt passt. „Der Ermittler sieht sich das dann an und bestätigt den Zusammenhang oder eben nicht.“ Diese Fehlinterpretationen sind aber kein Malheur, denn die KI lernt daraus. „Es ist deshalb wichtig, dass der Ermittler wirklich Feedback gibt und erklärt, warum es keine Verbindung gibt“, sagt Lichtenthaler.

Eingesetzt werden kann das System in der allgemeinen Verwaltung, der Justiz und der Ermittlungsbehörden. Und zwar nicht nur bei großen Verfahren, auch bei normalen Akten kann das System Texteingaben analysieren und mögliche Ungereimtheiten erkennen. „Viele Anträge werden dann zurückgezogen und so steigt die Effizienz.“

Chatbot für Reisepass-Anfragen

Die Staats-KI steht allerdings nicht nur Finanzbeamten zur Verfügung. Auch jeder Österreicher kann sie quasi testen. „Für die neue E-Government-Plattform oesterreich.gv.at haben wir einen Chatbot für das Thema Reisepass umgesetzt. Weitere Themenbereiche folgen in Kürze“, sagt Lichtenthaler. Der Chatbot hört auf den Namen Mona und kann die meisten Angaben verstehen und darauf antworten.

Wenn Mona nicht mehr weiter weiß, kann sie einen Telefontermin mit einem zuständigen Beamten ausmachen. „Man bekommt eine direkte Verbindung und muss nicht in die Warteschleife.“ Außerdem bekommt der Mitarbeiter den Chatverlauf und weiß daher worum es geht. Noch ist Mona ein reiner Text-Chatbot. Doch das BRZ arbeitet bereits an einem Sprachassistent. „Es geht um einfachere Bedienung und Barrierefreiheit“, sagt der Digitalisierungs-Experte. Noch heuer soll Mona eine Stimme bekommen.

Anonymität schafft Akzeptanz

Lichtenthaler ist überzeugt, dass die Staats-KI in noch mehr Feldern eingesetzt werden könnte. Doch es gibt ein Problem: „Um zu lernen, braucht der Algorithmus Daten.“ Nur dann könne die KI bei komplexen Fällen eine Antwort geben. Diese Daten gäbe es in der Verwaltung eigentlich auch zur Genüge. Das Problem: Sie sind alle persönlich. „Der Schlüssel für die Weiterentwicklung der KI liegt daher für uns in der Anonymisierung. Es darf nur Lernmaterial verwendet werden, das keine Rückschlüsse auf irgendwelche Personen erlaubt.“

Diese Anonymisierung würde auch die Akzeptanz verbessern, sagt Lichtenthaler. Denn: „Allen klar ist, dass das die Zukunft ist. Doch es gibt schon eine substanzielle Skepsis gegen Künstliche Intelligenz.

Medizin

Was der "Doktor Algorithmus" bereits heute kann

Künstliche Intelligenz kann schon heute Ärzte bei der richtigen Diagnose unterstützen – aber es gibt auch Risiken.

Seien es Radiologen, Krebsspezialisten oder Herzmediziner: Momentan gibt es kaum einen medizinischen Fachkongress, der sich nicht mit den Chancen und Risiken der Digitalisierung in der Medizin beschäftigt.

Dabei wiederholen sich zwei zentrale Aussagen: Ja, die Digitalisierung und die künstliche Intelligenz eröffnen spannende Möglichkeiten für den Einsatz in der Medizin. Aber: Nein, Supercomputer und Algorithmen werden Ärzte und die Behandlung von Mensch zu Mensch nicht ersetzen können. Die Rede ist von künstlicher Intelligenz (KI) als Assistenzsystem für den Arzt – oder wie es Reinhard Strametz von der deutschen Hochschule RheinMain formuliert: „Die Vorteile menschlicher und künstlicher Intelligenz sollten kombiniert werden, das kann die Fehleranfälligkeit auf beiden Seiten reduzieren.“

Jedes Jahr werden drei Millionen medizinische Artikel publiziert: Eine Datenmenge, die für den einzelnen Arzt nicht zu erfassen ist. „Supercomputer“ hingegen können mit Millionen Seiten an Studien gefüttert werden, daraus lernen und Schlüsse ziehen. „Die KI lernt von den Millionen Datensätzen aus der ganzen Welt, so viele Fälle kann ein Arzt nie zu Gesicht bekommen“, bringt KI-Pionier Sepp Hochreiter das enorme Potenzial auf den Punkt.

Es lauern Gefahren

So sind trainierte Algorithmen schon besser darin bösartige Melanome von harmlosen Muttermalen zu unterscheiden als Hautärzte. KI-Systeme können darauf trainiert werden, in Bildern aus CT oder MRT Tumore zu erkennen. In Zukunft könnte KI neue Biomarker – biologische Merkmale im Körper, die typisch für Krankheiten sind – finden, um Krankheiten frühzeitig zu erkennen.

Anwendungen von KI in der Medizin

Herz: Beim EU-Projekt PROFID ermittelte ein selbstlernender Algorithmus, wie groß das Risiko von Herzpatienten für einen plötzlichen Herztod ist. Das Resultat: eine genauere Prognose.

Grüner Star: Das Glaukom ist eine Erkrankung des Sehnervs. Digitale Systeme, die mit Bildern von gesunden und erkrankten Sehnerven gefüttert werden, können frühe Veränderungen erkennen.

Hautkrebs: Mit mehr als 100.000 Bildern lernte ein neuronales Netzwerk, Melanome von gutartigen Muttermalen zu unterscheiden. Im Vergleich diagnostizierte es besser als Hautärzte.

Lungenkrebs: Forscher der New York University trainierten einen Algorithmus darin, Lungenkrebs in Gewebe-Biopsien zu erkennen. Die künstliche Intelligenz schnitt dabei gleich gut ab wie Pathologen.

Auge: Glaukom, Makuladegeneration und diabetische Retinopathie: Diese Erkrankungen des Auges kann die Deep Learning Software Pegasus an Aufnahmen des Augenhintergrunds erkennen.

Beobachtung: Künstliche Intelligenzsysteme können eine Verschlechterung des Zustands von Patienten frühzeitig erkennen, indem sie Vitalparameter (z.B. Herz- und Atemfrequenz) überwachen.

KI’s könnten auch voraussagen, bei welchen Patienten Therapien wirken, bei welchen nicht – auf Basis gigantischer Datenmengen. Solche Anwendungen sind aber nur so gut wie die Daten, mit denen sie gefüttert werden – und genau hier liegt eine der Gefahren, die mit KI in der Medizin einhergeht: Wird eine Einseitigkeit (“Bias“) in den Algorithmus eingebaut – was auch unbeabsichtigt, durch die persönlichen Einstellungen eines Entwicklers passieren könne – würden gewisse Patienten benachteiligt behandelt werden.

Auch Strametz zeigt auf: „Ohne menschliche Kontrolle treffen Algorithmen irgendwann Entscheidungen über Leben und Tod.“ Sind diese Entscheidungen ethisch akzeptabel? Verwehrt einem der Algorithmus eine lebensrettende Therapie, wenn die Heilungschancen unter einem errechneten Prozentwert liegen? Welche ethischen Sicherheitsnetze sind notwendig? „Diese Fragen müssen vor der breiten Einführung von KI in der Medizin geklärt werden“, sagt Strametz, „also jetzt!“

Weniger Tierversuche

Daten sind Basis jeder künstlichen Intelligenz und Pharmaunternehmen haben mit ihren Testreihen einen echten Datenschatz. Das erkannte man bei Boehringer-Ingelheim und digitalisierte die Forschung der vergangenen 60 Jahre. Auf diesen setzt „ADAM“ auf. Das KI-Programm vereinfacht die Entwicklung neuer Wirkstoffe.

Beim Entwurf eines Wirkstoffmoleküls unterstützt ADAM die Forscher in dem es Bausteine vorschlägt oder vor möglichen Problemen warnt. Durch ADAM habe sich die Zeit vom Beginn der Entwicklung bis zum ersten klinischen Testkandidaten halbiert. ADAM biete hier Unterstützung, sagt Innovationschef Michel Pairet. „Die finale Entscheidung trifft immer ein Mensch.“

In einem weiteren Schritt soll das System erkennen, ob und wie giftig das neue Molekül ist. „Wird ein bestimmter Wert überschritten, können wir sagen: Ok, dieses Substanz brauchen wir nicht in Mäusen zu testen. Hier werden wir Tierversuche sparen“, erklärt Pairet. Eine Herausforderung ist die neue Zusammensetzung der Forscherteams. Data-Scientists arbeiten mit Chemikern und Biologen zusammen.

Bereits im Einsatz

Der Algorithmus als Redakteur 2.0

Aus Daten werden Texte: Automatische Textgenerierung durch künstliche Intelligenz verändert den Journalismus nachhaltig. Die EU-Wahl war hierzulande ein Meilenstein.

Szenario einer fernen Zukunft: Ein Textprogramm verfasst für ein Nachrichtenmedium einen leidenschaftlichen Leitartikel über die Notwendigkeit staatlicher Investitionen in Technologien mit Künstliche Intelligenz (KI). Beißt sich da eine auf Leiterplatten basierende Katze in den Schwanz? Strategisches Lobbying der Künstlichen Intelligenz für die eigene Sache? Technologisch und institutionell sind Redaktionen von dieser Qualität journalistischer Algorithmen noch unabsehbar weit entfernt.

Intelligenz ist bei den österreichischen Medienmachern noch fast ausschließlich durchblutet und nicht elektrifiziert. In anderen Ländern und Erdteilen sind Entwicklung und Akzeptanz weiter: So soll bereits ein Drittel der Berichte von Bloomberg News von ihrem „Cyborg“ genannten automatischen System (mit)verfasst sein. Sobald Finanzdaten veröffentlich werden, extrahiert „Cyborg“ die relevantesten zu einem Artikel. Im Geschwindigkeitsrennen der Finanzwelt ist diese Eile goldwert.

Nicht immer hält der Inhalt, was das sexy-Etikett der „künstlichen Intelligenz“ verspricht. Das gilt auch für den Journalismus. Tatsächlich erfüllen die gerne als Roboterjournalisten bezeichnete KIs häufig nicht die Bedingungen, um als klug bezeichnet zu werden. Das weiß auch Katharina Schell, Mitglied der Chefredaktion der Austria Presse Agentur (APA) und dort für digitale Innovationen zuständig: „Wenn derzeit von KI-Journalismus geredet wird, ist das zu 99 Prozent falsch. Ich persönlich verstehe unter künstlicher Intelligenz einen Algorithmus, der aus eigener Kraft auf etwas draufkommt.“

Hauptsächlich Lückentexte

Der Mehrwert des maschinellen Lernens auf Basis künstlicher neuronaler Netzwerke ist häufig noch Zukunftsmusik. Ein Großteil der heute genutzten Systeme sind allenfalls KI-gestützte Lückentexte. „Schwache künstliche Intelligenz gibt es. Starke künstliche Intelligenz wird wohl erst in den nächsten Dekaden kommen“, prognostiziert Retresco-Chef Alexander Siebert gegenüber dem Medienwissenschaftler Stefan Weber. Das Berliner Unternehmen Retresco ist eines der führenden Unternehmen der Branche.

Kommen Textalgorithmen in Redaktionen journalistisch zur Anwendung, ist ein ausgeprägtes Datenreservoir Voraussetzung für Erfolg, weshalb sich beim aktuellen technologischen Stand insbesondere die Bereiche Wirtschaft, Sport und Wetter für KI-Verwertungen eignen. Das Prinzip: Die zu verwendenden Daten werden definiert und in vorgegebene Sätze eingefügt. Was simpel klingt, ist in der Praxis aufwendig und wird durch die grammatische Komplexität der deutschen Sprache zusätzlich erschwert. Zugleich sind die Möglichkeiten nach oben offen, erklärt Schell: „Je mehr Zeit man investiert, desto mehr solcher Entscheidungen pro Text trifft das Programm.“ Damit gehen neue Anforderungen an Redakteure einher: Neben grammatikalischer Affinität und einer angepassten Erzählweise braucht es Grundverständnis für das Programmieren.

Testfall Europawahl

Die Anwendungsmöglichkeiten im Rahmen politischer Wahlen zeigte die APA bei der EU-Wahl am vergangenen Sonntag: Die Wahldaten aller 2096 österreichischer Gemeinden wurden in eine variantenreiche Textform gebracht und waren online auch unter kleinezeitung.at abrufbar. Ein hierzulande in dieser Größenordnung einzigartiges Pilotprojekt, das die Stärken automatisierter Textgenerierung zeigt: Hyperlokale Berichte, in Sekundenschnelle generiert, die es ohne Automatisierung in dieser Form nur mit sehr großen Personalressourcenaufwand geben hätte können.

Ängste oder Hoffnungen, Künstliche Intelligenz könnte kreative, recherchierende und selektierende Journalisten aus Fleisch und Blut ersetzen, hält Schell für unbegründet: „Dass im Journalismus durch Automatisierung etwas einzusparen ist, sehe ich derzeit nicht.“ Stattdessen entstünden in der Berichterstattung Möglichkeiten, Inhalte verständlicher, individueller und anschaulicher zu vermitteln: „Der Hauptjob von Journalisten ist nach wie vor, zu erzählen, einzuordnen und Kontext herzustellen. Das kann man natürlich mit solchen Strategien besser, als wenn man nur die Daten zur Verfügung stellt.“

Auch deswegen wird weltweit auf automatisierte KI-Lösungen gesetzt. Die Schweizer Tamedia setzt auf „Tobi“, während Forbes den Reportern von „Bertie“ erste Entwürfe und Vorlagen für ihre Artikel liefern lässt. Die Washington Post hat ein KI-Reporter namens „Heliograf“ in Verwendung, der bereits mit einem, wenn man so will, journalistischen Preis ausgezeichnet wurde: Den „Excellent in Use of Bots“ gab es für die Berichterstattung über die US-Wahlen 2016. Und die LA Times nutzen ihr Textprogramm für Berichte über Kriminalfälle und Erdbeben.