<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=664062317274151&amp;ev=PageView&amp;noscript=1">

Nehmen Sie Koktakt auf

Security

Explainable AI bringt Licht in die Blackbox

In Ihrem Netzwerk teilen:
    

Erstellt: 26.11.2018

Die europäische Weltraumbehörde ESA erstellt Satellite Data von der Erde. Diese Daten sind in der Open Telekom Cloud für jeden zugänglich.


 explainable_al_bringt_licht_in_die_blackbox

Das Forschungsfeld „explainable AI“ hat einen neuen Motor: die europäische Datenschutzgrundverordnung. Denn die verpflichtet KI-Systeme zur Transparenz. Eine Forderung, die bislang nicht ganz einfach zu erfüllen ist. Warum? Blicken wir doch kurz zurück zu Googles Entwicklerkonferenz I/O. Ihr Highlight: Google Duplex, eine KI, die selbstständig einen Friseurtermin am Telefon ausmacht. Spontane Sprechpausen, einige eingestreute „Mmhs“ – und schon war die Computerstimme nicht mehr von der eines Menschen zu unterscheiden. Die Resonanz? Jubel bei den Google-Experten im Publikum. Ansonsten? Eher durchwachsen. Grund: Google Duplex klingt einfach zu echt.

KI-Anteil offen legen

Denn: Ist es wirklich okay, wenn mich eine Software anruft und ich halte sie für einen Menschen? Die europäische Datenschutzgrundverordnung (DSGVO) gibt darauf eine klare Antwort: Sie zwingt die Unternehmen auch in Sachen Künstlicher Intelligenz zu Transparenz. Sobald sich automatisierte Entscheidungen auf Personen auswirken, müssen sie nachvollziehbar und erklärbar sein. Unternehmen sind dazu verpflichtet, den KI-Anteil in ihren Leistungen, Produkten, Analysen oder Prozessen offenzulegen. Bei Google Duplex lässt sich diese Transparenz noch ohne grosse Schwierigkeiten erreichen. So verspricht das Unternehmen aus Mountain View in einer Stellungnahme auf der US-Technikseite The Verge, dass sich die Künstliche Intelligenz künftig als solche am Telefon zu erkennen gibt, um Missverständnissen vorzubeugen.

Die DSGVO fordert Transparenz

Meist ist die Forderung nach Transparenz aber schwieriger zu erfüllen. Was genau beim maschinellen Lernen passiert, versteckt sich häufig in einer Blackbox. Warum zum Beispiel Deep-Learning-Netzwerke nach entsprechendem Training eine Katze als solche erkennen, weiss bislang kein Mensch. Achtet die KI auf die Schnurrhaare? Oder macht sie den Stubentiger an Schwanz, spitzen Ohren oder leuchtenden Augen fest? Selbst die Programmierer tappen im Dunkeln, wie die KI ihre Entscheidungen trifft. Deshalb fordert zum Beispiel Kate Crawford, leitende Wissenschaftlerin bei Microsoft Research, dass die wichtigsten öffentlichen Einrichtungen in den Bereichen Strafjustiz, Gesundheit, Wohlfahrt und Bildung keine Algorithmen mehr verwenden sollten. Denn bei zu vielen KI-Programmen, so die Expertin, seien im Nachhinein diskriminierende Tendenzen oder fehlerhafte Annahmen entdeckt worden. Maschinen entscheiden zwar konsistent, aber bei unpassender Programmierung eben auch konstant unangemessen.

KI-Entscheidungen müssen nachvollziehbar sein

In immer mehr Lebensbereichen ist KI relevant. Ihre Bedeutung wird weiter wachsen. Sie kann vieles: Medizinische Diagnosen stellen, Aktien für uns kaufen und verkaufen, unsere Kreditwürdigkeit überprüfen, ganze Geschäftsberichte analysieren oder Stellenbewerber auswählen. Mit so genannten „Scoring“-Verfahren bewertet uns Software nach bestimmten mathematischen Kriterien. Daher schreibt die DSGVO zum Schutz jeder einzelnen Person das „Recht auf Erklärung“ vor. Das heisst: Stellt eine betroffene Person einen Antrag, dann müssen Institutionen oder Unternehmen eine KI-Entscheidung oder -Risikobewertung nachvollziehbar erklären können.

Maschinelles Lernen deckt Betrugsfälle auf

An dieser Stelle aber wird es schwierig: „Die Rechtmässigkeit von Entscheidungen kann nur prüfen, wer die Datengrundlage, Handlungsabfolge und Gewichtung der Entscheidungskriterien kennt und versteht", schreibt der Rechtswissenschaftler Mario Martini in der Juristen Zeitung (JZ). Nur wenn KI-Entscheidungen nachvollziehbar sind, können sie erfolgreich hinterfragt werden, sagte auch die Juristin Sandra Wachter auf der Cebit. Die Wissenschaftlerin vom Oxford Internet Institute ist überzeugt, dass „jeder Algorithmus in klarer und verständlicher Sprache“ erklärt werden kann. Theoretisch. Bislang ist erklärbare Künstliche Intelligenz allerdings eine rare Spezies und nur selten in Betrieb – wie etwa bei der Danske Bank, die mit maschinellem Lernen Betrugsfälle aufdecken möchte. Besonderheit des Systems: Die Software entscheidet nicht nur, sondern begründet auch.

Explainable AI-Methode aus Berlin

Weltweit arbeiten Wissenschaftler an dieser Erklärbarkeit. Ihr Forschungsfeld: explainable Artificial Intelligence. Oder knackiger: xAI. Erklärbare künstliche Intelligenz oder erklärbares Maschinenlernen möchten ins elektronische Gehirn blicken. So setzt die Beratungsgesellschaft PricewaterhouseCoopers (PwC) xAI auf die Liste der zehn wichtigsten Technologietrends im Bereich Künstlicher Intelligenz.

Der Blick in die Blackbox ist jedoch sehr diffizil, weil neuronale Netze eben sehr komplex sind. Entscheidungen entstehen aus einem Zusammenspiel Tausender künstlicher Neuronen. Diese sind in Dutzenden bis Hunderten miteinander verbundenen Ebenen angeordnet – mit seinen vielfältigen Verschaltungen sind neuronale Netze dem menschlichen Gehirn nachempfunden. Auch in Berlin setzen Wissenschaftler jetzt das virtuelle Seziermesser an: Die Forschungsgruppe Machine Learning im Fraunhofer Heinrich-Hertz-Institut (HHI) hat dazu ein Verfahren entwickelt, das sich Layer-wise Relevance Propagation (LRP) nennt. Deren Leiter Wojciech Samek und sein Team haben ihre explainable AI-Methode erstmals 2015 publiziert – und stellten ihr xAI-Verfahren auch schon auf der Cebit vor.

Augen verraten das Alter

LRP lässt den Entscheidungsprozess eines neuronalen Netzes rückwärts laufen: Die Forscher registrieren, an welchen Stellen welche Gruppen von künstlichen Neuronen aktiviert sind – und welche Entscheidungen sie treffen. Anschliessend bestimmen sie, wie stark eine Einzelentscheidung das Endergebnis beeinflusst hat. Zur Visualisierung setzen sie auf Heatmaps: Geht es beispielsweise darum, wie KI Gesichter auf Bildern erkennt, dann färbt die HHI-Software genau die Bereiche ein, an denen der Algorithmus das Gesicht erkannt hat. So fanden die Forscher in ihrem Untersuchungsfall heraus, dass die Software die Mundpartie heranzieht, um das Geschlecht zu identifizieren, die Augen verraten ihr das Alter der betreffenden Person.

Explainable Artificial Intelligence: Der Lösungsweg zählt

Explainable AI spielt der DSGVO in die Hände, weil bei ihr wie früher im Matheunterricht nicht nur das Ergebnis, sondern auch der Lösungsweg zählt. Wenn es gelingt, Techniken des maschinellen Lernens zu entwickeln, mit denen sich besser erklärbare Modelle erzeugen lassen, dann dürfte dies das Vertrauen in die KI-Technologie auf Dauer stärken. PwC geht davon aus, dass viele Unternehmen die erklärbare KI zur Voraussetzung machen, ehe sie sich auf einer breiteren Basis auf Algorithmen-Anwendungen einlassen. Staatliche Behörden könnten mit der DSGVO die explainable AI sogar zur Vorschrift machen.

KI entwickelt sich zu Wettbewerbsvorteil

Und bis dahin? Überprüfen Unternehmen wie die Telekom die KI-Entscheidungen mit der Hilfe eines Review-Prozesses. Permanent checken die Mitarbeiter, ob die KI-Entscheidungen im Sinne des Unternehmens und der Betroffenen sind. Ist dies nicht der Fall, können sie jederzeit korrigierend eingreifen. „Wir sollten die Algorithmen mit einer Art KI-Governance versehen und verhindern, dass die Künstliche Intelligenz aus diesem Rahmen ausbricht“, sagt Claus-Dieter Ulmer, Konzernbeauftragter für den Datenschutz bei der Deutschen Telekom AG. Dann steckt in KI jede Menge Potenzial. In ihrem Strategiepapier „Künstliche Intelligenz als Innovationsbeschleuniger im Unternehmen“ sind sich die PwC-Experten sicher, dass sich KI künftig zum entscheidenden Wettbewerbsvorteil entwickeln wird, der über Erfolg und Misserfolg jedes Unternehmens entscheidet.

 

Lesen Sie mehr über IoT Themen in unserer Online Serie "Security".

Kontakt
Andrew Hutchison
Cyber Security Country Sales Specialist
Künstliche Intelligenz – quo vadis?

The state of artificial intelligence - jetzt Whitepaper herunterladen!

Einblicke in den aktuellen Stand der Entwicklung und mögliche Zukunftsszenarien gibt das neue Whitepaper «The State of Artificial Intelligence»

mehr erfahren

Serie: Security  Nur mit einer Sicherheitsarchitektur (Security by Design) sowie wirksamen  Schutzmechanismen können Unternehmen digitale Geschäftsmodelle nachhaltig  umsetzen. Mehr erfahren
Andrew Hutchison

Kontakt: Andrew Hutchison

Cyber Security Country Sales Specialist