19. Februar 2019

Neues Denken außerhalb der Black Box: Erklärbarkeit und Vertrauenswürdigkeit von Künstlicher Intelligenz

Die Forschungsgruppe Machine Learning am Fraunhofer HHI, geleitet von Wojciech Samek, erweitert Künstliche Intelligenz (KI) und deren Potential für die Implementierung in kritischen Bereichen wie dem Gesundheitswesen oder der Ingenieurtechnik.

Über die letzten Jahre hinweg ist KI weitgehend unauffällig Teil unseres Alltags geworden und spielt in vielen Bereichen eine Rolle (z. B. Produktion, Werbung, Kommunikation). Diese wachsende Präsenz von KI wird durch die Verfügbarkeit riesiger Datenmengen (Big Data), die steigende Leistungsfähigkeit von Computern und die Verbesserung der Algorithmen für Maschinelles Lernen ermöglicht. Allerdings wurde das Potential von KI, im Sinne ihrer Anwendung zum optimalen Nutzen für die Gesellschaft, bisher noch nicht vollständig realisiert. Dies wird besonders deutlich im medizinischen Bereich, wo KI die dringend benötigte Entlastung für Fachkräfte bringen könnte, aber gleichzeitig Zurückhaltung in der Anwendung besteht. Ähnlich ist die Situation im ingenieurtechnischen Bereich, wo es vielversprechende Ansätze für KI wie dem autonomen Fahren gibt. Jedoch gibt es bisher kaum autonome Fahrzeuge auf den Straßen. Laut Wojciech Samek liegt das „an der mangelnden Transparenz und Verlässlichkeit KI-basierter Vorhersagen“. Obwohl sich schon gezeigt hat, dass KI den Menschen bei der Bewältigung bestimmter Aufgaben übertreffen kann, braucht ihre Akzeptanz und Einbindung noch Zeit – vor allem, wenn nicht klar ist, ob die Technologie mit gängigen Zuverlässigkeitsstandards kompatibel ist. Die Forschungsgruppe Machine Learning arbeitet an Lösungen für die Problemfelder von KI – Erklärbarkeit, Vertrauenswürdigkeit und Datenschutz bei der Anwendung von Deep Models – damit KI in allen Bereichen sicher implementiert werden kann, inklusive dem Gesundheitswesen und der Ingenieurtechnik.

Erklärbare KI

Eine klassische Anwendung von Maschinellem Lernen ist die Erstellung von Vorhersagen auf der Basis von Input-Daten. Im Gesundheitsbereich betrifft das Bereiche wie Bilderkennung oder Zeitreihenanalyse. Bei der Bilderkennung wird Bildmaterial (z. B. Röntgenbilder) als Input in ein KI-System gegeben und heraus kommt eine Vorhersage (z. B. Diagnose) als Output. Bei der Zeitreihenanalyse wird eine Zeitreihe von Daten (z. B. EKG) als Input in ein KI-System gegeben und heraus kommt eine Vorhersage (z. B. Diagnose) als Output. Wenn das fehlerfrei funktioniert, können derartige Vorhersagen die Arbeitsabläufe von Fachkräften im Gesundheitsbereich revolutionieren und ihnen ermöglichen, sich mehr auf die Patienten und deren Behandlung zu konzentrieren. Ähnlich ist es im Bereich des autonomen Fahrens, wo Bilderkennung (z. B. Straßenschilder identifizieren) die Navigation steuern und für Sicherheit im Verkehr sorgen kann.

Allerdings basiert die Vorhersage eines KI-Systems auf der Qualität der Input-Daten. Falls diese verzerrt oder unvollständig sind, können Fehler in die KI gelangen, sodass die Vorhersage (z. B. eine Diagnose) nicht verlässlich ist. Deshalb beschäftigt sich die Machine Learning Group mit beidem, der Qualität der Input-Daten und der Erklärbarkeit der Vorhersagen.

Bei der Lösung von Problemen der Datenqualität (z. B. unvollständige Datensätze und Multimodalität) kooperiert das Fraunhofer HHI mit dem Berlin Big Data Center und dem Berliner Zentrum für Maschinelles Lernen. Für die Problemfelder bei bildgebenden Verfahren im Gesundheitsbereich (z. B. hohe Dimensionalität, räumlich-zeitliche Bildkorrelationen, fehlende Messungen, relativ kleine Probengrößen) entwickelt die Machine Learning Group neue Deep Learning-basierte Frameworks. Als Antwort auf die mangelnde Transparenz von KI-Systemen wählte die Machine Learning Group einen Ansatz außerhalb des üblichen Schachteldenkens. In Zusammenarbeit mit der TU Berlin entwickelte sie eine neuartige Methode für Erklärbare KI, genannt Layer-Wise Relevance Propagation. Sie ermöglicht den Anwendern, von der KI-Vorhersage aus durch die komplexen nichtlineare Netzwerke eines KI-Algorithmus zurück zu gehen und zeigt ihnen dabei die einzelnen Input-Elemente, die für eine Vorhersage (z.B. für eine Bildklassifizierung oder eine Diagnose) benutzt wurden. Wie funktioniert das in der Praxis? Im Fall der Bildgebung kann Erklärbare KI den Beitrag jedes Pixels für die Klassifizierung quantifizieren. Wenn also ein Gewebe-Bild in eine KI eingegeben wird, besteht die Vorhersage aus der Klassifikation („krebsartig“, „nicht-kanzerös“) UND der Angabe der Basis für diese Klassifikation (z. B. eine Heatmap mit spezieller Kennzeichnung derjenigen Pixel, die zur entsprechenden Klassifikation geführt haben). Für KI-Anwendungen, bei denen ein Irrtum ausgeschlossen sein muss (z. B. Diagnosen im Gesundheitsbereich, autonomes Fahren) schafft Erklärbare KI das nötige Vertrauen in KI-Vorhersagen. Sie gibt außerdem Hinweise, in welchen Bereichen und wie eine KI verbessert werden kann.

Vertrauenswürdige KI

Neben der Thematik der Erklärbarkeit erforscht die Machine Learning Group auch die Möglichkeiten zur Steigerung der Vertrauenswürdigkeit von KI. Deep Models können getäuscht werden. Das kann zufällig passieren oder als Ergebnis eines Störangriffs. Im medizinischen Kontext kann die Art und Weise wie Daten gesammelt werden (z. B. der Ersatz eines alten Röntgengeräts durch ein neues) die Qualität und Verteilung der Input-Daten beeinflussen. Ohne einen sorgfältigen Abgleich dieser Daten kann die Vorhersage eines KI-Algorithmus unzuverlässig werden. Zur Lösung dieses Problems entwickelt die Machine Learning Group Techniken für die Integration von A priori-Wissen, um die Genauigkeit KI-basierter Vorhersagen zu erhöhen. Zusätzlich sorgen diese Techniken für ein Maß an Vertrauen.

Bei einem feindlichen Angriff werden die Input-Daten auf eine Weise verändert, die von Menschen nicht erkannt werden kann, aber trotzdem die Vorhersagen eines KI-Algorithmus entscheidend beeinflusst. Beim autonomen Fahren beispielsweise kann die Manipulierung von Verkehrszeichen eine KI täuschen und zu fatalen Folgen führen. Für sensible Anwendungsbereiche stellen feindliche Angriffe ein ernsthaftes Problem dar mit entsprechend negativen Auswirkungen auf die Akzeptanz der KI-Technologie. Die Machine Learning Group erforscht fortgeschrittene Denoising-Techniken, um das künstliche Signal aus den Input-Daten zu entfernen.

Datenschützende KI

Bedenken bei der Anwendung von KI gibt es auch hinsichtlich des Schutzes von persönlichen Daten (z. B. Gesundheitsdaten). Üblicherweise werden persönliche Daten am Datensammlungsort (z. B. Klinik) entnommen, anonymisiert und zentralisiert, um damit eine KI zu trainieren. Im Zuge dieses Prozesses besteht das Risiko einer Beeinträchtigung der Daten. Um dieses Problem zu vermeiden und sicher zu stellen, dass Daten mit äußerster Sorgfalt und Diskretion behandelt werden (z. B. entsprechend den Bestimmungen der DSGVO), verweist Wojciech Samek auf die Möglichkeit „die KI ins Krankenhaus zu bringen“. Durch eine Methode bekannt als „Verteiltes Lernen“ kann ein KI-Algorithmus am Ort des Datensammelns (z. B. Klinik) trainiert werden. Das ist beispielsweise hilfreich, wenn Datensätze von verschiedenen Kliniken für Training und Update desselben (geteilten) KI-Algorithmus benutzt werden. Diese Daten müssen nicht mehr anonymisiert werden, denn sie bleiben immer in der der Klinik. „Bei bestimmten Leiden und Erkrankungen, die eine große geographische Verteilung aufweisen, können wir auf diese Weise ein KI-Modell trainieren und gleichzeitig die logistischen und rechtlichen Barrieren bei der Mitnahme von Daten aus der Sammelstelle vermeiden“ merkt Wojciech Samek an.

Diese drei Aspekte (Erklärbarkeit, Vertrauenswürdigkeit und Datenschutz) sind nur einige wenige Beispiele, wie die Machine Learning Group das Forschungsfeld Künstliche Intelligenz weiterentwickelt und damit die Integration von KI in sensible Bereiche wie Gesundheitswesen und Ingenieurtechnik ermöglicht. Indem die Machine Learning Group mit ihren Forschungen Erkenntnisse über die Entscheidungsabläufe bei KI gewinnt, ermöglicht sie einen weiteren Schritt hin zur Einführung von Zuverlässigkeitsstandards (und Zertifizierungen) bei KI.