Technologien und Lösungen

Concept Relevance Propagation

CRP ist eine neuartige Erklärbarkeitsmethode von tiefen neuronalen Netzen zum Verstehen von KI-Entscheidungen auf der Konzeptebene. Als Weiterentwicklung von LRP zeigt CRP für eine Entscheidung nicht nur auf, welcher Teil der Eingabedaten relevant ist, sondern kommuniziert, welche Konzepte genutzt werden, wo sie in den Eingabedaten lokalisiert sind und welche Teile des neuronalen Netzes dafür zuständig sind. CRP setzt mit einer hohen Zugänglichkeit für den Menschen neue Maßstäbe in der Validierung und Interaktion mit einer KI.

Weiterlesen

Prüfung, Absicherung und Zertifizierung von KI-Systemen

Das Fraunhofer Heinrich-Hertz-Institut (HHI) hat zusammen mit dem TÜV-Verband und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) das gemeinsam entwickelte Whitepaper mit dem Titel "Towards Auditable AI Systems: From Principles to Practice" veröffentlicht, in dem die Verwendung einer neu entwickelten "Certification Readiness Matrix" (CRM) vorgeschlagen und ein erstes Konzept vorgestellt wird.

Weiterlesen

Fraunhofer Neural Network Encoder/Decoder (NNCodec)

Für die effiziente Codierung neuronaler Netze, hat das Fraunhofer HHI eine einfach zu nutzende und NNC-Standard-konforme Software – NNCodec – entwickelt und auf GitHub zur Verfügung gestellt.

Weiterlesen

Layer-wise Relevance Propagation (LRP)

Layer-wise Relevance Propagation (LRP) ist eine patentierte Technologie zur Erklärung von Vorhersagen von tiefen neuronalen Netzwerken und anderen "Black Box" Modellen. Die von LRP produzierten Erklärungen (sog. Heatmaps) erlauben es den Anwender die Vorhersagen der KI zu validieren und potentielle Fehlermodi zu identifizieren.

Weiterlesen

Spectral Relevance Analysis (SpRAy)

XAI-Methoden wie LRP zielen darauf ab, die Vorhersage von ML-Modellen transparent zu machen, indem sie ein interpretierbares Feedback zu einzelnen Vorhersagen des Modells liefern und die Wichtigkeit von Eingangsmerkmalen in Bezug auf bestimmte Stichproben bewerten. Basierend auf diesen Einzelerklärungen erlaubt SpRAy, ein allgemeines Verständnis über die Empfindlichkeiten eines KI-Modells, gelernte Merkmale und Konzeptkodierungen zu erhalten.

Weiterlesen

Class Artifact Compensation (ClArC)

Heutige KI-Modelle werden in der Regel mit extrem großen, aber nicht immer hochwertigen, Datensätzen trainiert. Unbemerkte Fehler in der Daten oder falsche Korrelationen verhindern oftmals, dass der Prädiktor eine gültige und faire Strategie zur Lösung der anstehenden Aufgabe lernt. Die ClArC-Technologie identifiziert potentielles Fehlverfahren eines Models anhand seiner (LRP) Erklärungen und retrainiert die KI gezielt, um das Problem zu lösen.

Weiterlesen