Media Rule-Based Neural Networks: Next Generation Explainable AI

Rule-Based Neural Networks: Next Generation Explainable AI

uploaded June 11, 2022 Views: 90 Comments: 1 Favorite: 4 CPD
Speakers: 
Description:

Die Einsatzmöglichkeiten für Maschinelles Lernen und Künstliche Intelligenz (KI) scheinen grenzenlos zu wachsen. Doch mit zunehmendem Anwendungsspektrum steigt auch das Sicherheitsrisiko und dadurch die allgemeine Besorgnis. Eine grundlegende Eigenschaft sicherer KI-Systeme ist ihre Transparenz. Mit den „Rule-Based Neural Networks“ stellen wir einen neuartigen Ansatz vor, der die Vorgehensweise von KI-Anwendungen von Grund auf nachvollziehbar macht. Aus der Verbindung Regelbasierter Systeme mit Neuronalen Netzen entsteht eine neue Generation erklärbarer KI’s.In der Europäischen Union wird mit Hochdruck an der Schaffung eines rechtlichen Rahmens für die Erforschung, Herstellung und den Betrieb Künstlicher Intelligenz gearbeitet. Ein wesentlicher Bestandteil wird die Forderung nach Transparenz beim Einsatz von KI-Systemen sein.  Warum ist es so schwer, eine transparente KI zu erschaffen? Das liegt daran, dass Neuronale Netze keine rational denkenden Wesen sind. Ihre Ausgaben haben dieselbe Zuverlässigkeit wie Entscheidungen, die „mit Bauchgefühl“ getroffen werden: Bei der gegebenen Antwort weiß niemand, warum diese so ausgefallen ist – und erst recht nicht, ob sie korrekt ist. Hat die KI alle Eingabedaten berücksichtigt oder hat sie welche übersehen oder sogar vorsätzlich außer Acht gelassen? Welche Annahmen macht die KI bei ihren Berechnungen? Inwieweit geht die Entscheidung kausal aus den Daten und Annahmen hervor?Nur eine scheinbare Lösung ist es, den zeitlichen Verlauf und die lokale Verschaltung der Neuronen-Aktivierung aufzunehmen. Dadurch wird zwar eine Messbarkeit erzeugt, die aber von der Erklärbarkeit noch weit entfernt ist. Ein anderer unbefriedigender Ansatz sind Blackbox-Analysen, wie z. B. Local Interpretable Model-Agnostic Explanations (LIME). Sie können nur lokal weiterhelfen.Was wirklich benötigt wird, ist ein klares Protokoll der von der KI getroffenen Entscheidungen. Ähnlich der kausalen Kette bei einer richterlichen Entscheidung, muss die Vorgehensweise der KI in jeder Stufe nachvollziehbar werden.

Tags:
Content groups:  content2022

1 Comments

Rentenatus
Rentenatus

84 Days ago

02.02.2024, Kommentar vom Autor:

Google hat am 17.01.2024 eine hybride Architektur mit entsprechenden Architektur heraus gebracht. Diese Kombination aus LLM und Symbolic Engin heißt "AlphaGeometry" und ist im Moment auf mathematische, geometrische Aufgaben spezialisiert.
(https://deepmind.google/discover/blog/alphageometry-an-olympiad-level-ai...).

Letztendlich ist es austauschbar, welche Semantik der Regelbasierte (symbolische) Teil der KI behandelt. Ob juristische Entscheidung oder mathematische Beweise, die kausale Kette, die dank des integrierten Expertensystems (hier Symbolic Engin) immer bei der Arbeit der hybriden KI entsteht, erzeugt die Selbsterklärbarkeit der KI.

Zumindest weiß ich nun, dass ich seit gut zwei Jahren auf dem richtigen Pfad war.

Ein Video auf Youtube gibt es hier: https://youtu.be/NrNjvIrCqII?si=mhrhD-8n5oCM0vBs