Hochschule Harz

Prof. Frieder Stolzenburg: „Neuronale Netze funktionieren im Wesentlichen wie eine Black-Box“

Von Claudia Aldinger | 14. Dezember 2019

Künstliche Intelligenz (KI) entsteht heutzutage vor allem über eine Methode: Deep Learning. Maschinen werden mit Daten gefüttert, mit denen sie selbstständig trainieren und immer zuverlässiger Muster erkennen. Doch die Methode hat auch Nachteile, zum Beispiel die Notwendigkeit riesiger Datenmengen. Zudem gibt es andere Ansätze, an denen KI-Forscher arbeiten, zum Beispiel Maschinen so etwas wie gesunden Menschenverstand beizubringen (siehe dazu auch den Artikel in brandeins 2019/5 „Blick zum Horizont“).  Prof. Frieder Stolzenburg ist an der Hochschule Harz berufen für das Gebiet Wissensbasierte Systeme und geht diversen Themen der Künstlichen Intelligenz nach. Seit 2018 forscht er unter anderem im Rahmen des DFG-Projekts „Cognitive Reasoning“ an neuen Ansätzen für maschinelles Lernen in Kombination mit weiteren KI-Verfahren.

Herr Prof. Stolzenburg, für wie zukunftsfähig halten Sie die Methoden des Deep Learnings?

Deep Learning bezeichnet Methoden künstlicher neuronaler Netze, die eine tiefe Architektur haben, also sehr viele Neuronen, die quasi als viele kleine, parallel arbeitende Recheneinheiten zusammengeschaltet sind und so effektiv Muster und Strukturen in großen Datenmengen erkennen können. Das Gebiet der künstlichen neuronalen Netze allgemein gibt es eigentlich schon seit über 60 Jahren. Aber erst durch die heute verfügbare schnelle Computerhardware und intelligente, lokale Verarbeitung von Informationen sind sie so erfolgreich, z.B. bei der Erkennung von Objekten auf Bildern, bei der maschinellen Übersetzung, in Suchmaschinen oder bei der Qualitätsprüfung in industriellen Prozessen.


Die Präzision dieser Verfahren ist hoch. Zum Beispiel können Verkehrsschilder heutzutage recht zuverlässig und schnell durch Methoden des Deep Learning erkannt werden. Damit neuronale Netze dazu in der Lage sind, müssen sie allerdings in der Regel mit einer sehr großen Menge an Beispielen trainiert werden. Außerdem funktionieren neuronale Netze im Wesentlichen wie eine Black-Box. Erklärungen oder Begründungen, warum eine bestimmte Entscheidung getroffen wurde, fehlen. Hier besteht noch großer Forschungs- und Weiterentwicklungsbedarf auf dem Gebiet des Deep Learning. Klassische KI-Verfahren aus den Gebieten der Bildverarbeitung, der Robotik oder der Wissensverarbeitung allgemein werden dadurch auch nicht überflüssig.

spc

"Außerdem funktionieren neuronale Netze im Wesentlichen wie eine Black-Box. Erklärungen oder Begründungen, warum eine bestimmte Entscheidung getroffen wurde, fehlen. Hier besteht noch großer Forschungs- und Weiterentwicklungsbedarf auf dem Gebiet des Deep Learning."
Prof. Frieder Stolzenburg

spc

An welchem Ansatz forschen Sie in dem Projekt „Cognitive Reasoning“? Wie unterscheidet er sich vom „Deep Learning“?

Das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Projekt Cognitive Reasoning zielt ab auf die Modellierung der menschlichen Fähigkeit, trotz unvollständigem und inkonsistentem Wissen sinnvolle Schlussfolgerungen zu ziehen. Im Projekt arbeitet meine Mitarbeiterin Sophie Siebert und Kollegen bei unserem Kooperationspartner, der Universität Koblenz, mit. Wir befassen uns im Projekt mit Problemen des sogenannten Commonsense Reasoning, also Fragen, die mit gesundem Menschenverstand zu lösen sind. Im Internet gibt es hier diverse Datensammlungen von natürlichsprachlichen Multiple-Choice-Fragen und Antwort-Möglichkeiten, mit denen wir uns beschäftigen.


Die oben genannten Probleme des Deep Learning treten hierbei alle auf: Um mithilfe maschinellen Lernens automatisiert Fragen korrekt zu beantworten, werden zum einen Unmengen an Trainingsbeispielen benötigt. Zum anderen möchte man natürlich gerne begründet haben, warum eine bestimmte Antwort gegeben bzw. ausgewählt wird. Explainable AI, also eine erklärende KI ist hier das Stichwort. Im Projekt gehen wir dieses Thema durch eine Kombination von Methoden an: Explizites Wissen in Form von logischen Regeln und Fakten wird ausgenutzt und Wissensbasen einbezogen. Ein automatischer Beweiser zieht daraus inhaltliche Schlussfolgerungen. Diese fließen in das Training mittels Deep Learning ein. Die neuronalen Netze sollen so Wissenslücken oder gar Inkonsistenzen im expliziten logischen Wissen überwinden. Aus dieser Kombination von informatischer Logik und neuronalen Netzen versprechen wir uns viel.

Welche Anwendungsgebiete wären denkbar?

Die Fragestellung im Projekt ist zunächst eine grundlegende, nämlich inwiefern das Beantworten natürlichsprachlicher Fragestellungen durch einen Computer realisiert werden kann. Daraus ergeben sich aber vielfältige Anwendungsmöglichkeiten, z.B. für semantische Suchmaschinen, die vollständige Fragen beantworten können oder für Chatbots, also textbasierte Dialogsysteme, die etwa Kundenanfragen zumindest vorläufig abhandeln. Das Thema Explainable AI insgesamt wird in Zukunft immer größere Bedeutung erlangen, nicht nur in der Verarbeitung natürlicher Sprache, sondern auch bei der medizinischen Bildanalyse und in vielen anderen Gebieten.

 

spc
spc

Informationen und Kontakt

Prof. Dr. Frieder Stolzenburg
03943-659333
fstolzenburg@hs-harz.de

Persönliche Homepage

Homepage des Labors für mobile Systeme

 

Text und Bilder (soweit nicht anders benannt): Claudia Aldinger

 

Das KAT-Netzwerk hat die KI-Forschung an der Hochschule Harz unter anderem über das Labor für mobile Systeme unterstützt.

weitere Artikel zum Thema:

Labor für mobile Systeme: Künstliche Intelligenz erobert die Lüfte

InfraKopter: Roboter vermessen die Landschaft mit unsichtbaren Strahlen