Kategorie: Forschung und Entwicklung

Hier finden Sie Projekte von Forschern der Innovationsplatform sowie eine Liste der Veröffentlichungen im Bereich Machine Learning and Data Analytics.

A-Eye: Fahren mit den Augen der KI

A-Eye: Fahren mit den Augen der KI

Fahrersicht: Oben der semantische Fahrer, unten der Sicherheitsfahrer
Prüfstand

Das Ziel dieser Arbeit ist die Anreicherung von Trainingsdaten für das autonome Fahren mit so genannten Corner Cases. Im Straßenverkehr sind Corner Cases kritische, seltene und ungewöhnliche Fahrsituationen, die eine Herausforderung für die Wahrnehmung durch KI-Algorithmen darstellen. Zu diesem Zweck hat sich die Arbeitsgruppe Stochastik von Prof. Hanno Gottschalk einen Prüfstand überlegt mit dem synthetische Corner Cases mit einem Human-in-the-Loop-Ansatz und der Open-Source-Fahrsimulationssoftware CARLA (https://carla.org/) erzeugt werden können. Für den Prüfstand wird ein semantisches Echtzeit-Segmentierungsnetz trainiert und so in die Fahrsimulationssoftware CARLA integriert, dass ein Mensch auf Basis der Vorhersage des Netzes fahren kann. Zusätzlich bekommt eine zweite Person die gleiche Szene aus der Original-CARLA-Ausgabe zu sehen und soll mit Hilfe einer zweiten Steuereinheit eingreifen (Tritt auf die Bremse oder Eingriff ins Lenkrad), sobald der semantische Fahrer ein gefährliches Fahrverhalten zeigt. Eingriffe deuten auf eine schlechte Erkennung einer kritischen Szene durch das Segmentierungsnetz hin und stellen dann einen Corner Case dar. In unseren Experimenten konnten wir zeigen, dass die gezielte Anreicherung von Corner Cases in den Trainingsdaten zu einer Verbesserung der Fußgängererkennung in sicherheitsrelevanten Situation im Straßenverkehr führt.

Preprint: https://arxiv.org/abs/2202.10803

UQGAN: A Unified Model for Uncertainty Quantification of Deep Classifiers trained via Conditional GANs

UQGAN: A Unified Model for Uncertainty Quantification of Deep Classifiers trained via Conditional GANs

Die AG Stochastik hat gemeinsam mit Kollegen der TU Dortmund eine Methode der Unsicherheitquantifizierung (UQ) für tiefe neuroanle Netze (DNNs) in der Bildklassifikation. Die Methode verwendet Daten generiert von generativen Adversialen Netzen (GAN), um für jede einzelne semantische Klasse durch Out-of-Class (OoC) Beispiele abzuschirmen. Das DNN wird als One-vs.-All Klassifizierer trainiert wobei echte daten und die synthetischen OoC Daten des GAN erhält. Als Resultat dessen ist die Methode in der Lage aleatorische und epistimische Unsicherheit separat anzuzeigen (siehe Abbildungen, hohe Unsicherheit ist orange, links aleatorisch, rechts epistemisch). Auf den MNIST und CIFAR10 Datensätzen verbessert diese Methode den State-of-the-Art bei GAN-basierter UQ deutlich.

Preprint: arxiv.org/abs/2201.13279

Entropie Maximierung und Meta Klassifikation zur Erkennung von unbekannten Objekten in der semantischen Segmentierung

Entropie Maximierung und Meta Klassifikation zur Erkennung von unbekannten Objekten in der semantischen Segmentierung

Semantische Segmentierung beschreibt die Aufgabe der Detektion und pixelweisen Lokalisierung von Objekten in Bildern. Dazu werden in der Praxis tiefe neuronal Netze als Modelle verwendet. Diese werden allerdings lediglich zur Detektion und Lokalisierung von Objekten trainiert, die aus einer Menge von vordefinierten Objekt-Kategorien entstammen. Dieses Vorgehen verhindert somit die Erkennung von semantisch unbekannten Objekten, die möglicherweise in realen Anwendung auftreten könnten, wie zum Beispiel dem automatisierten Fahren. In solche einer sicherheitskritischen Anwendung ist die Erkennung von Objekten, die ein Modell nicht zuverlässig verarbeiten kann, besonderes notwendig, um menschliches Eingreifen zu ermöglichen.

In unserer Arbeit präsentieren wir eine Methode zur Erkennung von semantisch unbekannten Objekten in Straßenszenen. Unsere Methode basiert auf Modellunsicherheit sowie gezieltes Nachtrainieren von Modellen zur semantischen Segmentierung. Gegeben der probabilistischen Ausgabe von tiefen neuronalen Netzen, quantifizieren wir die Modellunsicherheit mittels der Entropie. Wir forcieren eine hohe Entropie Antwort auf unbekannten Objekten, indem wir während des Trainings Bilder mit alltäglichen Objekten in alltäglichen Szenen einfließen lassen. Dazu verwenden wir bereits trainierte Modelle zur semantischen Segmentierung und führen eine modifizierte multikritielle Verlustfunktion ein, die einerseits die Entropie auf unbekannten Objekten maximiert und andererseits die bereits vorhandene Genauigkeit der semantischen Segmentierung auf bekannten Objekten beibehält. Außerdem versehen wir unsere Methode mit einem Meta Klassifikator, welcher automatisiert und zuverlässig Falschanzeigen auffindet und somit die Genauigkeit unserer Gesamtmethode zusätzlich fördert.

In unseren Experimenten stellen wir fest, dass unsere Methode zu einer deutlich verbesserten Erkennung von unbekannten Objekten in der semantischen Segmentierung von Straßenszenen führt. Dabei beobachten wir des Weiteren, dass die Entropie Maximierung auch auf weitere Objekte generalisiert, die in keiner der zusätzlichen Trainingsbilder mit alltäglichen Objekten enthalten waren.  Dies geht einher mit einem äußerst minimalen Verlust der Genauigkeit bei der eigentliche Aufgabe der semantischen Segmentierung. Somit trägt unsere Methode zu sichererem Einsatz von tiefen neuronalen Netzen in realen Anwendung bei.

Diese Arbeit wurde bei der Konferenz „International Conference on Computer Vision (ICCV) 2021“ veröffentlicht.

Open Access Version: ICCV 2021 Open Access Repository (thecvf.com) 

SegmentMeIfYouCan – Ein Benchmark für Anomalie Segmentierung

SegmentMeIfYouCan – Ein Benchmark für Anomalie Segmentierung

In Zusammenarbeit mit der ETH Zürich und der EPFL ist das im Folgenden beschriebene Projekt entstanden. Das entsprechende Paper wurde erfolgreich bei der NeurIPS 2021 eingereicht.
Tiefe neuronale Netze (DNNs) für semantische Segmentierung operieren für gewöhnlich auf einer abgeschlossenen Menge semantischer Klassen. Werden sie in der „offenen“ Welt verwendet, zum Beispiel für das autonome Fahren, so werden sie zwangsläufig auf Objekte treffen, welche keiner dieser Klassen angehören (Anomalien). Besonders für sicherheitsrelevante Applikationen ist es essentiell, Anomalien als solche zu erkennen und zu lokalisieren. Unsere SegmentMeIfYouCan Benchmark bietet die Möglichkeit, bestehende Methoden zur Anomalie-Segmentierung zu vergleichen, und soll weitere Forschung in diese Richtung fördern. Dabei wird zwischen zwei verschiedenen Aufgaben unterschieden: 1) Segmentierung aller anomalen Objekte und 2) Segmentierung von Hindernissen auf der Straße (bekannt oder unbekannt). Mit RoadAnomaly21 und RoadObstacle21 stellen wir außerdem zwei entsprechende Datensätze bereit.

Visualisierung der Anomalie-Scores an einem Beispiel aus RoadAnomaly21 für verschiedene Anomalie-Segmentierungsmethoden. Rot kennzeichnet hohe, blau niedrige Anomalie-Scores.

Paper: https://arxiv.org/abs/2104.14812

Website: http://segmentmeifyoucan.com/

GENERATIVE DATENBASIERTE ENTWICKLUNG EINES MEHRBRENNSTOFFÄHIGEN INJEKTORS DURCH BMWI UND SIEMENS ENERGY GEFÖRDERT

GENERATIVE DATENBASIERTE ENTWICKLUNG EINES MEHRBRENNSTOFFÄHIGEN INJEKTORS DURCH BMWI UND SIEMENS ENERGY GEFÖRDERT

Abbildung: Verbrennungssystem der SGT-600 Gasturbine von Siemens Energy

In diesem Projekt geht es um die Verwendung von Methoden des generativen Lernens im Design. Durch das Training von generativen neuronalen Netzwerken, z.B. GAN oder Invertible Flows, an Daten aus der numerischen Simulation lernt ein Algorithmus den Zusammenhang zwischen den Designparametern und der Leistungsfähigkeit des Designs in Hinblick auf multiple Qualitätsmerkmale (Zielgrößen). Ziel des Projektes ist die inverse Fragestellung ,,Welche Designparameter gehören zu welcher Kombination von Zielgrößen?“ mit datenbasierten Verfahren zu beantworten. Anwendung findet das Projekt im Design eines wasserstoffähigen Injektors für eine Gasturbine. Siemens Energy und das BMWi Fördern das Vorhaben zu gleichen Teilen mit insgesamt 174.000 Euro.

Ansprechpartner: Hanno Gottschalk
hanno.gottschalk@uni-wuppertal.de

MetaBox+: A new Region Based Active Learning Method for Semantic Segmentation using Priority Maps

MetaBox: eine neuartige regionsbasierte Active Learning Methode für die semantische Bildsegmentierung

Für die Auswahl der zu annotierenden Regionen versuchen wir Bildbereiche zu bestimmen, die zu einem eine schlechte Segmentierungsqualität und zum anderen niedrig Kosten aufweisen.
Für die Erkennung der Segmentierungsqualität stellen wir ein Meta-Regressionsmodell auf, welches jedes Segment der ungelabelten und vorhergesagten Bilder beurteilt und ihre Genauigkeit schätzt.
Die Kostenschätzung basiert auf einer einfachen und praktisches Methode, die auf den Bildvorhersagen angewendet wird.
Die Experimente mit der Methode MetaBox+ zeigen, dass wir nahezu die gleiche KI Performance mit nur 10-30% der gesamten Annotationskosten erzielen.
Weiterhin weisen die Experimente und der Vergleich mit anderen Methoden auf interessante Erkenntnisse in Bezug auf Robustheit und der Hinzunahme einer Kostenschätzung auf.

Paper: https://arxiv.org/abs/2010.01884

MetaDetect: Uncertainty Quantification and Prediction Quality Estimates for Object Detection

MetaDetect: Unsicherheitsquantifizierung und Vorhersagequalitätsschätzungen in der Objektdetektion

Bei der Objekterkennung mit tiefen neuronalen Netzen neigt der vorhersagenbezogene Objektscore dazu überkonfident zu sein. Das kann dazu führen, dass eine ungenaue Vorhersage einen hohen Objektscore besitzt. Daher ist die Zuverlässigkeit der Vorhersagen und damit verlässliche Unsicherheiten von höchstem Interesse. In dieser Arbeit stellen wir eine Methode vor, die für ein beliebiges neuronales Netz prädiktive Unsicherheitsschätzungen und Qualitätsschätzungen liefert. Diese Schätzungen werden unabhängig des zugrunde liegenden Netzes, sondern nur basierend auf den Vorhersagen erstellt. Es wird ein Modell erlernt, das als Input einen handgefertigten Satz von transparenten Metriken in Form eines strukturierten Datensatzes erhält und als Output erhält man ein Performance Maß für die Objektdetektion (IoU).

 

 

Links: Objektscore
Mitte: Wahres Performancemaß (IoU zwischen Groundtruth und Vorhersage)
Rechts: Vorhergesagtes Performancemaß (IoU)

 

 

Paper: https://arxiv.org/abs/2010.01695

Efficient and Sparse Neural Networks by Pruning Weights in a Multiobjective Learning Approach

Netzwerkoptimierung mit einem multikriteriellen Lernansatz

Beim Design und Training tiefer neuraler Netzwerke sind Overparameterization (die Verwendung eines für die Aufgabe zu komplexen Netzwerkes) und Overfitting (das exakte Lernen der Trainingsdaten wodurch sich die Generalisierung auf andere Inputdaten verschlechtert) häufige auftretende Probleme. Oft werden Pruning- und Regularisierungstechniken verwendet um dem entgegen zu wirken. Diese Strategien bleiben jedoch meist dem Trainingsziel untergeordnet und führen unter Umständen zu zeit- und rechenintensiven Verfahren.

 

Wir schlagen eine multikriterielle Perspektive auf das Training neuronaler Netze vor, indem die Vorhersagegenauigkeit und die Netzwerkkomplexität als zwei konkurrierende Zielfunktionen in einem bikriterielle Optimierungsproblem betrachtet werden.

Unsere Ansätze testen wir auf CNNs (convolutionary neural networks) zur Bildklassifikation mit Crossentropy als Maß für die Vorhersagegenauigkeit, während wir die l1-Penaltyfunktion verwenden, um die Komplexität des Netzwerks zu bewerten. Letztere wird mit einem sogenannten Intratraining-Pruning kombiniert, das die Komplexitätsreduktion verstärkt und nur marginale zusätzliche Rechenkosten erfordert.

Wir vergleichen zwei verschiedene Optimierungsparadigmen: Zum einen verwenden wir einen Skalarisierungsansatz, der das bikriterielle Problem in eine Reihe von Skalarisierungen transformiert. Auf der anderen Seite implementieren wir ein stochastisches Gradientenabstiegsverfahren, das eine Pareto-optimale Lösung generiert, ohne dabei Präferenzinformationen zu benötigen.

Numerische Ergebnisse an CNNs bestätigen, dass eine signifikante Komplexitätsreduktion neuronaler Netze mit vernachlässigbarem Genauigkeitsverlust möglich ist.

Genauigkeit vs. Netzwerkkomplexität (Anzahl der Nicht-Null-Gewichte)

Paper: https://arxiv.org/abs/2008.13590

Simulation of Anode Corrosion In The Electrowinning Process Of Non-Ferrous Metals

Fehlererkennung im Fertigungsprozess von Leiterplatten mittels Computer Vision

Der Lehrstuhl für Zuverlässigkeitstechnik und Risikoanalytik (LZR) hat Forschungsergebnisse bei der 30. European Safety and Reliability Conference (ESREL 2020), die vom 01. bis 06.November 2020 in Venedig, Italien, in Kombination mit der 15. Probabilistic Safety Assessment and Management Conference (PSAM 15) stattfinden wird, publiziert. Die ESREL-Konferenz ist die größte und bedeutendste Konferenz in Europa im Hinblick auf die Themenfelder Zuverlässigkeit und Sicherheit.

Der Schwerpunkt der publizierten Forschungsarbeit liegt in der Entwicklung eines Modells zur automatischen optischen Inspektion (AOI) von Leiterplatten. Fokussiert wird dabei auf die Detektion von Fehlern, die in Form von mangelhaft verzinnten Kupferpads während des Herstellungsprozesses auftreten. Im Rahmen der Studie wurde ein Bilddatensatz generiert, auf Basis dessen convolutional neural networks (CNNs) mit dem Ansatz der patch-based classification (Klassierung von Bildausschnitten) trainiert und evaluiert wurden. Durch Variation verschiedener Netzparameter konnte eine Modelloptimierung erzielt werden.

Paper: https://www.rpsonline.com.sg/proceedings/esrel2020/html/4438.xml

MetaFusion: Controlled False-Negative Reduction of Minority Classes in Semantic Segmentation

Kontrollierte Verbesserung der Erkennung von Minderheitsklassen in der semantischen Bildsegmentierung

In Datensätzen für die semantische Segmentierung sind Klassen von hoher Relevanz häufig unterrepräsentiert. Neuronale Netze sind nun so trainiert, dass sie die totale Anzahl der Fehler reduzieren und somit identische Kosten für Verwechslungen jeglicher Art anheften. Letzteres entspricht nicht notwendigerweise der menschlichen Intuition. Einen Ausweg bieten Entscheidungsregeln, welche die Sensitivität zugunsten von unterrepräsentierten Klassen erhöhen. Die falsch negativ Rate der unterrepräsentierten Klasse wird dadurch reduziert, jedoch auf Kosten einer beachtlichen Erhöhung der falsch positiv Anzeigen derselben Klasse.

Wir kombinieren Entscheidungsregeln mit Unsicherheitsbasierten Detektionsverfahren von falsch positiv Anzeigen. Damit sind wir in der Lage nachträglich, also ohne das zugrunde liegende Neuronale Netz zu modifizieren, verbesserte Verhältnisse zwischen falsch positiv und falsch negativ Fehlerraten bezüglich der Menschenklasse im Cityscapes Datensatz zu erzielen.

Paper: https://arxiv.org/abs/1912.07420

Time-Dynamic Estimates of the Reliability of Deep Semantic Segmentation Networks

Zeitdynamische Unsicherheiten in der semantischen Bildsegmentierung

In der semantischen Segmentierung von Straßenszenen mit neuronalen Netzen ist die Zuverlässigkeit von Vorhersagen von höchstem Interesse. Die Bewertung von neuronalen Netzen anhand von Unsicherheiten ist ein häufig verwendeter Ansatz, um Sicherheitsprobleme zu vermeiden. Da in Anwendungen wie dem automatisiertem Fahren, Sequenzen von Bildern zur Verfügung stehen, stellen wir einen zeitdynamischen Ansatz zur Untersuchung von Unsicherheiten und zur Beurteilung der Vorhersagequalität neuronaler Netze vor. Wir verfolgen Segmente über die Zeit und bilden Metriken pro Segment, sodass wir Zeitreihen von Metriken erhalten, mit denen wir die Vorhersagequalität beurteilen können. Dafür werden falsch positive Segmente sowie ein Performance Maß für die semantische Segmentierung vorhergesagt.

Paper: https://arxiv.org/abs/1911.05075

Verfahren zur Einflussbestimmung für fusionierende künstliche neuronale Netzwerke

Damit die Entscheidungen von trainierten fusionierenden neuronalen Netzwerken besser nachvollzogen werden können, wurden neue Analysemethoden entwickelt. Mithilfe der neuen Verfahren ist es möglich zu quantifizieren welches Bild von einem gegebenen Eingangsbildpaar mehr Einfluss auf die Entscheidung des trainierten Klassifikators hat. Zudem kann qualifiziert werden, welche Bildbereiche für diese Entscheidung wichtig sind. Die erhobenen Bilddaten und ein trainiertes neuronales Netzwerk-Ensemble des neuen Typs wurden mithilfe der neuen Analyseverfahren untersucht. Es zeigte sich, dass Netzwerke mit einer guten Performanz ähnliche Konzepte wie menschliche Beobachter benutzen um die Bildinhalte zu klassifizieren.

Eingangsbildpaar mit dazugehörigen visualisierten Einflussregionen (links). Performanzkurven zur Bestimmung welches Bild mehr Einfluss auf die Entscheidung des Klassifikators hat (rechts).

Paper: https://www.eurasip.org/Proceedings/Eusipco/Eusipco2020/pdfs/0001427.pdf

Veröffentlicht auf der EUSIPCO 2020, https://doi.org/10.23919/Eusipco47968.2020.9287315, Copyright liegt bei IEEE.

Qualitätssicherung von industriellen Fertigungsprozessen mittels fusionierenden künstlichen neuronalen Netzwerken

Fehler beim Bestücken von Werkzeugen durch menschliche Bediener in der industriellen Fertigung sollen durch bildsensorbasierte Verfahren automatisiert erkannt werden. Durch einen schrägen Blickwinkel der Bildsensorik auf die Szenerie können bestimmte Bereiche nicht von der Sensorik erfasst werden und es kommt zu sogenannten „Blind-Spots“, welche die Performanz der automatisierten Auswertung negativ beeinflussen. Um dieses Problem effizient zu lösen wurden zwei gegenüberliegende Kameras eingesetzt und eine neuentwickelte künstliche neuronale Netzwerkarchitektur entwickelt, welche die beiden Bilder gekoppelt auswerten kann.

Paper: Multi-View Fusion Neural Network with Application in the Manufacturing Industry

Veröffentlicht auf der ISCAS 2019, http://dx.doi.org/10.1109/ISCAS.2019.8702575, Copyright liegt bei IEEE.

Big Content Data

Big Content Data

Projekt Big Content Data wird gefördert im Rahmen EFRE.NRW des Aufrufs CreateMedia.NRW und geleitet von Professor Treichel und Professor Kummert (BUW).
Im Zuge der Digitalen Transformation sind in NRW neben den klassischen Medienbranchen völlig neue, wachstumsstarke dienstleistungs- und kreativitätsorientierte Medienstrukturen und -segmente entstanden.

Es gilt, die erreichte Position für die NRW.Druck- und Medienbranche zu behaupten und auszubauen! Die Digitalisierung hat unter dem Stichwort „Industrie 4.0“ bereits eine intensive Diskussion in der Branche ausgelöst. Mehr...

Allerdings ist der „4.0-Fokus“ stark auf die Produktion bzw. auf neue Produktionsprozesse und -technologien verengt. Dabei sind gerade Inhalts(Content-) daten typische so genannte „unstrukturierte“ Datenbestände (aus Text-, Grafik-, Bild-, Layout-, Videodaten etc.), die die zentrale Basis für Data Analytics im Kontext Big Data darstellen. Die genaue, sich im Prozess optimierende („lernende“), automatisierte Analyse und Auswertung einer großen Anzahl unstrukturierter Daten (Big Data), z.B. in Verbindung mit „strukturierten“ Daten (z.B. einer Kundendatenbank), führen zu deutlich verbesserten Vorhersagen z.B. des Kaufverhaltens von Katalogkunden, Kunden-kategorisierungen im Multi-Channel-Marketing, Marktpotenzial-Analysen (Market Intelligence), Response- und Leseranalysen etc. Auf der Basis gesicherter Prognosen können dann z.B. Produktions- oder Logistikentscheidungen getroffen werden, wobei gerade hoch komplexe Entscheidungen (mit großer Variablenanzahl) ebenfalls durch Algorithmen automatisiert getroffen werden und so häufig zu erheblichen Kosteneinsparungen und/oder Umsatzsteigerungen in der Praxis führen.

Deep Learning mit wenigen Labels

Deep Learning mit wenigen Labels

Im Deep Learning wird meist auf unstrukturierten Daten (z.B. Bildern oder Texten) eine Klassifikation oder Regression gelernt. Dabei kommen (tiefe) neuronale Netze zum Einsatz. Damit das Netz lernt, muss zu ausreichend vielen Daten eine sogenannte Ground Truth, d.h. das Wissen um die korrekte Klassifizierung, vorhanden sein. Die Erzeugung dieser Ground Truth, auch Labels genannt, kann kostspielig und zeitaufwändig werden. Dies ist eine Hürde, die es erschwert, Verfahren des Deep Learnings in der Praxis zum Einsatz zu bringen.

Das aktive Lernen und das halb-überwachte Lernen liefern zwei Ansätze, um mit wenigen Labels möglichst performante Netze anzulernen. Mehr...

Mit diesen Ansätzen entwickeln Dr. Matthias Rottmann, Dr. Karsten Kahl und Professor Hanno Gottschalk Verfahren, durch die neuronale Netze in die Lage versetzen von wenigen Labels lernen. Im aktiven Lernen fragt das Neuronale Netz einen Experten oder Nutzer nach zusätzlichen Labels zu Daten, bei denen es sich besonders unsicher ist. Zur Bestimmung dieser Unsicherheit kommen Methoden der Bayeschen Inferenz zum Einsatz. Beim halb-überwachten Lernen werden ungelabelte Daten zum Training genutzt, d.h. das Neuronale Netz lernt auf diesen Daten durch Selbstbestätigung. Durch eine Kombination dieser Verfahren erreichen Matthias Rottmann, Karsten Kahl und Hanno Gottschalk auf standardisierten Benchmarks (Klassifikation von handschriftlichen Ziffern) sehr gute Resultate. Die Grafik zeigt ein Testproblem, bei dem das neuronale Netz die Punkte anhand ihrer Lage in der Ebene nach ihrer Farbe klassifizieren soll. Nur die durchkreuzten Punkten, d.h. zu 8% der abgebildeten Datenpunkte, wurden im Verlauf des Verfahrens gelabelt, der Farbverlauf im Hintergrund zeigt an, in welchem Bereich der Ebene welche Farbe vom neuronalen Netz vorhergesagt wird.

Semantische Bild-Segmentierung

Semantische Bild-Segmentierung

Professor Kummert und Professor Treichel (BUW) arbeiten aktuell auf dem Gebiet der semantische Bild-Segmentierung.
Unter der semantischen Bild-Segmentierung versteht man die gleichzeitige Clusterung eines Bildes und Klassifikation dieser Bildsegmente in eine feste Anzahl von Klassen. Dazu werden tiefe künstliche neuronale Netze eingesetzt. Das Problem der semantischen Segmentierung wird als ein Klassifikationsproblem für jeden einzelnen Pixel des Bildes formuliert. Nachdem das Netz mittels des Datensatzes trainiert wurde, können neue Eingabedaten, welche das Netz nicht während des Trainings verarbeitet hat, semantisch segmentiert werden (vgl. Abbildung unten).

Mehr...

Durch das dazugehörige Entropiebild der geschätzten Segmentierung (s.rechts) kann eine Aussage darüber getroffen werden, wie sicher sich das künstliche neuronale Netz über die geschätzte Klassenzuordnung ist. Hohe Entropiewerte sind gelb codiert und bedeuten, dass sich das Netz über die geschätzte Klassenzuordnung unsicher ist.

Wie man der Abbildung entnehmen kann, ist sich das künstliche neuronale Netz bei der Zuordnung des Bodens sowie der vorderen Stühle und des Tisches bei diesem Beispiel sehr sicher. Unsicher ist sich das Netz über die Zuordnung des Schreibtisches und zugehörigen Stuhls im hinteren Teil des Bildes.

Erkennung von menschlichen Aktivitäten mittels Deep Learning

Erkennung von menschlichen Aktivitäten mittels Deep Learning

Das unten beschriebene Themenfeld wird primär in den Arbeitsgruppen von Professor Treichel und Professor Kummert (BUW) bearbeitet.


Das Interesse, menschliche Aktivitäten automatisch zu erfassen, nimmt z.B. in den Bereichen Biomedizin, Spieleentwicklung sowie im persönlichen Fitnessbereich stetig zu. Sensoren werden am Körper befestigt, um die Körperbewegung, physiologische Signale oder Umgebungsvariablen zu messen. Mehr...

Mittels maschineller Lernverfahren werden die Sensordaten anschließend ausgewertet, um z.B. eine Aktivität zu klassifizieren oder Informationen über seine eigene Fitness zu erhalten. Dabei benötigen die Lernverfahren charakteristische Merkmale, die es ermöglichen zwischen verschiedenen Aktivitäten in den gesammelten Daten zu unterscheiden. Das Auffinden der Merkmale kann ganz klassisch manuell von einem Experten übernommen werden, was teuer, zeitaufwendig und abhängig vom Wissen des Experten ist oder wie in diesem Projekt durch ein oben schnematisch dargestelltes 2-D faltendes neuronales Netz. Dafür wird aus den 1-D Signalen der Sensoren ein 2-D Bild mittels der Kurzzeit-Fourier-Transformation erzeugt. Das neuronale Netz wird mit den Bildern als Eingangssignal trainiert und die Aufgabe der Merkmalsextraktion übernimmt vollständig automatisiert das faltende neuronale Netz. Unten sehen Sie als Beispiel zwei erzeugte Spektrogramme zweier unterschiedlicher Klassen. Der Beschleunigungssensor wurde am rechten unteren Fuß befestigt.

Die Entropie der Katze – oder wie unsicher ist sich die KI?

Die Entropie der Katze – oder wie unsicher ist sich die KI?

Die Entropie als Maß für die Unsicherheit zu untersuchen gehört zu den Forschungsprojekten von Professor Hanno Gottschalk und Dr. Matthias Rottmann.
Im Supervised Learning entscheidet sich eine KI zwischen verschiedenen Handlungsoptionen, indem sie die „wahrscheinlich beste“ auswählt. Trainiert man die KI auf die Erkennung der handgeschriebenen Zahlen 0-4 auf einem Foto, so wird die KI auch in jedem anderen Foto eine Ziffer 0-4 erkennen, auch wenn eine Katze oder einfach nur Rauschen auf dem Bild zu erkennen ist. Mehr...

Jenseits dessen kann sich die KI auch bei gelernten Konzepten schon mal irren (wenn auch nur sehr selten). In diesem Forschungsprojekt haben Dr. Matthias Rottmann und Professor Hanno Gottschalk sich die Frage gestellt, ob Irrtümer oder Falschbenutzung der KI durch ungelernte Konzepte (sog. ‚unknown unknowns‘) von der KI selbst erkannt werden kann. Dazu messen sie neben der wahrscheinlich besten Alternative auch die Unsicherheit der KI durch die Entropie, also das Maß an Unordnung bei Bewertung der Alternativen. Gottschalk und Rottmann konnten nachweisen, dass sowohl Fehler der KI als auch Fehler durch falsche Benutzung statistisch mit höherer Unsicherheit (Entropie) einher gehen. Dies kann benutzt werden, um vermutlich falsche Vorhersagen auszusortieren und so die Verlässlichkeit der KI zu steigern.

Hierbei trainieren wir tiefe, gefaltete neuronale Netze (sog. CNN) mit handgeschriebenen Ziffern 0-4 und beobachteten die Entropie für richtig und falsch klassifizierte Bilder, für Bilder von Ziffern 5-9, Katzenbilder und Rauschen.

Lernende Assistenten für numerische Simulationen

Lernende Assistenten für numerische Simulationen

In verschiedenen Projekten beschäftigt sich Jörg Frochte mit der Problematik der Bereitstellung von lernenden Assistenzsystemen im Kontext von Simulation und Modellbildung. Zu diesen Projekten gehörten SimCloud, welches von 2012-2016 vom BMBF unter Leitung von Professor Frochte gefördert wurde. Hierbei wurde u.a. ein lernendes Assistenzsystems zur Rechenlast-Verteilung in der FEM-Simulation entwickelt. Der erforschte Ansatz verwendet eine zweistufige Architektur, um zusätzliche Rechenkosten zu minimieren. Der Ansatz erfordert keine gelabelten Daten zur Qualitätsbewertung für eine Lastverteilung und kann sich als unüberwachtes Verfahren verbessern.

Mehr...

Im Rahmen einer Kooperation mit der Bauhausuniversität Weimar wurden Assistenzsysteme zum Brückendesign basierend auf FEM-Simulationen entwickelt und vorgestellt. Die neue Technik ist ohne erneute Simulation in der Lage vorgeschlagene Brückendesigns zu bewerten und ggf. zu verwerfen.


Ebenfalls im Rahmen einer Kooperation mit Weimar konnte ein Verfahren entwickelt werden, welches lernt die Parameter in numerischen Verfahren selbstständig zu wählen. Die Ergebnisse wurden veröffentlicht in Learning Overlap Optimization for Domain Decomposition Methods, Simulation Data Mining for Supporting Bridge Design und On Learning Assistance Systems for Numerical Simulation.

Optimierung und Simulation: Parameteroptimierung in der Funktionsentwicklung von Gasgeräten

Optimierung und Simulation: Parameteroptimierung in der Funktionsentwicklung von Gasgeräten

Die Optimierung ist die Grundlagen vieler Techniken im Bereich des maschinellen Lernens wie SVM oder Deep Neural Networks. In Projekten wie dem unten beschrieben mit der Vaillant GmbH als Partner zeigt sich die Tradition der Übertragung von wissenschaftlichen Erkenntnissen in der numerischen Optimierung auf Probleme der industriellen Praxis an der BUW durch Frau Professor Kathrin Klamroth.

Mehr...

Die Entwicklung neuer Funktionalitäten, hier z. B. für Heizgeräte, basiert i.d.R. auf Simulationsmodellen. Durch realitätsnahe Simulationen können u. A. Protoypentwicklung und Labortests auf ein Minimum reduziert werden. Simulationsmodelle hängen von verschiedenen physikalischen Simulationsparametern ab. Diese Parameter werden optimal eingestellt, so dass der Simulationsfehler möglichst gering ist: Die Simulationsergebnisse werden dazu mit im Labor für verschiedene Parameterwerte gemessenen Daten verglichen und die Parameter entsprechend optimiert. Gegebenenfalls zeigen die Ergebnisse der Optimierung, dass noch eine größere Modellanpassung erforderlich ist, um die Realität verlässlich abzubilden.
Es kommen verschiedene simulationsbasierte Optimierungsverfahren zum Einsatz, teilweise unterstützt durch automatische Differentiation. Da häufig auch die Laborergebnisse Ungenauigkeiten unterliegen, z. B. aufgrund von Toleranzen der Bauteile oder Ungenauigkeiten bei den gemessenen Sensordaten, wird der Optimierungsprozess durch Methoden der robusten Optimierung ergänzt.

Maschinelles Lernen in Daten-getriebenen Ansätzen zum Lösen linearer Gleichungssysteme

Machine Learning in Computer Simulations: Maschinelles Lernen in Daten-getriebenen Ansätzen zum Lösen linearer Gleichungssysteme

Auf dem Gebiet der Numerik beschäftigen sich Dr. Karsten Kahl und Dr. Matthias Rottmann mit  Lösungsverfahren zu linearen Gleichungssystemen. Letztere stammen dabei häufig aus der Diskretisierung partieller Differenzialgleichungen und beschreiben z.B. mechanische oder andere dynamische Wechselwirkungen. Die Lösung dieser Gleichungssysteme erzeugt oft die Hauptrechenlast in wissenschaftlichen Simulationen. Daher ist es wichtig effiziente hoch-skalierende Lösungsverfahren zu entwickeln. Sogenannte Mehrgitter-Verfahren gelten dazu als besonders geeignet. Diese kombinieren ein einfaches iteratives Lösungsverfahren, das für sich genommen das Problem nur sehr langsam löst, mit einer Unterraum-Korrektor, die komplementär wirken soll.

Mehr...

Die Abbildung zeigt ein illustratives Beispiel der Funktionsweise von Mehrgitterverfahren. Links abgebildet ist der aktuelle Fehler, der Differenz von Lösung und ihrer aktuellen Approximation. Ein paar Schritte des iterativen Verfahrens beseitigen stark oszilierende Fehlerkomponenten, der Fehler wird anschaulich glatt (mitte). Der glatte Fehler lässt sich in einem Unterraum, in diesem Fall durch eine gröbere Auflösung, gut darstellen (rechts). Wenn die Geometrie des Problemes unbekannt ist, greift man auf sogenannten algebraische Mehrgitter-Verfahren zurück. In einer Setup-Phase bedarf es dazu der Generierung von Daten, welche den Teil des zu lösenden Problems beschreiben, mit dem das iterative Verfahren am schlechtesten fertig wird. Anhand dieser Daten wird der glatte Fehler und somit die Wirkung der Unterraum-Korrektur adaptiv bestimmt. Das Erzeugen der Daten kann sowohl speicher- als auch rechenaufwändig werden. Karsten Kahl und Matthias Rottmann setzen Verfahren des maschinellen Lernens ein, die mit wenig Daten lernen können, welche Information zum Aufsetzen der Unterraum-Korrektur wichtig ist. Dazu kommen insbesondere Techniken der Regularisierung zum Einsatz.