Autor: Marius Schubert

MetaBox+: A new Region Based Active Learning Method for Semantic Segmentation using Priority Maps

MetaBox: eine neuartige regionsbasierte Active Learning Methode für die semantische Bildsegmentierung

Für die Auswahl der zu annotierenden Regionen versuchen wir Bildbereiche zu bestimmen, die zu einem eine schlechte Segmentierungsqualität und zum anderen niedrig Kosten aufweisen.
Für die Erkennung der Segmentierungsqualität stellen wir ein Meta-Regressionsmodell auf, welches jedes Segment der ungelabelten und vorhergesagten Bilder beurteilt und ihre Genauigkeit schätzt.
Die Kostenschätzung basiert auf einer einfachen und praktisches Methode, die auf den Bildvorhersagen angewendet wird.
Die Experimente mit der Methode MetaBox+ zeigen, dass wir nahezu die gleiche KI Performance mit nur 10-30% der gesamten Annotationskosten erzielen.
Weiterhin weisen die Experimente und der Vergleich mit anderen Methoden auf interessante Erkenntnisse in Bezug auf Robustheit und der Hinzunahme einer Kostenschätzung auf.

Paper: https://arxiv.org/abs/2010.01884

MetaDetect: Uncertainty Quantification and Prediction Quality Estimates for Object Detection

MetaDetect: Unsicherheitsquantifizierung und Vorhersagequalitätsschätzungen in der Objektdetektion

Bei der Objekterkennung mit tiefen neuronalen Netzen neigt der vorhersagenbezogene Objektscore dazu überkonfident zu sein. Das kann dazu führen, dass eine ungenaue Vorhersage einen hohen Objektscore besitzt. Daher ist die Zuverlässigkeit der Vorhersagen und damit verlässliche Unsicherheiten von höchstem Interesse. In dieser Arbeit stellen wir eine Methode vor, die für ein beliebiges neuronales Netz prädiktive Unsicherheitsschätzungen und Qualitätsschätzungen liefert. Diese Schätzungen werden unabhängig des zugrunde liegenden Netzes, sondern nur basierend auf den Vorhersagen erstellt. Es wird ein Modell erlernt, das als Input einen handgefertigten Satz von transparenten Metriken in Form eines strukturierten Datensatzes erhält und als Output erhält man ein Performance Maß für die Objektdetektion (IoU).

 

 

Links: Objektscore
Mitte: Wahres Performancemaß (IoU zwischen Groundtruth und Vorhersage)
Rechts: Vorhergesagtes Performancemaß (IoU)

 

 

Paper: https://arxiv.org/abs/2010.01695

Efficient and Sparse Neural Networks by Pruning Weights in a Multiobjective Learning Approach

Netzwerkoptimierung mit einem multikriteriellen Lernansatz

Beim Design und Training tiefer neuraler Netzwerke sind Overparameterization (die Verwendung eines für die Aufgabe zu komplexen Netzwerkes) und Overfitting (das exakte Lernen der Trainingsdaten wodurch sich die Generalisierung auf andere Inputdaten verschlechtert) häufige auftretende Probleme. Oft werden Pruning- und Regularisierungstechniken verwendet um dem entgegen zu wirken. Diese Strategien bleiben jedoch meist dem Trainingsziel untergeordnet und führen unter Umständen zu zeit- und rechenintensiven Verfahren.

 

Wir schlagen eine multikriterielle Perspektive auf das Training neuronaler Netze vor, indem die Vorhersagegenauigkeit und die Netzwerkkomplexität als zwei konkurrierende Zielfunktionen in einem bikriterielle Optimierungsproblem betrachtet werden.

Unsere Ansätze testen wir auf CNNs (convolutionary neural networks) zur Bildklassifikation mit Crossentropy als Maß für die Vorhersagegenauigkeit, während wir die l1-Penaltyfunktion verwenden, um die Komplexität des Netzwerks zu bewerten. Letztere wird mit einem sogenannten Intratraining-Pruning kombiniert, das die Komplexitätsreduktion verstärkt und nur marginale zusätzliche Rechenkosten erfordert.

Wir vergleichen zwei verschiedene Optimierungsparadigmen: Zum einen verwenden wir einen Skalarisierungsansatz, der das bikriterielle Problem in eine Reihe von Skalarisierungen transformiert. Auf der anderen Seite implementieren wir ein stochastisches Gradientenabstiegsverfahren, das eine Pareto-optimale Lösung generiert, ohne dabei Präferenzinformationen zu benötigen.

Numerische Ergebnisse an CNNs bestätigen, dass eine signifikante Komplexitätsreduktion neuronaler Netze mit vernachlässigbarem Genauigkeitsverlust möglich ist.

Genauigkeit vs. Netzwerkkomplexität (Anzahl der Nicht-Null-Gewichte)

Paper: https://arxiv.org/abs/2008.13590

Simulation of Anode Corrosion In The Electrowinning Process Of Non-Ferrous Metals

Fehlererkennung im Fertigungsprozess von Leiterplatten mittels Computer Vision

Der Lehrstuhl für Zuverlässigkeitstechnik und Risikoanalytik (LZR) hat Forschungsergebnisse bei der 30. European Safety and Reliability Conference (ESREL 2020), die vom 01. bis 06.November 2020 in Venedig, Italien, in Kombination mit der 15. Probabilistic Safety Assessment and Management Conference (PSAM 15) stattfinden wird, publiziert. Die ESREL-Konferenz ist die größte und bedeutendste Konferenz in Europa im Hinblick auf die Themenfelder Zuverlässigkeit und Sicherheit.

Der Schwerpunkt der publizierten Forschungsarbeit liegt in der Entwicklung eines Modells zur automatischen optischen Inspektion (AOI) von Leiterplatten. Fokussiert wird dabei auf die Detektion von Fehlern, die in Form von mangelhaft verzinnten Kupferpads während des Herstellungsprozesses auftreten. Im Rahmen der Studie wurde ein Bilddatensatz generiert, auf Basis dessen convolutional neural networks (CNNs) mit dem Ansatz der patch-based classification (Klassierung von Bildausschnitten) trainiert und evaluiert wurden. Durch Variation verschiedener Netzparameter konnte eine Modelloptimierung erzielt werden.

Paper: https://www.rpsonline.com.sg/proceedings/esrel2020/html/4438.xml

MetaFusion: Controlled False-Negative Reduction of Minority Classes in Semantic Segmentation

Kontrollierte Verbesserung der Erkennung von Minderheitsklassen in der semantischen Bildsegmentierung

In Datensätzen für die semantische Segmentierung sind Klassen von hoher Relevanz häufig unterrepräsentiert. Neuronale Netze sind nun so trainiert, dass sie die totale Anzahl der Fehler reduzieren und somit identische Kosten für Verwechslungen jeglicher Art anheften. Letzteres entspricht nicht notwendigerweise der menschlichen Intuition. Einen Ausweg bieten Entscheidungsregeln, welche die Sensitivität zugunsten von unterrepräsentierten Klassen erhöhen. Die falsch negativ Rate der unterrepräsentierten Klasse wird dadurch reduziert, jedoch auf Kosten einer beachtlichen Erhöhung der falsch positiv Anzeigen derselben Klasse.

Wir kombinieren Entscheidungsregeln mit Unsicherheitsbasierten Detektionsverfahren von falsch positiv Anzeigen. Damit sind wir in der Lage nachträglich, also ohne das zugrunde liegende Neuronale Netz zu modifizieren, verbesserte Verhältnisse zwischen falsch positiv und falsch negativ Fehlerraten bezüglich der Menschenklasse im Cityscapes Datensatz zu erzielen.

Paper: https://arxiv.org/abs/1912.07420

Time-Dynamic Estimates of the Reliability of Deep Semantic Segmentation Networks

Zeitdynamische Unsicherheiten in der semantischen Bildsegmentierung

In der semantischen Segmentierung von Straßenszenen mit neuronalen Netzen ist die Zuverlässigkeit von Vorhersagen von höchstem Interesse. Die Bewertung von neuronalen Netzen anhand von Unsicherheiten ist ein häufig verwendeter Ansatz, um Sicherheitsprobleme zu vermeiden. Da in Anwendungen wie dem automatisiertem Fahren, Sequenzen von Bildern zur Verfügung stehen, stellen wir einen zeitdynamischen Ansatz zur Untersuchung von Unsicherheiten und zur Beurteilung der Vorhersagequalität neuronaler Netze vor. Wir verfolgen Segmente über die Zeit und bilden Metriken pro Segment, sodass wir Zeitreihen von Metriken erhalten, mit denen wir die Vorhersagequalität beurteilen können. Dafür werden falsch positive Segmente sowie ein Performance Maß für die semantische Segmentierung vorhergesagt.

Paper: https://arxiv.org/abs/1911.05075

Verfahren zur Einflussbestimmung für fusionierende künstliche neuronale Netzwerke

Damit die Entscheidungen von trainierten fusionierenden neuronalen Netzwerken besser nachvollzogen werden können, wurden neue Analysemethoden entwickelt. Mithilfe der neuen Verfahren ist es möglich zu quantifizieren welches Bild von einem gegebenen Eingangsbildpaar mehr Einfluss auf die Entscheidung des trainierten Klassifikators hat. Zudem kann qualifiziert werden, welche Bildbereiche für diese Entscheidung wichtig sind. Die erhobenen Bilddaten und ein trainiertes neuronales Netzwerk-Ensemble des neuen Typs wurden mithilfe der neuen Analyseverfahren untersucht. Es zeigte sich, dass Netzwerke mit einer guten Performanz ähnliche Konzepte wie menschliche Beobachter benutzen um die Bildinhalte zu klassifizieren.

Eingangsbildpaar mit dazugehörigen visualisierten Einflussregionen (links). Performanzkurven zur Bestimmung welches Bild mehr Einfluss auf die Entscheidung des Klassifikators hat (rechts).

Paper: https://www.eurasip.org/Proceedings/Eusipco/Eusipco2020/pdfs/0001427.pdf

Veröffentlicht auf der EUSIPCO 2020, https://doi.org/10.23919/Eusipco47968.2020.9287315, Copyright liegt bei IEEE.

Qualitätssicherung von industriellen Fertigungsprozessen mittels fusionierenden künstlichen neuronalen Netzwerken

Fehler beim Bestücken von Werkzeugen durch menschliche Bediener in der industriellen Fertigung sollen durch bildsensorbasierte Verfahren automatisiert erkannt werden. Durch einen schrägen Blickwinkel der Bildsensorik auf die Szenerie können bestimmte Bereiche nicht von der Sensorik erfasst werden und es kommt zu sogenannten „Blind-Spots“, welche die Performanz der automatisierten Auswertung negativ beeinflussen. Um dieses Problem effizient zu lösen wurden zwei gegenüberliegende Kameras eingesetzt und eine neuentwickelte künstliche neuronale Netzwerkarchitektur entwickelt, welche die beiden Bilder gekoppelt auswerten kann.

Paper: Multi-View Fusion Neural Network with Application in the Manufacturing Industry

Veröffentlicht auf der ISCAS 2019, http://dx.doi.org/10.1109/ISCAS.2019.8702575, Copyright liegt bei IEEE.