Die Entropie der Katze – oder wie unsicher ist sich die KI?
Die Entropie als Maß für die Unsicherheit zu untersuchen gehört zu den Forschungsprojekten von Professor Hanno Gottschalk und Dr. Matthias Rottmann.
Im Supervised Learning entscheidet sich eine KI zwischen verschiedenen Handlungsoptionen, indem sie die „wahrscheinlich beste“ auswählt. Trainiert man die KI auf die Erkennung der handgeschriebenen Zahlen 0-4 auf einem Foto, so wird die KI auch in jedem anderen Foto eine Ziffer 0-4 erkennen, auch wenn eine Katze oder einfach nur Rauschen auf dem Bild zu erkennen ist. Mehr...
Hierbei trainieren wir tiefe, gefaltete neuronale Netze (sog. CNN) mit handgeschriebenen Ziffern 0-4 und beobachteten die Entropie für richtig und falsch klassifizierte Bilder, für Bilder von Ziffern 5-9, Katzenbilder und Rauschen.