[Logo]

Phoenix Mobile Experimentalplattform

Arbeitsgruppe Robotik & Prozessrechentechnik





Visuelle Szenenklassifikation

Aktive entfernungsgebende Sensorik, z.B. Ultraschall- oder Lasersensoren, erfasst nur einen kleinen Teil der Umgebungseigenschaften, die für die Wiedererkennung bestimmter Positionen genutzt werden könnte. Der Einsatz von Kameras hingegen sichert ein wesentlich höheres Maß an Umgebungsinformation. Eine wesentliche Schwierigkeit bei der Nutzung visueller Daten besteht darin, die für die Selbstlokalisation relevante Information aus den zahlreichen Bilddaten auszufiltern.

In der für das CAROL-Projekt implementierten, auf einem Verfahren von G. v. Wichert beruhenden visuellen Szenenklassifikation wird ein neuronales Netz mit merkmalsgefilterten Bildern der Umgebung trainiert. Dabei bildet dieses selbstorganisierende Netz selbständig die Unterscheidungskriterien aus, nach denen später aktuelle Bildeindrücke klassifiziert werden.

Die Klassifizierungsergebnisse können in der Selbstlokalisation des Roboters dazu dienen, anderweitig erzielte Positionshypothesen zu bestätigen oder zu verwerfen, bzw. neue Positionshypothesen zu erzeugen.


Durchführung: Lutz Franken, Klaus Schmitt



Letzte Änderung: 14.01.00, Joachim Weber