|
Phoenix Mobile ExperimentalplattformArbeitsgruppe Robotik & Prozessrechentechnik |
Visuelle SzenenklassifikationAktive entfernungsgebende Sensorik, z.B. Ultraschall- oder Lasersensoren, erfasst nur einen kleinen Teil der Umgebungseigenschaften, die für die Wiedererkennung bestimmter Positionen genutzt werden könnte. Der Einsatz von Kameras hingegen sichert ein wesentlich höheres Maß an Umgebungsinformation. Eine wesentliche Schwierigkeit bei der Nutzung visueller Daten besteht darin, die für die Selbstlokalisation relevante Information aus den zahlreichen Bilddaten auszufiltern. In der für das CAROL-Projekt implementierten, auf einem Verfahren von G. v. Wichert beruhenden visuellen Szenenklassifikation wird ein neuronales Netz mit merkmalsgefilterten Bildern der Umgebung trainiert. Dabei bildet dieses selbstorganisierende Netz selbständig die Unterscheidungskriterien aus, nach denen später aktuelle Bildeindrücke klassifiziert werden. Die Klassifizierungsergebnisse können in der Selbstlokalisation des Roboters dazu dienen, anderweitig erzielte Positionshypothesen zu bestätigen oder zu verwerfen, bzw. neue Positionshypothesen zu erzeugen.
| |
Letzte Änderung: 14.01.00, Joachim Weber
|