alt Forschungsprofil von Udo Frese

Forschungsprofil Udo Frese

alt Udo Frese




Positionierung in Bezug auf die Ausschreibung

Mein methodisch-algorithmischer Forschungsschwerpunkt liegt auf der Perzeptionsseite autonomer Systeme, z.B. räumliche Wahrnehmung der statischen (SLAM, s.u.) oder dynamischen (Tracking, Sicherheit, s.u.) Umgebung des Systems. Der übergreifende Ansatz dabei ist:


Autonome Systeme interpretieren Sensordaten, indem sie Unsicherheit probabilistisch modellieren.


Die Herausforderung an ein autonomes System liegt darin, dass es die Bedeutung seiner sensoriellen Wahrnehmungen erschließen muss. Informationen von Sensoren, besonders aus Bildern, sind immer unsicher. Daher besteht mein Ansatz aus der meist probabilistischen Modellierung dieser Unsicherheit und der Auswertung der Information trotz Unsicherheit. Dieser Ansatz ist besonders wichtig für selbstkonfigurierende Systeme, weil diese ihre eigenen Systemparameter am Anfang bestimmen (kalibrieren) müssen. Mit der Frage, wie Kalibrierung effektiv, d.h. flexibel und einfach realisiert werden kann habe ich mich intensiv beschäftigt. Auf der Aktionsseite autonomer Systeme ist mein Forschungsinteresse anwendungsgetrieben. Ausgehend von einem zu lösenden Anwendungsproblem ist meine Devise:

Den Brennerpass finden, nicht den Großglockner besteigen.

Ich versuche in einem Wechselspiel aus Intuition und mathematischer Strukturanalyse zu verstehen, wo das Kernproblem einer Anwendung liegt und oft auch, welches vermeindliche Kern- problem man gar nicht wirklich lösen muss, sondern umgehend kann. Dadurch komme ich oft zu einfachen “pfiffigen” Lösungen, wo eine “große Vision” einen langen Weg vor sich hätte. Dieses Gefühl, eine Sache, die weit weg erschien so reduziert zu haben, dass sie in greifbare Nähe rückt, ist für mich die größte Motivation in der anwendungsorientierten Forschung. Der Aspekt verteilter Systeme hat in meinen bisherigen Arbeiten keine große Rolle gespielt. Ich habe allerdings durchaus einen belastbaren Hintergrund in diesem Feld aus meiner Studienzeit in Paderborn, wo Parallelität ein Schwerpunkt war [60]. Viele Algorithmen der Sensorfusion, u.a. der Treemap Algorithmus meiner Dissertation [57, 38], schlussfolgern in einem hochdimensionalen Wahrscheinlichkeitsraum, indem sie auf einem Graph niedrigdimensionale Wahrscheinlichkeits- verteilungen entlang der Kanten übertragen und in den Knoten verknüpfen (belief propagation). Dieses Paradigma eignet sich sehr gut für verteilte Verarbeitung von Sensordaten. Des weiteren habe ich einen Hintergrund in numerischen Methoden. Mein MLR Algorithmus [12] ist eine Übertragung von Mehrgittermethoden auf das Anwendungsgebiet SLAM, Treemap [38] is eine Form einer multifrontalen dünnbesetzten QR-Zerlegung. Das ist sicher eine gute Grundlage für eine Kooperation im Exzellenzcluster SimTech.

Die vorangegangene Tabelle zeigt meine Forschungsaktivitäten und die meiner Arbeitsgruppe. In der oberen Zeile stehen Themen, mit denen ich mich beschäftigt habe:

Simultaneous Localization and Mapping (SLAM)

alt Visuelles SLAM in einem (nachgestellten) Trümmerhaufen

SLAM hat die Aufgabe, unsichere lokale Information zu einer globalen 3D-Karte zusammenzusetzen. Im Idealfall bewegt man eine Kamera durch ein Gebäude und erhält hinterher ein dichtes 3D-Modell, wie in der Computergrafik üblich. Häufig reicht auch die Position einzelner markanter Punkte, wodurch die Bewegung rekonstruiert wird. Die Herausforderung liegt darin, dass nach jedem Schritt eine aktualisierte Karte gewünscht ist, so dass diese schnell und inkrementell berechnet werden muss. Der von mir ent- wickelte Treemap-Algorithmus leistet dies und hält einen Weltrekord bzgl. der Kartengröße [38]. SLAM hat viele Anwendungen [6], die ich mir für Folgeprojekte vorstellen kann: Es ist eine es- sentielle Funktionalität für mobile Serviceroboter, da es erlaubt, die zum Navigieren notwendige Karte „einzulernen“, indem man den Serviceroboter einmal durchs Gebäude „führt“ [57]. Es kann auch zur Steuerung von Fahrzeugen in Fabriken oder (zusammen mit GPS) im Außenraum oder gar in der Luft verwendet werden. Es kann z.B. im Wald GPS-Ausfälle kompensieren oder der Na- vigation eines teilautonomen Rollstuhls dienen [39]. Eine spannende Erweiterung ist multi-Roboter SLAM, was sich in der von mir favorisierten Repräsentiation über dünnbesetzte Matrizen [40] gut darstellen lässt. Für das verteilte Rechnen bietet sich die oben erwähnte belief propagation an. Eine besonders interessante Anwendung, die ich im SFB/TR 8 Raumkognition gerade verfolge, ist die Suche nach Verschütteten in kollabierten Gebäuden. Mit einer Endoskopkamera [17] können Bilder aus dem Inneren eines Trümmerhaufens gewonnen werden, die aber für einen menschlichen Operator sehr schwer zu verstehen sind. Hier kann visuelles SLAM den Operator mit einem 3D-Modell unterstützen. Diesem Modelll kann sogar ein Bild des Trümmerhaufens von Außen überlagert werden, um z.B. einen Zugang zu planen.

Die Anwendung Verschüttetensuche zeigt außerdem den Nutzen eines sogenannten Inertialsensors („technisches Gleichgewichtsorgan“). Er verleiht einen absoluten Sinn für „unten“ und einen störungssicheren Sinn für die relative Bewegung, wenn auch mit akkumulierendem Fehler. Bei der Bildverarbeitung hingegen akkumuliert der Fehler nicht, dafür kann sie ausfallen, weil im Bild nichts erkannt wird. Diese Kombination ist vorteilhaft komplementär und eines meiner Forschungsthemen [27]. Dabei ermöglicht eine generische Software-Architektur, basierend auf so-genannten Mannigfaltigkeiten, verschiedene Sensoren und Informationsquellen zu integrieren [?].

Sichere Sensoralgorithmen

alt In Echtzeit berechnete Bremszonen verhindern Eigenkollisionen

Hierbei geht es um Algorithmen, die Daten von Sensoren zu einem sicher- heitsgerichteten Zwecke auswerten, so dass sie vor Gebrauch zertifiziert werden müssen, z.B. vom TÜV nach EN 61508. Ein Beispiel ist die Kollisionsvermeidung für Fahrzeuge in der Industrie (Projekt Si- cherkeitskomponente für Autonome Mobile Systeme (SAMS), BMBF-Initiative Servicerobotik) und für Ro- boterarme humanoider Roboter (Projekt SAMS-3D). Hierbei wird in Echtzeit der Raum berechnet, der beim Bremsen überstrichen wird. Dieser wird dann von einem Sensor überwacht [47, 19]. In SAMS wird ein sogenannter Laserscanner verwendet, aber Kameras und 3D-Kameras sind eine langfristige Perspektive. Hier verfolge ich den Ansatz, den Algorithmus „wasserdicht“ beweisbar zu machen, um die Implementierung durch formale Softwareverifikation zertifizieren zu können [31, 2]. Das ist für Sensoralgorithmen, die oft sehr heuristisch sind, nicht selbstverständlich und erfordert genaue mathematische Modellierung. Diese Arbeiten sind sehr industrienah. SAMS und iGEL sind Pro- jekte mit Industriebeteiligung. In SAMS-3D bin ich Ko-Erfinder eines zum Patent angemeldeten Verfahrens [47]. Das Projekt European Train Control System (ETCS) war ein Gutachten im Indu- strieauftrag [48].




Kontextbasierte Bildverarbeitung und Sportrobotik

alt Justin (DLR) fängt zwei Bälle

Warum sollten Roboter Sport treiben, z.B. einen Ball fangen? — Mit einem Roboter solch eine sportliche Aktivität zu realisieren, ist in zweierlei Hinsicht wertvoll: Zum einen ist eine derartige Vorführung ungemein faszinierend, besonders für das fachfrem- de Publikum. Menschen sind Meister sportlicher Betätigung, von daher können selbst Laien unmittelbar und zutreffend beurteilen, wie gut ein Ro- boter bei der Ausübung eines Sports ist oder wie weit er noch vom menschlichen Vorbild entfernt ist. Ich sehe darin einen durchaus wichtigen Beitrag für das Feld Autonome Systeme und sogar einen kulturellen Beitrag insgesamt, weil so unmittelbar anschaulich ei- ne Auseinandersetzung über das Verhältnis zwischen Mensch und Roboter angestoßen wird. Der andere Aspekt ist, dass Sport eine enorme Herausforderung an Wahrnehmung und Bewegung bzgl. Geschwindig- keit, Präzision und Robustheit darstellt. Deshalb ist er eine ideale Benchmarkanwendung.

Ein Beispiel dafür ist unser Gemeinschaftprojekt B-Catch mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR). Deren humanoider Roboter Justin fängt zwei zugeworfene Bälle gleichzeitig mit beiden Händen [22, 1]. Die oben erwähnte Faszination für den Laien zeigt sich z.B. an fast 300000 Abrufen von [22] auf Youtube und zahlreichen Medienanfragen.

alt Justin (DLR) fängt zwei Bälle


Eine methodisch Herausforderung ist eine umgebungs- unabhängige Bildverarbeitung. Der jetzige Algorithmus [26, 23] ist ein bottom-up Ansatz. Er sucht in je- dem Bild unabhängig den Ball als Kreis und fusioniert die gefundenen Koordinaten zu einer Flugbahn. Dabei berücksichtigt er probabilistisch Messrauschen, Fehldetektionen und fehlenden Detektionen. Zur Zeit entwickeln wir ein ganzheitliches Paradigma, bei dem das Flugbahnmodell als Kontext die Erkennung des Balles stützt, weil Erkennung und Verfolgung als Suche nach der wahrscheinlichsten Interpretation (Bayes) gesehen werden. Sportrobotik wird häufig zwar als schwierige technologische, methodische und wissenschaftliche Herausforderung, aber nicht als ernsthafte Anwendung gesehen. Vor kurzem entstand jedoch in meiner Arbeitsgruppe eine Idee zu einem Sportrobotik-Unterhaltungs-Szenario mit direk- ter Mensch-Roboter-Interaktion in einer Form, die ich für kommerziell realistisch halte. Die Idee ist ein interaktives Ballspiel mit einem minimalistischen Ballspielroboter für Events wie Firmenfei- ern oder Messen. Der Roboter soll eine Variante des Kinderspiels “Schweinchen in der Mitte” spielen. Dabei steht der Roboter im Zentrum zweier Kreise. Die Spieler im Außenkreis spielen dem Roboter einen Ball zu, so dass dieser ihn zurückspielen kann. Die Spieler im Mittelkreis versuchen den Ball abzufangen. Technisch schwenke zwei Achsen in der Basis des Roboters einen Schläger, eine Styroporkugel an einem Stab. Diese zwei Freiheitsgrade reichen aus zu- geworfene Bälle zu treffen, indem man den Moment abpasst, in dem der Ball den kugelförmigen Arbeitsraum schneidet. Durch einen seitlichen Versatz, sowie die Geschwindigkeit beim Schlag kann gezielt zurückgespielt werden. Alle Antriebe liegen in der Basis. Dadurch ist das System sicher, weil der Schläger leicht ist und preisgünstig, weil die Antriebe weder leicht noch stark sein müssen. Diese Idee ist zur Zeit als BMBF Projekt beantragt (zusammen mit der Hochschule für Künste, Bremen). Ich sehe es als ein Beispiel für mein oben erwähnte Paradigma piffig-einfacher Lösun- gen in Anwendungsprojekten. Ein Prototyp des Roboters schlägt schon zugeworfene Bälle [14].

Orthogonal zu den Themen zeigt die linke Spalte der Tabelle übergreifende Methoden, die sich quer durch die verschiedenen Themen in unseren Projekten ziehen:

Mathematische Strukturanalyse

In meinem wissenschaftlichen Werdegang war immer eine Schlüsselfähigkeit, mathematisch-formale Repräsentation und Anschauung miteinander zu ver- knüfen und leicht zwischen beiden Seiten wechseln zu können. Diese Fähigkeit zur intuitiven Strukturanalyse ist enorm hilfreich, weil sie erlaubt, Ideen für Algorithmen zu entdecken, schwer zu entdeckende Fehler in Implementierungen zu finden und komplexe Zusammenhänge so dar- zustellen, dass der Zuhörer die Botschaft versteht.

Probabilistische Sensorfusion

Sensorfusion ist die Verknüpfung von unsicherer Information aus verschiedenen Quellen, um eine möglichst genaue Gesamtinformation daraus zu erhalten. Die Faszination an sensoriellen Daten liegt darin, dass sie an der Grenze zwischen der „realen Welt“ und der „Welt im Rechner“ liegen und die reale Welt eine Vielzahl an Phänomenen hat, die Sensordaten unsicher machen. Dieses gilt für Bilder in besonderem Maße.

Effiziente Algorithmen

Die Motivation für effiziente Algorithmen speist sich aus zwei Gedan- ken. Zum einen beschäftige ich mich mit Bildverarbeitung bei bewegten Vorgängen und da muss die Rechnung mit der Bewegung mithalten können (Echtzeit). Zum anderen ist Effizienz ein spannendes Forschungsziel an sich mit einem sehr klaren, weil gut messbarem Erfolgskriteri- um, der Rechenzeit. Daher übt Effizienz auf mich als Informatiker eine ähnliche Faszination aus wie Schubkraft auf einen Raketenentwickler.