Reutlingen / swp  Uhr

Die Fakultät für Informatik erhält Fördermittel zur weiteren Stärkung von Forschung in laufenden Projekten. Mit knapp einer halben Million Euro fördert das Bundesministerium für Bildung und Forschung (BMBF) das MoCap 4.0 Projekt (Motion Capture). Bei dem Projekt geht es um die Analyse und Synthese von hoch interaktivem Verhalten zur Optimierung von mensch-zentrierten technischen Wahrnehmungsprozessen.

Computerspiele mit menschlichen Gesten zu steuern ist mittlerweile weit verbreitet. Wenn der Mensch jedoch im Umfeld einer hochautomatisierten Umgebung mit einem Roboter oder sogar einem autonomen Fahrzeug interagieren muss, so darf die Interpretation der menschlichen Absicht nicht viel Freiraum zur Interpretation bieten.

Mit dem MoCap 4.0 Labor wollen die Forscher an der Hochschule Reutlingen nun industrietaugliche Mensch-zentrierte Automationsumgebungen entwickeln und optimieren. Das Projekt ist als Unterstützung des BMBF-Projekts Offene Fusions Plattform (OFP) zum autonomen Fahren, an dem mehrere Forschungseinrichtungen und Firmen beteiligt sind, gedacht. In dieser Partnerschaft hatten die Reutlinger bereits im Frühsommer eine Förderzusage über rund 600 000 Euro. Beide Projekte werden von Prof. Dr. Cristóbal Curio geleitet.

Die Fördermittel des Bundes von 454 424 Euro werden dabei für den Aufbau des MoCap 4.0 Labors verwendet, das die Bearbeitung neuer Forschungsfragen und den schnellen Technologie-Transfer von Ergebnissen ermöglicht. „Derzeit haben wir schon vier Industriepartner für das Projekt. Hier geht es um Anwendungsfälle der Industrie 4.0 und die Digitalisierung der Arbeitswelt.

Das MoCap 4.0 Projekt ist Teil des Lehr- und Forschungsbereichs Kognitive Systeme der Fakultät Informatik. Der beschäftigt sich mit technischen Wahrnehmungsprozessen und deren Integration in Assistenzsysteme. Im Fokus stehen dabei auch Funktionen zur Erkennung von Fußgängern sowie die Vorhersage ihrer Bewegungsabsichten. MoCap 4.0 besteht aus einem hochgenauen optischen Trackingsystem zur Analyse von Körperbewegungen, mobilen Geräten zur Erfassung von  Blickverhalten sowie einem 3D-Scanner zur naturgetreuen Digitalisierung von menschlichen Körpern.

Mit der Investition sind neue Erkenntnisse zur Aktionenerkennung im Kontext der Interaktion mit automatisierten Umgebungen zu erwarten. Diese Erkenntnisse sind anwendungsneutral und lassen sich auf andere Gebiete übertragen. So sind auch Fortschritte bei der Analyse von Verhalten und Interaktionen im Fahrerraum autonomer Fahrzeuge zu erwarten.