Technik

Siegener Avatare für die Produktion

Sensoren zeichnen menschliche Bewegungen auf, die live auf einen Avatar übertragen werden. So entsteht ein Bewegungs-Baukasten.

Sensoren zeichnen menschliche Bewegungen auf, die live auf einen Avatar übertragen werden. So entsteht ein Bewegungs-Baukasten.

Foto: Uni Siegen

Siegen.   Die Uni Siegen arbeitet an einem internationalen Projekt mit, bei dem Bewegungsabläufe für die Industrie simuliert werden.

Wir unterschätzen unser Können manchmal. Eine Kaffeetasse vom Tisch heben, zum Mund führen, trinken und sie wieder abstellen, ohne etwas zu verschütten: Das schafft ein Roboter nur schwer. Auch im Computerspiel sieht es meist nicht völlig realistisch aus. Prof. Martin Manns erfindet keine Spiele und baut keine Roboter, beschäftigt sich aber trotzdem damit, wie sich menschliche Bewegungen realitätsnah simulieren lassen. Der Inhaber des Lehrstuhls für Fertigungsautomatisierung und Montage an der Universität Siegen ist mit seinem Team am internationalen Forschungsprojekt MOSIM beteiligt, das die Produktionsplanung in Unternehmen verbessern will.

10 Millionen Euro Forschungsgeld

Mit Avataren sollen manuelle Montageabläufe in der virtuellen Realität getestet und optimiert werden. Das würde viel Zeit und Geld sparen. Die Siegener Wissenschaftler arbeiten in dem Projekt, für das knapp 10 Millionen Euro zur Verfügung stehen, daran, die Bausteine für Bewegungen zu definieren und zu konfigurieren.

Wozu man das braucht? Prof. Manns ist ganz sicher nicht der Schlechteste, um das zu erklären. Bevor er 2016 nach Siegen kam, war er viele Jahre lang bei Daimler und Henkel in der Produktionsplanung bzw. Automatisierungstechnik tätig. Von daher weiß er, dass Menschen in vielen Produktionsbereichen effektiver sind als Roboter, dass aber Automatisierung zur Unterstützung taugt und gestiegene Arbeitskosten in den Schwellenländern viele Unternehmen wieder stärker auf Automatisierung setzen lassen.

Wenn Menschen mit Maschinen zusammenarbeiten, kommt es auf Präzision an, auf sekundengenaue Planung. Das Problem: „Man weiß nicht ganz genau, was die Menschen tun“, sagt Martin Manns. „Jeder hat gute und schlechte Tage, Menschen sind unterschiedlich leistungsfähig, geplant wird aber einheitlich.“ Das ist nicht effektiv. Und wenn es um Ergonomie geht, um die Belastung von Gelenken oder um altersgerechte Arbeitsplätze, also um die Gesundheit, wäre es auch hilfreich, die tatsächlichen Abläufe zu erfassen: Gehen die Mitarbeiter beim Heben schwerer Lasten in die Knie oder nicht? „Wir haben ein Fließband im Labor nachgebaut und Bewegungen mit Infrarotkameras erfasst“, berichtet Manns. Die Methode war allerdings nicht für alle Abläufe geeignet. Und bisherige Ergonomie-Simulationen sind sehr teuer.

Erfahrungen der Spieleindustrie

Das aktuelle Forschungsprojekt nutzt deshalb die Erfahrungen der Spieleindustrie. Die Entwickler in dieser Branche werden immer besser darin, Bewegungen in komplexen Umgebungen zu gestalten. Die Siegener Forscher setzen allerdings vorher an. Sie haben viele Daten für Bewegungen. Aus denen wollen sie Bewegungsmodelle entwickeln. Dabei kommt es darauf an, mit möglichst wenigen Parametern die unterschiedlichen Abläufe zu beschreiben. Aus einem Modul-Baukasten an menschlichen Bewegungen sollen am Ende komplexe Tätigkeiten zusammengesetzt werden können, in denen die Avatare natürlich und situationsangemessen agieren: „Fehler in der Simulation werden heute nicht mehr akzeptiert“, weiß Manns.

Aber wie sieht es um die Akzeptanz bei den Mitarbeitern aus, wenn solche Modelle zum Einsatz kommen? Müssen sie nicht Sorge haben, sich an virtuelle Welten anpassen zu müssen? „Im Gegenteil“, versichert Manns. „Es geht darum, die Arbeitsplätze intelligenter und gesünder zu machen.“ Und wie sieht es um die künftige Zusammenarbeit zwischen Menschen und Robotern aus? Verlässt der Kollege Automat irgendwann den Käfig? „Wir wollen in diesem Bereich weiter forschen“, erklärt der Wirtschaftsingenieur. „Der Plan ist, in Siegen einen Schwerpunkt dazu aufzubauen.“ Eine Möglichkeit könnte sein, die Roboter „weicher“ und damit weniger gefährlich zu machen.

Erst aber geht es um die Avatare. Die könnten auch in anderen Umgebungen wertvoll werden, beispielsweise zur Simulation von Fußgängern, wenn es um virtuelle Tests mit autonom fahrenden Autos geht. Die Herausforderung ist die gleiche: Die Avatare müssen sich bewegen wie echte Menschen. Und das ist eben ziemlich anspruchsvoll.

Leserkommentare (0) Kommentar schreiben