Das Engineering steht vor einem grundlegenden Wandel. Auch wenn es noch nicht so weit ist, dass die Welten Gaming und Automobil verschmelzen, so gibt es bereits einige Überschneidungen. Der Automobilbauer Porsche setzt etwa jetzt schon auf die leistungsfähige Gaming Engine, wenn es um die virtuelle Entwicklung und Erprobung von hochautomatisierten Fahrfunktionen geht.
Wohin die Reise letztlich gehen wird, ist noch nicht klar. Aber was feststeht, ist: Veränderungen kommen und sie werden nachhaltig sein.
Neuartige Technologien sorgen für nachhaltige Veränderungen
Viele Branchen wurden grundlegend auf den Kopf gestellt. So etwa die Glücksspielbranche. Wer sich neue Wettanbieter 2024 ansieht, der wird bemerken, dass es hier ein ganz anderes Angebot als noch vor 10 Jahren gibt. Und auch die Gaming- und Automobil-Welten werden durch neuartige Technologien verändert werden. Auch wenn viele Bereiche noch in den Kinderschuhen stecken, so sind erste Ansätze erkennbar – und das Potenzial ist zum Teil enorm.
Die Gaming Engine ist mehr oder weniger das Herzstück von einem Videospiel: Sie sorgen für realistische Grafiken und Echtzeitreaktionen und garantierten zudem noch den satten Sound, sodass sich die virtuelle Welt, in die der Spieler eintaucht, noch realistischer anfühlt. Das alles ist wie gemacht für Simulationen oder auch Trainings von Fahrassistenzsystemen mit synthetischen Sensordaten, mit denen dann wahrscheinliche und unwahrscheinliche Situationen mit den Fahrzeugen durchgespielt werden können. Das spart einerseits Kosten, andererseits können auch Entwicklungszeiten verkürzt werden. Und weil das auch mit teilautonomen Fahrzeugen möglich ist, kann so das selbstständige Fahren noch sicherer werden.
Aber Porsche bedient sich auch an anderen Stellen: So wird im Bereich der Konstruktionen mit Visual Engineering Tool Prototypen gearbeitet, mit denen virtuelle Werkzeuge geschaffen werden können, sodass es zur Einsparung physischer Modelle kommen kann. Einige Experten sind zudem überzeugt, es wird nur noch eine Frage der Zeit sein, bis die komplett virtuelle Engineering möglich sein kann – auch dank jener Technologien, die die Gaming-Industrie entwickeln konnte.
BMW gilt als Vorreiter
Einer der Vorreiter ist BMW. Seit dem Jahr 2016 arbeitet BWM mit der Computerspiele-Industrie zusammen.
Die Ingenieure von BMW haben bereits die Engine von „Unreal Engine“ aus dem Hause Epic Games in ihrer Automobilentwicklung sowie Produktionsplanung eingesetzt.
Gemeinsam mit dem Spielekonsolen- und Grafikprozessorhersteller Nvidia werden nicht nur das fahrerlose Transportsystem trainiert, sondern auch die Produktionsplanung visualisiert.
Zunächst wurde das mit wenigen Logistikrobotern erprobt, die durch neue KI Module gesteuert wurden. Das Ergebnis?
Autonome Transportsysteme waren in der Lage, Hindernisse wie Routenzüge, Mitarbeiter oder Stapler besser zu erkennen und konnten schneller mit Ausweichmanövern reagieren als jene Systeme, die manuell angelernt wurden.
Die Robots von BMW basieren auf der ISAAC Robotics Softwareplattform von Nvidia und verwenden eine Reihe der künstlichen neuronalen Netzwerke.
Darunter finden sich Segmentierung, Wahrnehmung, die räumliche Lage und auch die Schätzung der menschlichen Position.
Zu den realen Daten werden die Robots auch mithilfe virtueller Bilder trainiert, sodass sie Ladungsträger und Bauteile unter verschiedenen Licht- und Sichtbedingungen sicher erkennen können.
Die realen und synthetischen Daten, die hier gewonnen werden, kann man wiederum nutzen, um neuronale Netzwerke auf den Grafikkarten-basierten Servern zu trainieren.
Das Potenzial ist enorm
Die Vorteile liegen auf der Hand: Autonome Industrieroboter müssen etwa nicht mit Massen an Trainingsdaten gefüttert werden, bevor sie in einer Produktionshalle an den Start gehen können. Das heißt, es muss möglich sein, digitale Produktionshelfer künstlich intelligent werden zu lassen.
Auch Forscher der Abteilung „Perzeption und Kognition“ des Deutschen Zentrums für Luft- und Raumfahrt – kurz: DLR – arbeiten bereits an derartigen Verfahren. Wie bei Games, deren Animationen schnell an die Aktionen des Spielers angepasst werden, soll das auch beim Anlernen von Robotern helfen, das Verhalten trainieren zu können. Dieses Aktions-Reaktions-Muster läuft in der Regel automatisiert ab, sodass im Vorfeld nicht diverse Eventualitäten programmiert werden müssen. Vor allem weiß man auch, dass es nicht machbar ist, alle Eventualitäten zu programmieren.
Den Forschern des DLR hilft die Software BlenderProc, durch die dann Lichtverhältnisse einer simulierten Produktionsumgebung wirklichkeitsnah wiedergegeben werden können. Das deshalb, weil die Daten jedes einzelnen Pixels und jedes Lichtstrahls sowie Änderungen beim Perspektivenwechsel beachtet werden.