Interview mit Andreas Rauschelbach: Einsatzkräfte mit NEXT-Reality virtuell auf Notsituationen vorbereiten

Das Team des BMBF-geförderten Projekts NEXT-Reality präsentierte seine Forschungsergebnisse auf der Fachmesse XR Expo 2024 in Stuttgart. Andreas Rauschelbach, Projektleiter des Anwendungspartners OffTEC-Base GmbH & Co. KG, erklärt im Interview, wie man Einsatzkräfte virtuell auf Notsituationen vorbereitet.

Andreas Rauschelbach, NEXT Reality© OffTEC-Base GmbH & Co. KG

Herr Rauschelbach, mit Ihren VR-Anwendungen bereiten Sie Einsatzkräfte auf Notsituationen vor. Wie entstand diese Projektidee?

Wir sind Dienstleister für Offshoretrainings. Das sind Trainings für Einsatzkräfte auf Windrädern oder Plattformen vor der Küste. Wir haben dieses Projekt ausgearbeitet, weil wir gesehen haben, dass viele Teilnehmende den Belastungen im Realtraining nicht gewachsen sind. So entstand die Idee, mithilfe von VR- und XR-Technologie ein vorgeschaltetes Training zu entwickeln, mit dem sich die Situationen möglichst real, aber dennoch gefahrlos durchleben lassen. Mithilfe unseres Systems sollen Menschen lernen, wo welche Gefahren sind und was vermieden oder getan werden muss, um nicht zu Schaden zu kommen. Das ist das Ziel dieses Projekts.

Welche Art von Training wäre das zum Beispiel?

Ein Szenario, das wir im virtuellen Bereich durchleben lassen und auch hier auf der Messe zeigen, ist das Ausstiegstraining bei der Notwasserung eines Hubschraubers. Das ist ein Training, das alle im Offshorebereich arbeitenden Personen durchlaufen müssen, um überhaupt in einem Helikopter mitgenommen zu werden.

Wie kann man sich das vorstellen?

Unsere VR-Sequenz ist in drei Teile aufgeteilt: Der erste Teil ist die Einweisung, das sogenannte Boarding, durch eine virtuelle Trainingsperson. Sie holt die Teilnehmenden ab und weist sie in die Notfallgriffe ein, die erforderlich sind, um sich bei einer Notwasserung aus dem Helikopter zu befreien. Der zweite Teil ist der Flug und der dritte die Notwasserung mit dem Ausstiegstraining.

Dabei können sich die Teilnehmenden auf jeden Sitz des Hubschraubers setzen, also nicht nur in den Besatzungsbereich, sondern auch auf den Sitz des Fahrzeugführenden. Denn der Sitz entscheidet über den individuellen Rettungsweg: Er kann links oder rechts liegen und durch Fenster oder Türen gehen.

Was tun, wenn der Hubschrauber notwassert? © VDI/VDE-IT

Sie kombinieren das Training mit Umgebungseinflüssen und Sinnesreizen. Wie kann man sich das vorstellen?

Wie beim Realtraining sind auch die Teilnehmenden des VR-Trainings mit ihrer persönlichen Schutzausrüstung ausgestattet. Dazu gehören zum Beispiel Schutzanzug, Rettungsweste, Gurtsystem und Notfallatemgerät. Sie sitzen also mit Vollequipment und ihren persönlichen Rettungsmitteln angeschnallt im Helikoptersitz.

Die Bewegung des Helikopters ahmen wir mithilfe eines Stuhls nach, der auf drei Achsen rotiert. Beim Ausstieg führen die Teilnehmenden mehrere Schritte aus: Zum Beispiel müssen sie sich mit einer 45-Grad-Bewegung aus ihren Gurten befreien und nach dem Mundstück des Atemgeräts greifen. Um sich den Rettungsweg freizumachen, müssen sie Sicherungen lösen und Fenster und Türen auswerfen. Alle diese Vorrichtungen haben wir in unserer Simulation originalgetreu nachgebaut.

Sie messen den Stress der Teilnehmenden. Warum machen Sie das?

Das Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) in Rostock hat ein System entwickelt, mit dem sich das Stresslevel der Simulationsteilnehmenden messen und in Echtzeit auswerten lässt. So können wir auf den Ablauf der Simulation Einfluss nehmen. Denn wenn das Bio-Feedback eines Teilnehmenden zurückmeldet, dass dessen Stressgrenze erreicht ist, dann wollen wir natürlich den Druck aus der Simulation herausnehmen. Wir wollen die Teilnehmenden ja nicht überfordern, sondern gestärkt aus dem Training gehen lassen. Sie sollen sehen, dass sie einen solchen Notfall überstehen und unter Belastung handlungsfähig bleiben können.

Wo liegen die Grenzen des Systems?

Leider können wir die Realumgebung nicht zu 100 Prozent nachbilden: Wir können die Technik zum Beispiel nicht ins Wasser bringen und daher durch Sensorik oder Aktorik den Wasserauftrieb nicht simulieren.

Wann kommt Ihre Technik in die Anwendung?

Bis Ende 2024 werden wir das System soweit entwickelt und auch genügend Zielgruppen bemessen haben, um daraus eine wirkliche Dienstleistung kreieren zu können. Das geht über das hier gezeigte Ausstiegstraining hinaus. Denn die Kombination der virtuellen Nachbildung von Gefährdung im Arbeitsbereich dürfte für viele weitere Bereiche interessant sein.

Weitere Informationen

Tagesschau-Beitrag über NEXT-Reality auf der XR Expo 2024
Projektsteckbrief NEXT-Reality 
Projekt-Website

Das Interview wurde im April 2024 geführt.