Blicksteuerung mit unbemannten, robotischen Plattformen

Der Blick eines Menschen ist die Basis unserer sozialen Kooperation. Bereits seit Jahrtausenden nutzen wir unseren Blick für Kommunikation und Interaktion mit anderen Menschen. Warum nutzen wir ihn nicht auch für die Kooperation mit technischen Systemen? Unser Blick hat eine Richtung, eine Bewegung und eine Aussage. Diese Eigenschaften lassen sich als Eingabemedium für technische Systeme nutzbar machen. Im zivilen Bereich ist dieser Ansatz bereits auf dem Vormarsch, aber wie kann dieses Konzept im militärischen Bereich die Zukunft bestimmen? Zum Beispiel durch Nutzung in einem Aufklärungsszenario mit ferngesteuerten Roboterplattformen.

Gaze Based Cooperation (GaBaCo)

© Fraunhofer FKIE
Systemdiagramm Gaze Based Cooperation.
© Fraunhofer FKIE
Hinweise durch AR-Symbolik und Darstellung des Blickpunktes.

Durch die Zunahme von Automatisierung und autonomen Funktionen in technischen Systemen im militärischen Bereich ist abzusehen, dass die Rolle der Soldaten sich von einer (aktiv) steuernden, hin zu einer (teilweise passiv) führenden bzw. überwachenden entwickelt. Bereits bekannten Problemen, dass der Operator dadurch außerhalb des Kontrollregelkreises (out-of-the-loop) gerät, kann mit neueren Konzepten wie der Shared & Cooperative Control entgegengewirkt werden [1]. Hierbei wird der Soldat an richtiger Stelle involviert, um ausreichendes Automationsbewusstsein (Mode Awareness) und Kontrollierbarkeit (Meaningful Human Control) zu gewährleisten. Dies kann auch die Einsatzfähigkeit während der Teleoperation steigern, insbesondere da für diese Form der Kontrolle traditionelle Interaktionsmethoden weniger effizient sind und somit weiterentwickelt werden müssen. Visuelle Interaktion über Blicke spielen beim Menschen sowohl für die Informationsaufnahme als auch für die Kooperation untereinander eine Schlüsselrolle. Dies kann auf die Mensch-Technik-Kooperation und -Interaktion übertragen werden. Hierfür wurde als Interaktionsmethode eine auf Blickpunkterfassung (Eyetracking) basierte Methode exploriert und qualitativ evaluiert. Dabei wurde ein bereits gut erforschtes Interaktionskonzept (die Eingabe über eine Eingabeeinheit) mit einer blickgesteuerten Interaktion (Gaze-Based Control) in Form von Eyetracking kombiniert [2]. Der blickbasierte Anteil orientiert sich an der MAGIC-Methode (Manual and Gaze Input Cascaded pointing). Diese Methode fügt dem reinen Eyetracking eine zusätzliche Interaktionskomponente hinzu, die eine manuelle Verfeinerung bzw. Anpassung des eigentlichen Blickpunktes möglich macht.

Der Nutzer ist in der Rolle eines Operateurs, der über einen Bildschirm, gepaart mit Eyetracking und einem manuellen Eingabegerät (Gamepad), ein automatisiert fahrendes Bodenfahrzeug steuert und überwacht (s. Abbildung 1). Die Aufgabe des Operateurs ist es, von der Software zuvor erkannte Objekte auszuwählen und zu klassifizieren. Hilfestellung geben dabei Einblendungen (Augmented Reality, AR), welche die Realität (zumeist ein Kamerabild) mit zusätzlichen virtuellen Layouts, Informationen oder Hinweisen, z. B. zu Objekten und Gebieten, überlagern (vgl. Abbildung 2). Somit wurde eine Kombination aus Teleoperation (Remote Control), virtuellen visuellen Hinweisen (AR) und Blickpunkterfassung (Eyetracking) vorgenommen.

© Fraunhofer FKIE
Darstellung der Innovationsturbine [4].

Zunächst wurde das Metasystem bestehend aus dem Gestaltungsraum (Design Space), dem Nutzungsraum (Use Space) und weiteren Aspekten wie bspw. Stakeholdern modelliert. Dieser Ansatz entspricht der Vorgehensweise einer balanced Human Systems Integration (bHSI) [3]: Brainstorming, Literaturrecherche, Modellierung, Systemexploration, Implementierung und Evaluation. Diese Vorgehensweise lässt sich anschaulich in der Innovationsturbine [4] darstellen (s. Abbildung 3). Der Ansatz bietet den notwendigen Freiraum in der Konzept- und Gestaltungsphase, neue Ideen und Methoden zu entdecken, und eine mögliche kombinatorische Explosion möglicher Designs und Nutzungssituationen systematisch zu erkunden und einzugrenzen.

Das gewählte Interaktionskonzept wird sowohl in einer reinen Simulationsumgebung (s. Abbildung 5, r.) wie auch zukünftig in einer im Rahmen des Projektes entwickelten AR-Anwendung mit Kamerabildübertragung eines ferngesteuerten Unmanned Ground Vehicle (UGV) im Feldeinsatz erprobt (s. Abbildung 4, l.). Das Setup des Bedienerarbeitsplatzes bleibt für beide Erprobungsfälle identisch. Die Konsistenz der Interaktion wird dabei durch Nutzung kompatibler Interaktionsmuster abgesichert [5, 6].

Das Setup besteht aus drei Hauptkomponenten: Benutzer, Hardware-Setup und Simulations- / AR-Software. Das Hardware-Setup setzt sich zusammen aus einem 3-Monitor-System mit einem Sichtfeld von 135°, drei Tobii 5 Eyetrackern und einem Gamepad als zusätzliche Eingabeeinheit (vgl. Abbildung 5, o. r.). Die Systemkomponenten wurden in einer Simulatorkonstruktion zusammengeführt. Auf den drei Bildschirmen wird die Sicht des simulierten bzw. realen Erkundungsfahrzeugs angezeigt. In die Sicht des Operateurs wurden u. a. Symbole nach NATO-APP6 (D) Standard [7] eingeblendet, welche die Objekte markieren. Eine Visualisierung der Blickpunkterfassung in Form eines Cursors und haptische Interaktion mit dem Gamepad, ermöglichen die Interaktion mit den dargestellten Symbolen. Eigenschaften des Eyetracker-Cursors (Größe, Form, Farbe), der AR-Elemente (Skalierung, Textanzeige) und der Übergabeparameter von bzw. zur Automation (Transitionszeit, visuelle und auditive Hinweise) werden über eine separate Benutzeroberfläche durch ein Tablet gesteuert (s. Abbildung 6), aufgezeichnet und in Echtzeit in der Software bzw. Simulation geändert.

 

© Fraunhofer FKIE
Abbildung 4: Ferngesteuerte Roboterplattform in der Realität (l.) und in der Simulationsumgebung (r.)
© Fraunhofer FKIE
Abbildung 5: o. l.: AR-Software im Realaufbau, o. r: Bedienerarbeitsplatz, u.: Simulationsumgebung.
© Fraunhofer FKIE
Abbildung 6: Mobile Explorationsanwendung auf einem Tablet.

© Fraunhofer FKIE
Abbildung 7: Roboterplattform bei Tests auf dem Robotikaußengelände des Fraunhofer Standorts Wachtberg
© Fraunhofer FKIE
Abb. 8: Simulatoraufbau bei der DWT-Tagung am 26./27.10.2021 zu unbemannten Systemen in Bonn

Nachdem die Möglichkeit geschaffen wurde, AR-Symboliken zu explorieren und zu gestalten, wurde eine Untersuchung für die Übertragung der AR-Technologien und Methoden, die in der NATO-Gruppe AVT-290 und dem Vorgängerprojekten ARiE I & II (Augmented Reality im Einsatz) erarbeitet wurden, in landgestützten Plattformen durchgeführt.

Als Basisfahrzeug wurde hier der F&T Demonstrator GTK BOXER JODAA durch das BAAINBw ausgewählt. Dazu wurde in einem Workshop am FKIE im Auftrage des BAAINBw ein relevantes Szenario mit verschiedenen Anwendungsfällen für AR beschrieben. Darauffolgend wurde die Exploration Sandbox weiterentwickelt und die entsprechenden Schnittstellen mit dem Führungsinformationssystem (englisch Battle Management System, BMS) in Zusammenarbeit mit Rheinmetall Land Systems und Diehl Defence geschaffen (Abbildung 4). Das BMS sorgt für einen Informationsaustausch zwischen verschieden Einheiten der NATO.

Zusammen mit Vertretern der WDT 91, FKIE und des Zentrum Kraftfahrwesen Bundeswehr wurde ein Workshop zum Thema „Blue Team Tracking“ durchgeführt. Dabei wurden Kleinlagen (Vignetten), angelehnt an die NATO RTG AVT-290 etablierten Anwendungsfälle, entwickelt. Wobei die Vignetten eine Konvoifahrt mit Kontaktverlust eines Fahrzeuges und anschließender Rettungsmission sowie eine Konvoifahrt zur Zielzone darstellen.

Über mehrere Wochen wurden die durch die Abteilung Systemergonomie des FKIE entwickelten Systeme in das Forschungsfahrzeug JODAA integriert, getestet und die Untersuchung zusammen mit den Projektpartnern vorbereitet. Anschließend wurden die entwickelten Szenare in einer Untersuchung mit Probanden durchgespielt und abgefahren (s. Abbildung 5). An mehreren Stellen im Szenario wurde die Darstellungsform der Augmented Reality Symbole diskutiert und entsprechend der Kommentare der Besatzung mit Hilfe der Exploration Sandbox UI in Echtzeit abgeändert. Die Erfahrungen und Meinungen der Probanden wurden durch Fragebögen im Anschluss abgefragt. In abschließenden Workshops vor Ort wurden die Ergebnisse gesammelt und weitere Anmerkungen der Probanden aufgenommen. Im Nachgang wurden aus den Rückmeldungen der Probanden eine allgemeine Darstellungsform erarbeitet, Erweiterungspotential identifiziert und Optimierungen herausgearbeitet.

 

[1] F. Flemisch et al., »Shared control is the sharp end of cooperation: Framework of joint action, shared control and human machine cooperation«, in Cognition, Technology & Work, Special Issue »Shared and cooperative control of safety critical systems.« F. Flemisch et al. Eds., 2019.

[2] J. Wasser, M. Bloch, K. Bielecki, D. Vorst, D. Lopez, M. Baltzer and F. Flemisch, »Gaze based interaction for object classification in recon-naissance missions using highly automated platforms«, in 4th International Conference on Intelligent Human Systems Integration: Integrating People and Intelligent Systems, Palermo, Italy, February 2021.

[3] Flemisch, F., Baltzer, M., Sadeghian, S., Meyer, R., Lopez Hernandez, D., Baier, R.: Making HSI more intelligent: Human Systems Exploration versus Experiment for the Integration of Humans and Artificial Cognitive Systems; 2nd conference on Intelligent Human Systems Integration IHSI San Diego 2019

[4] Flemisch, F., Preutenborbeck, M., Baltzer, Marcel., Wasser, J., Kehl, C., Grünwald, R., Pastuszka, H., Dahlmann, A. (2022). Human Systems Exploration for Ideation and Innovation in Potentially Disruptive Defense and Security Systems. 10.1007/978-3-031-06636-8_5.

[5] Baltzer, M., Altendorf, E., Meier, S., Flemisch, F.: Mediating the interaction between human and automation during the arbitration processes in cooperative guidance and control of highly automated vehicles: Basic concept and first study. In: (ed.) Stanton, N., Landry, S., Bucchianico, G. D., and Vallicelli, A. Advances in Human Aspects of Transportation Part I. AHFE Conference, 2014.

[6] Baltzer, M. C. A., López, D., Flemisch, F.: Towards an interaction pattern language for human machine cooperation and cooperative movement. Cognition, Technology & Work. 21, 593–606, 2019.

[7] NATO Joint Military Symbology APP-6(D) 2017. https://litpolukrbrig.wp.mil.pl/u/APP-6D_JOINT_MILITARY_SYMBOLOGY._16_October_2017.pdf.