Ziel des Konzepts für die Missionsplanung war eine intuitive Darstellung der dreidimensionalen Informationen, welche die Nutzer in die Lage versetzen den Einsatz mit den unbemannten Systemen am Einsatzort zu planen. Daher wurde die Missionsplanung als Virtual Reality (VR) konzipiert, sodass eine immersive Darstellung des Einsatzortes möglich ist.
Während reale Informationen, wie das Terrain, Bäume und Häuser, so intuitiv erfahrbar gemacht werden, müssen typischerweise zweidimensionale Interaktions- und Planungswerkzeuge in die dreidimensionale Welt übertragen werden. Daher wurde die VR-Missionsplanung in einem iterativen, menschzentrierten Ansatz und im engen Austausch mit den Einsatzkräften stetig weiterentwickelt. Während des Austauschs mit den Einsatzkräften wurden besonders relevante Kernelemente der Nutzerschnittstelle identifiziert und als Forschungsschwerpunkte vertiefend betrachtet.
Zur Planung des Einsatzes wird dem Nutzer als Tablet eine vertraute Metapher an die Hand gegeben. Auf dem Tablet werden eine zweidimensionale Karte und auswählbare Planungswerkzeuge angezeigt. Die Karte kann sowohl als Satellitenansicht als auch als vereinfacht Darstellung angezeigt werden und die Nutzer können sich ein UTM-Gitter ein- oder ausblenden lassen. Für die bessere Orientierung in der virtuellen Welt kann außerdem der selbst zurückgelegte Pfad auf der Karte ein- und ausgeblendet werden. Zusätzlich ist an der oberen, rechten Ecke ein Kompass befestigt.
Die unbemannten Systeme, welche eingesetzt werden sollen, werden sowohl in der dreidimensionalen Umgebung als auch auf der zweidimensionalen Karte angezeigt. In der Karte können die Nutzer Wegpunkte für die unbemannten Systeme anlegen, welche diese daraufhin abfahren bzw. abfliegen. Über die Karte oder in der realen Welt können sich die Nutzer auf eines der unbemannten Systeme teleportieren, sodass sie mögliche Hindernisse und Informationen sehen und die Wegpunkte entsprechend anpassen können.
Als Forschungsschwerpunkte wurden die Fortbewegung in der virtuellen Welt sowie die Interaktion mit Menüs zur Systemkontrolle betrachtet.
Zur Fortbewegung wurde eine neue Teleportationsmethode entwickelt, mittels derer sich Nutzer nicht nur entlang des Terrains sondern auch in die Höhe teleportieren können. Im ersten Schritt wird mittels einer Zeigegeste ein Punkt auf dem Boden ausgewählt. Im zweiten Schritt wird die Höhe über diesem Punkt ausgewählt, indem die Hand nach oben oder nach unten bewegt wird. Eine Säule wird in ein Meter großen Abständen entsprechend der Bewegung vom Boden nach oben gezogen, sodass die Nutzer die Zielposition entsprechend ihrer aktuell Handposition direkt sehen können. Entlang der ein Meter großen Abstände wird die Position über dem Boden sowie über Normalnull angezeigt.
Zur Systemkontrolle wurde ein Kreismenü integriert, das an dem Arm der Nutzer verankert ist und sich auf Knopfdruck am Controller ein- und ausblenden lässt. Die Auswahl der einzelnen Menüpunkte erfolgt mittels der anderen Hand. Als Forschungsschwerpunkt wurden verschiedene Eingabemethoden untersucht: Die Eingabe mittels Zeigegeste, tatsächlichem Drücken mit dem virtuellen Zeigefinger, Rotation des Joysticks des Controllers und mittels Rotation des Handgelenks.