Im Rahmen der menschzentrierten Gestaltung wurde in einem ersten Schritt der Nutzungskontext analysiert. Hierzu erfolgte zunächst die Eingrenzung des umfangreichen Wartungskontextes auf zwei repräsentative Anwendungsfälle. Der erste Anwendungsfall betraf die »Installation einer Bildschirmeinheit im Cockpit«. Charakteristisch sind hierbei der begrenzte Raum im Inneren der Maschine, der ausladende gestische Interaktion behindert, sowie ein erhöhter Geräuschpegel, der eine mögliche Spracherkennung beeinflusst. Des Weiteren wird die automatische Objekterkennung und damit auch die direkte Überlagerung des Cockpits mit virtuellen Informationen durch wechselnde Beleuchtung und starke Hintergrundstrahlung der Instrumente erschwert. Der zweite Anwendungsfall, die »Wartung einer Batterie in der Werkstatt«, unterschied sich maßgeblich vom ersten: Die Umgebung ist hierbei sehr statisch, die Beleuchtungssituation kontrolliert und gut geeignet zur automatischen Erkennung von Objekten. Darüber hinaus können in der Werkstatt, anders als im Cockpit, Modifikationen in Form von Markierungen zur Überlagerung virtueller Informationen genutzt werden.
Das genaue Vorgehen bei der Durchführung der jeweils notwendigen Arbeiten wurde sowohl durch Befragungen von Domänenexperten als auch deren direkte Beobachtung am Arbeitsplatz analysiert. Des Weiteren wurde die persönliche Ausrüstung und deren Kompatibilität zu relevanten AR-Datenbrillen überprüft. Das Ergebnis der Nutzungskontextanalyse waren verschiedene abstrahierte Aufgaben- und Nutzermodelle, wie z. B. Personas, Aktivitätsszenarien oder User Journey Maps.
Aufbauend auf diesen Ergebnissen wurden verschiedene Anforderungen in den Kategorien Nutzung, Organisation und Gestaltung abgeleitet. Ergänzt wurden diese durch Anforderungen an die Umgebung und bestimmte Parameter, die die Nutzung von AR-Datenbrillen beeinflussen und deren Einsatz potenziell einschränken können.
Im Rahmen der darauffolgenden Konzeptionsphase wurden auf Grundlage der analysierten Anwendungsfälle und zugehöriger Anforderungen dedizierte Gestaltungslösungen erarbeitet. Hierzu erfolgte zunächst die Identifikation geeigneter Hardware. Das Ergebnis der Analyse marktverfügbarer AR-Datenbrillen zeigte, dass die Microsoft HoloLens 2 über umfangreiche Sensorik zur Erkennung der Umgebung verfügt und sowohl Sprachbefehle als auch Gesten- und Blicksteuerung unterstützt. In der Folge wurden Storyboards entwickelt, die neben der prototypischen Darstellung von Informationen auch die Interaktion des Nutzers mit der HoloLens und seiner Umgebung illustrieren, was insbesondere bei der Gestaltung von AR-Benutzungsschnittstellen von Bedeutung ist. Zur Feinkonzeption wurde ein systematischer Ansatz verfolgt, in dessen Rahmen die funktionalen Ebenen Informationsgestaltung, visuelle Gestaltung und Interaktionsgestaltung differenziert wurden. Zur Informationsgestaltung skizzierten Wireframes die Struktur von Informationen und Dialogen. Im Rahmen der visuellen Gestaltung wurde festgelegt, wie diese Elemente genau dargestellt werden sollen, was vor allem die Auswahl von Farbgebung und Schriften sowie die Entwicklung von Screen-Designs beinhaltete. Die Interaktionsgestaltung widmete sich schließlich der Umsetzung geeigneter Interaktionstechniken.
Im Fokus standen dabei Lösungen zur natürlichen Systemkontrolle sowie die Gestaltung multimodaler Eingabetechniken, die es dem Nutzer ermöglichen sollen, unabhängig von Einschränkungen durch die aktuelle Aufgabe oder bestimmte Umgebungsvariablen zu interagieren. Hierfür wurden verschiedene Interaktionselemente gestaltet, die sowohl mithilfe des Blicks als auch mit Gesten bedient werden konnten. Zur Vermeidung ungewollter Eingaben bei Nutzung der Blicksteuerung wurden verschiedene Herangehensweisen recherchiert und evaluiert. Umgesetzt wurde schließlich die Eingabe durch kurzes Verweilen des Blicks auf dem Interaktionselement. Dabei füllt sich, ähnlich eines Fortschrittbalkens, ein Indikator, der anzeigt, wie lange der Nutzer noch auf das Element blicken muss, um es auszulösen. Alternativ kann der Nutzer das Interaktionselement durch Drücken mit ausgestrecktem Zeigefinger aktivieren. Das Element zeigt dabei physikalisch nachvollziehbares Verhalten, welches sich am Paradigma der Reality Based Interaction orientiert und so die Affordanz verbessern sowie das Nutzungserlebnis bereichern soll.