Wie werden wir die AR-Brille von Apple nutzen und mit welcher Benutzeroberfläche?

Wie werden wir die AR-Brille von Apple nutzen und mit welcher Benutzeroberfläche?

Wenn sie erscheinen, möchte Apple sicherstellen, dass das Tragen einer Apple-Brille genauso natürlich und unumgänglich ist wie die Verwendung jedes anderen Apple-Produkts. Und wir kommen langsam an einen Punkt, an dem wir herausfinden können, wie diese Dinge funktionieren werden.

was sie nicht sind

Lassen Sie uns zunächst etwas beiseite legen. Die AR-Brillen von Apple wären niemals Geräte, die man mit einer komplexen Fernbedienung steuern würde, nicht einmal ein iPhone.

Apple möchte, dass das Benutzererlebnis so nahtlos wie möglich ist, und wird dieses Erlebnis im Laufe der Zeit iterieren und verbessern. Alles in der Geschichte von Apple sagt uns, dass Sie eine Benutzeroberfläche erstellen möchten, die ein natürliches, vernetztes Gefühl vermittelt.

Sie möchten eine völlig neue Designsprache für die Benutzeroberfläche erstellen. Möglicherweise besteht der Plan für Apple Glass darin, die menschlichste Schnittstelle von allen zu schaffen, bei der Sie im Mittelpunkt des Systems stehen.

wie Apple denkt

Bei dieser Rezension lasse ich mich von Apples Denkweise und einer Vielzahl aktueller Gerüchte leiten. Kürzlich hieß es beispielsweise, dass diese Brille mehrere Kameras beherbergen und teilweise durch Gesten und Bewegungen gesteuert werden soll.

Wie könnte das funktionieren?

Um eine Vorstellung davon zu bekommen, wie Apple über das Design von Benutzeroberflächen denkt, bedenken Sie drei Dinge:

Beachten Sie auch Apples umfangreichen Katalog an Barrierefreiheitsdesigns und die ebenso umfangreiche Arbeit mit Siri, die beide für viele Benutzer weitreichende Verbesserungen bieten.

eine menschliche Zukunft schaffen

Im Wesentlichen spiegelt jede dieser Benutzeroberflächen Apples Entschlossenheit wider, Arbeitsweisen mit Technologie zu schaffen, die sich völlig natürlich anfühlen. Der frühere Designer Jony Ive sprach oft davon, dass sein Unternehmen auf der Suche nach einem solchen Untergang sei.

Selbst wenn das Unternehmen es nicht richtig hinbekommt (z. B. Touch Bar), wird es seine Systeme iterieren und verbessern, bis es eine Benutzeroberfläche erstellt hat, die so einfach ist, dass Benutzer dabei bleiben.

Diese Suche bedeutet, dass Apple versuchen wird, dies mit aufgesetzter Brille zu erreichen. Sie möchten kein Produkt erstellen, für das Sie einen Ingenieurabschluss benötigen; Sie möchten auch kein Gadget erstellen.

Sie möchten, dass die Benutzererfahrung nahtlos und transparent ist, als ob die Dinge schon immer so gewesen wären.

Was ist also bei Brillen unausweichlich?

Ich denke, dass diese Art von tiefem Sinn für eine unermüdliche Zielstrebigkeit bedeutet, dass man mit dem Offensichtlichen beginnt und auf dieser grundlegenden Erfahrung aufbaut. Was tun Sie also, wenn Sie eine normale Brille tragen?

Ich denke, die meisten von uns schauen hin.

Wir benutzen unsere Augen, wir bewegen sie, wir blinzeln, wir schauen und wir konzentrieren uns auf verschiedene Dinge. Wir schauen genau hin und schauen weg. Lesen. Es sieht aus. Wir achten darauf. Manchmal blicken wir immer noch gerne träge ins Leere und nehmen wahr, wie eine weitere Datengrenze überschritten wird.

Das sind die Dinge, die wir tun. Auch zur Verbesserung unseres Sehvermögens nutzen wir Brillen, was bei diesen Kreationen ebenfalls möglich erscheint.

Wie lassen sich diese vertrauten Aktionen in eine Benutzeroberfläche für die Brille umsetzen?

Hier einige Grundannahmen:

Was könnten sie tun?

Stellen Sie sich vor, Sie machen Urlaub in einem Land mit einer anderen Sprache. Du siehst in der Ferne ein Schild.

Die Sensoren in Ihrer Brille erkennen die Richtung und den Fokus Ihres Blicks, während die nach außen gerichteten Sensoren das Objekt scannen und versuchen, Ihr Seherlebnis zu verbessern. Bei diesem Schild kann die Brille hineinzoomen, um das Schild klarer zu machen und die darauf befindlichen Wörter wahrscheinlich automatisch zu übersetzen. Diese Übersetzung kann als eine Art Überlagerung auf den Linsen bereitgestellt werden, die Sie nur sehen können.

Entpacken Sie, was während dieser Aufgabe passiert ist, und Sie werden sehen, dass sie aus mehreren Prozessen besteht:

Alle diese Vorgänge werden durch eine Vielzahl von maschinellem Lernen und auch visueller Intelligenz auf dem Gerät unterstützt, was bedeutet, dass auf diesen Geräten wahrscheinlich eingebettete Prozessoren installiert werden.

Dies ist nur ein Beispiel dafür, was passieren kann.

Wie würden diese Aufgaben entwickelt? Automatisch oder auf Bestellung?

Wie kann ich eine Brille anfordern?

Eigentlich fragen wir nicht nach der Brille. Meistens setzen wir einfach unsere Brille auf und nehmen sie wieder ab.

Wo sind die Steuerungsschnittstellen an der bestehenden Vermittlungsstelle?

Während es unvermeidlich erscheint, dass bestimmte Befehle mit den Nachkommen der Brille (wie den Nachkommen der AirPods) ausgeführt werden, stellt sich die Frage, wie viele Befehle Sie auf diese Weise starten können? Meiner Meinung nach nicht viel, was auf einige Modifikationsmaßnahmen schließen lässt.

Die Notwendigkeit, Aktionen zu ändern, legt zusätzliche Steuerungsschnittstellen nahe, einschließlich Blickrichtung, Blinzeln, Gestikulieren, Stimme und Berührung. Da jede dieser Interaktionen das Geschehen erschweren kann, benötigen Benutzer eine Möglichkeit, den Überblick über die von ihnen aufgegebenen Bestellungen zu behalten. Es könnte über eine einfache Steuerschnittstelle funktionieren, beispielsweise ein virtuelles Klickrad, das in die Linse integriert ist.

Im Gebrauch können Sie zweimal auf die Unterseite Ihrer Brille tippen, um in den Steuerungsmodus zu wechseln, auf ein zu fokussierendes Objekt zielen oder es anschauen und dann mit dem Klickrad auf der Linse durch Berührung, Geste oder gute Augenbewegung durch die freien Bedienelemente blättern

Ein solches System würde komplexe Aufträge akzeptieren.

Ein anderer Ansatz könnte darin bestehen, die Geste zu verwenden. Geballte Faust, Zeigen, offene Hand, Verschiebung mit der linken Hand, Verschiebung mit der rechten Hand, alles in einer sehr kleinen Minderheit und im Einklang mit der bestehenden Apple-Arbeit und dem Apple Vision-Framework.

Alle diese Ansätze (allein oder in Kombination) würden die Art komplexer Benutzeroberfläche liefern, die Entwickler benötigen, um komplexe Anwendungen für diese Geräte zu erstellen.

Apple möchte natürlich, dass seine Brillen mit Anwendungen von Drittanbietern kompatibel sind.

Dieser Bedarf bedeutet, dass Sie danach streben müssen, eine Benutzeroberfläche bereitzustellen, die genauso gut funktioniert wie die Verwendung von Maus und Tastatur oder Multitouch. Ich denke, Apple möchte mit diesen Geräten ein Plattform-Event schaffen (kürzlich wurde behauptet, es handele sich um eigenständige Geräte, die kein iPhone benötigen), was bedeutet, dass sie ihre fortschrittlichen Steuerelemente unterbringen sollten.

Die Benutzeroberfläche sollte von Natur aus so unausweichlich sein, dass man in dem Moment, in dem man sie zu benutzen beginnt, schnell vergisst, wie man jemals ohne sie gelebt hat.

Es wird interessant sein zu sehen, wie Apples eigene UI-Designer diese Herausforderungen angegangen sind, wenn diese neuen Lösungen voraussichtlich im Jahr XNUMX auf den Markt kommen.

Folgen Sie mir auf Twitter oder besuchen Sie die AppleHolic Bar & Grill- und Apple-Diskussionsgruppen auf MeWe.

Copyright © zweitausendeinundzwanzig IDG Communications, Inc.