Veröffentlicht am 14-03-2019

Projekt Soli und integrierte Benutzeroberflächen

Projekt Soli ist zurück!

Wie kürzlich in The Verge berichtet, erhielt Google kürzlich die bundesweite Genehmigung, um die Entwicklung einer Technologie mit dem Codenamen Project Soli voranzutreiben, die es Menschen ermöglicht, Geräte mit Gesten zu steuern. Wie Sie dem folgenden Video entnehmen können, ist Soli überzeugend. Anstatt auf Bildschirme zu tippen, können Benutzer Geräte mit Gesten steuern, z. B. indem sie ihre Finger bewegen:

Google entwickelt Soli seit Jahren. Aber angeblich wegen der von der Federal Communications Commission (FCC) auferlegten Beschränkungen kam Soli ins Stocken. Das Problem bestand darin, dass die FCC die Technologie auf den Betrieb mit niedrigeren Leistungsstufen beschränkte, was die Genauigkeit von Soli und die möglichen verfügbaren Gesten beeinträchtigt. Nun sind diese Beschränkungen aufgehoben.

Soli könnte für immersive Realität und das Internet der Dinge (IoT) ein Fortschritt sein. Hier sind einige Gründe warum:

· Soli entkoppelt den Benutzer von einem Headset. Als ich kürzlich gebloggt habe, sind Headsets nach wie vor ein großes Hindernis für die Einführung immersiver Realitäten wie Mixed Reality und Virtual Reality. Headsets, wie wir sie heute kennen, sind zu sperrig, als dass die Verbraucher sie in großer Zahl und mit Leichtigkeit verwenden könnten. Mit Soli könnte Google Mixed Reality in ein tragbares Gerät wie eine intelligente Uhr (oder eine andere Armbanduhr) einbetten und Ihre Gesten mit digitalen Inhalten interagieren lassen, ohne Controller oder Handschuhe tragen zu müssen.

· Google bietet ein großes Spielfeld. Das riesige Ökosystem von Google, das Apps wie Google Maps und YouTube umfasst, bietet dem Unternehmen einen großen Vorteil. Google könnte Möglichkeiten testen, um Soli zu einem praktischen Werkzeug für die Verwendung persönlicher Geräte zu machen, um Aufgaben wie das Suchen von Routen, Ändern von Routen und Durchsuchen auszuführen. Die Möglichkeiten werden noch interessanter, wenn Sie in Betracht ziehen, wie Google die gestenbasierte Benutzeroberfläche von Soli mit der sprachbasierten Benutzeroberfläche von Google Assistant und ARCore ergänzen könnte.

Die Integration von gestenbasierten Interfaces mit Sprache stellt tatsächlich komplexe Herausforderungen für erfahrene Designer dar, insbesondere beim Synchronisieren der beiden Interfacetypen in einem einzigen und nahtlos zusammengefügten Erlebnis. Ich hoffe, ich habe Ihr Interesse geweckt. Ich werde mehr über unsere Erfahrungen berichten, während ich mit diesen Produkten weiter spiele.

Was Unternehmen tun sollten

Offensichtlich sind dies aufregende Zeiten für aufkommende Technologien, und die Unternehmen müssen härter arbeiten, um zu verstehen, wie Schnittstellen wie Gesten und Sprache in ihre Wachstumsstrategien einfließen - vielleicht zusammen mit ihren aktuellen Produkten, Dienstleistungen und Lösungen oder der Etablierung eines neuen Produkts oder Marktes Erweitern Sie Ihr Geschäft. Bei Moonshot untersuchen wir immer mehr Anwendungsfälle für diese Technologien. Wir verwenden Tools wie Design-Sprints, um Unternehmen bei der Ideenfindung zu helfen und immersive Reality-Produkte auf eine Weise zu entwickeln, die sowohl budgetbewusst als auch prioritätsorientiert ist. Ich würde mich gerne mit Ihnen über Ihre Ideen unterhalten und darüber informieren, wie Sie Ihr Unternehmen mit immersiver Realität beginnen können. Weitere Informationen darüber, wie Sie die immersive Realität für Ihr Unternehmen nutzen können, finden Sie in unserem Executive Guide für Immersive Reality.

Siehe auch

Volles Vertrauen und null Vertrauen: Eindrücke von der RSA Conference 2019DELL und BAN sind Partner für die Verfolgung von eWasteNeue Tech-GadgetsQuantencomputing, Testreaktionen und mehr…Die Inspektionssoftware „Sterblue“ für Stromnetz und Windkraftanlagen dringt in den US-amerikanischen Markt einGedanken zu Hong Kong