Google Soli Radar erkennt Ihre Absichten und ist weniger beängstigend und nützlicher als Sie denken

Google Soli Radar erkennt Ihre Absichten und ist weniger beängstigend und nützlicher als Sie denken

Radar, eine fast hundert Jahre alte Technologie, erweist sich in der modernen Computertechnik und Elektronik als weitaus nützlicher, als irgendjemand gedacht hätte.

Es wird Glühbirnen hinzugefügt, um zu erkennen, ob jemand gestürzt ist und nicht mehr aufstehen kann, und wurde vor einigen Jahren in Googles Android-Telefon Pixel 4 eingeführt, um berührungslose gestenbasierte Aktivitäten zu ermöglichen.

Jetzt wird die ATAP-Suche von Google jedoch aggressiver und verwendet Funkentfernungs- und Sensortechnologie, um Personen, ihre Handlungen, ihre Orientierung, ihre Position relativ zu Sensoren und vor allem zu erkennen, was sie mit Bewegung und Interaktion meinen.

ein neues Netz

Am Dienstag stellte die ATAP-Gruppe von Google, die für die Erforschung von Wearable-Technologie und Soli Radar im Pixel 4 verantwortlich ist, ihr neuestes Soli Radar-Forschungsprojekt vor, das sich auf nonverbale Interaktionen mit dem Radarsystem konzentriert.

In einem Video auf YouTube beschreiben die Forscher, wie sie ein Mesh-Netzwerk von Soli-Radaren verwenden, die in Geräte wie Google Nest integriert werden können, um Menschen zu erkennen, wenn sie sich um und in der Nähe von Geräten bewegen.

„Umwelt- und sozialbewusste Geräte“ nutzen Soli, Maschinenradar und Deep Learning, um zu verstehen, was unsere Handlungen bedeuten. Alles, von einer Handbewegung über eine Kopfdrehung, die Entfernung zu den Geräten, die Geschwindigkeit, mit der wir sie passieren, und sogar die Ausrichtung unseres Körpers im Verhältnis zu den Geräten, verrät dem System etwas über unsere Absicht.

„Wir lassen uns davon inspirieren, wie Menschen miteinander umgehen. Als Menschen verstehen wir uns intuitiv, ohne ein einziges Wort zu sagen. Googles ATAP Design Lead im Video.

Das klare Ziel ist, dass Computer uns so verstehen, als wären sie ein bisschen menschlicher.

Radarsensoren helfen Geräten (wie auch dieser KI), den sozialen Kontext um sie herum zu verstehen und dann entsprechend zu handeln.

In dem Video zeigten sie undurchsichtige Bildschirme, die bemerkten, wenn Leute sie ansahen. Sie konnten den Unterschied zwischen jemandem erkennen, der absichtlich seine volle Aufmerksamkeit auf den Bildschirm richtet, und jemandem, der nur beiläufig hinschaut. In einem Fall ließ ein kleiner weißer Bildschirm schnell Regen und einen Regenschirm aufblitzen, um jemanden, der ging, darauf aufmerksam zu machen, dass er sich vielleicht einen Regenschirm schnappen möchte.

Es war einigermaßen amüsant zu hören, wie Forscher die Umgebung eines Computers als „Ihren persönlichen Raum“ bezeichneten. Dennoch ist die Idee klar: Ein mit Soli Radar ausgestatteter Computer könnte auf die Annäherung einer Person eher wie eine andere Person als nur wie ein Computer reagieren. Anstatt darauf zu warten, dass Sie zum Einschalten auf die Tastatur tippen, erkennt es möglicherweise Ihre Annäherung und beginnt.

„Approach“ ist tatsächlich eines der neuen Grundelemente für die Computerinteraktion. Die anderen sind „geh raus“, „schau“ und „pass“. Die Aktionen des Geräts unterscheiden sich je nach erkanntem Bewegungsgrundelement.

„Unsere Technik nutzt fortschrittliche Algorithmen, einschließlich Deep Learning, um die Nuancen der subtilen Körpersprache von Menschen zu verstehen“, sagte Eiji Hayashi, Googles ATAP Human Interactive Lead, in dem Video.

Zu diesen Nuancen gehört unter anderem, in welche Richtung Ihr Kopf zeigt, sie könnten aber auch bedeuten, dass das Soli-Radar-System erkennen kann, wann Sie Ihren Kopf neigen, um anzuzeigen: „Ich verstehe nicht.“

Einer der Vorteile der Verwendung von Radar gegenüber optischen Sensoren zur Absichtserkennung besteht darin, dass Radargeräte nichts „sehen“ und Bilder sammeln. Sie nutzen einfach Radiowellen, um ein Netz aus Bewegung, Bewegung und Position aufzubauen. Es liegt an der Software, daraus einen Sinn zu machen.

Obwohl einige Radartechnologien bereits in der Unterhaltungselektronik zu finden sind, ist Googles ATAP-Soli-Radar-Projekt noch lange nicht fertig. Vielleicht scheint deshalb eine Zukunft mit Radar so nahe am XNUMX. Jahrhundert zu liegen.

„Diese Geräte sind so konzipiert, dass sie aus dem Hintergrund auf eine ruhige und respektvolle Art und Weise auf uns reagieren“, sagte Timi Oyedeji, Googles ATAP-Interaktionsdesigner, im Video: „Sie können diese sanften Aufforderungen erhalten und Interaktionen haben, die hilfreich, aber nicht störend sind.“ ."