Google Soli : et si c’était l’interface gestuelle du futur ?

Publié le 10 Juin 2016

... /... si vous pouvez mettre quelque chose dans une smartwatch, vous pouvez le mettre n’importe où

Ivan Poupyrev de Google ATAP

Google Soli : et si c’était l’interface gestuelle du futur ?

Google Soli : et si c’était l’interface gestuelle du futur ?

Dévoilé discrètement lors de Google I/O, le projet Soli est un capteur qui permet de piloter une interface virtuelle (une montre, un smartphone, etc.) avec des gestes effectués à distance avec les doigts.

Le projet est déjà extrêmement prometteur même si Google n’a pas encore beaucoup communiqué dessus. Chapeauté par les équipes ATAP (Advanced Technology and Project) en charge des projets expérimentaux, il permet de créer des interfaces gestuelles pour piloter les appareils, principalement les montres connectées pour le moment. Mais « si vous pouvez mettre quelque chose dans une smartwatch, vous pouvez le mettre n’importe où », commente Ivan Poupyrev de Google ATAP.

Par quelque chose il entend surtout un radar puisque c’est la technologie qui est utilisée dans Soli. La puce conçue par les ingénieurs embarque en fait 4 antennes qui fournissent une communication duplex pour envoyer et recevoir les informations. A force de travail, les équipes ont réussi à baisser la consommation de la puce à 0,054 Watts, soit 22 fois moins que la première version qui avait été proposée aux développeurs via un SDK.

Google Soli permet de créer des interfaces gestuelles pour piloter les appareils

Google Soli permet de créer des interfaces gestuelles pour piloter les appareils

Google Soli permet de créer des interfaces gestuelles pour piloter les appareils

Google Soli permet de créer des interfaces gestuelles pour piloter les appareils

Google Soli permet de créer des interfaces gestuelles pour piloter les appareils

Google Soli permet de créer des interfaces gestuelles pour piloter les appareils

Créer un design d'interface

Ainsi, il devient donc possible de piloter un appareil uniquement avec des gestes reçus et interprétés par la puce. Surtout, Google insiste sur la haute précision de reconnaissance des mouvements de Soli qui permettrait « de reconnaître même les gestes les plus fins et subtils ». Car le géant de Mountain View a aussi beaucoup travaillé sur la partie logicielle. Puisque l’on ne reproduit jamais exactement deux fois le même geste, elle permet d’apprendre à reconnaître ce que veut exactement faire l’utilisateur avec ses doigts.

Pour le moment Google a encore du travail, car il s’agit en plus de l’objet physique de créer un véritable design d’interface. « Est-ce que chaque bouton, chaque élément d’un appareil doit avoir sa propre interface ? Cela pourrait créer de la confusion », ajoute Ivan Poupyrev. C’est pourquoi Google a commencé par créer quelques gestes communs. Mais on l’imagine, avant que chaque appareil puisse être piloté par ce moyen, il faudra bien harmoniser les choses.

source : http://www.linformaticien.com/actualites/id/40663/google-soli-et-si-c-etait-l-interface-gestuelle-du-futur.aspx

Welcome to Project Soli

Repost 0
Commenter cet article