
Sign up to save your podcasts
Or
Bonjour et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique comment un jour les machines comprendront notre langage corporel.
Un geste vaut parfois mieux qu’un long discours. C'est le pari de Google, ou plus précisément de sa division Advanced Technology and Products, à l'origine d'un capteur baptisé Soli.
L'équipe de Google a conçu ce système radar pour détecter et interpréter les mouvements humains. Aux oubliettes, donc, l'écran tactile, ce sont vos gestes qui dictent vos commandes sur l’appareil.
Même si l’idée semble innovante, elle ne date pas tout à fait d’hier. Google travaille depuis plusieurs années sur ce capteur radar. Une première version de la technologie avait été intégrée au smartphone Pixel 4 de Google. Il permettait par exemple de mettre en pause une musique d'un geste de la main.
Abandonné ensuite sur le Pixel 5, Soli a été recyclé en outil d'analyse du sommeil pour l'écran connecté Nest Hub.
Petit à petit, Google a voulu passer d'une logique d'interaction gestuelle active à passive. Je m'explique : Avant, à chaque fonction correspondait un mouvement précis. Aujourd’hui, le radar interprète le langage corporel de l’utilisateur, et agit en conséquence. Imaginez : vous êtes en train de regarder un film. Et là, quelqu’un sonne à la porte. Et bien, alors que vous vous levez pour ouvrir, Soli met votre film en pause.
Mais pour cela, Soli doit détecter les faits et gestes des personnes dans la pièce. Comment fait-il ? Il utilise des ondes électromagnétiques pour balayer la pièce et détecter tout ce qui se trouve dans son faisceau. Grâce au retour du signal, le capteur rassemble des informations sur la taille, la forme, la vitesse ou encore la distance.
Et par le truchement d'algorithmes de machine learning qui traitent les données, Soli affine les informations qu'il reçoit pour comprendre avec plus de précision l'orientation du corps et la direction du regard. Et prédire ainsi à quel moment une personne souhaite engager une interaction avec la machine.
L'équipe de Google travaille depuis un an sur le projet. Au gré des confinements, ses membres ont eu l’occasion d’entraîner l’algorithme à éviter certains pièges depuis chez eux. Le capteur radar peut par exemple faire la différence entre quelqu'un qui s'approche de l'appareil volontairement et quelqu'un qui ne fait que passer devant sans s'arrêter. L’ordinateur affiche ensuite les informations adaptées sur l’écran selon le cas de figure.
C’est vrai, Google en est encore au stade de la recherche. Mais cette technologie laisse entrevoir une nouvelle manière de communiquer avec les machines. Et peut-être l’avenir de l’expérience client.
Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Bonjour et bienvenue dans le ZDTech, le podcast quotidien de la rédaction de ZDNet. Je m’appelle Clarisse Treilles, et aujourd’hui je vous explique comment un jour les machines comprendront notre langage corporel.
Un geste vaut parfois mieux qu’un long discours. C'est le pari de Google, ou plus précisément de sa division Advanced Technology and Products, à l'origine d'un capteur baptisé Soli.
L'équipe de Google a conçu ce système radar pour détecter et interpréter les mouvements humains. Aux oubliettes, donc, l'écran tactile, ce sont vos gestes qui dictent vos commandes sur l’appareil.
Même si l’idée semble innovante, elle ne date pas tout à fait d’hier. Google travaille depuis plusieurs années sur ce capteur radar. Une première version de la technologie avait été intégrée au smartphone Pixel 4 de Google. Il permettait par exemple de mettre en pause une musique d'un geste de la main.
Abandonné ensuite sur le Pixel 5, Soli a été recyclé en outil d'analyse du sommeil pour l'écran connecté Nest Hub.
Petit à petit, Google a voulu passer d'une logique d'interaction gestuelle active à passive. Je m'explique : Avant, à chaque fonction correspondait un mouvement précis. Aujourd’hui, le radar interprète le langage corporel de l’utilisateur, et agit en conséquence. Imaginez : vous êtes en train de regarder un film. Et là, quelqu’un sonne à la porte. Et bien, alors que vous vous levez pour ouvrir, Soli met votre film en pause.
Mais pour cela, Soli doit détecter les faits et gestes des personnes dans la pièce. Comment fait-il ? Il utilise des ondes électromagnétiques pour balayer la pièce et détecter tout ce qui se trouve dans son faisceau. Grâce au retour du signal, le capteur rassemble des informations sur la taille, la forme, la vitesse ou encore la distance.
Et par le truchement d'algorithmes de machine learning qui traitent les données, Soli affine les informations qu'il reçoit pour comprendre avec plus de précision l'orientation du corps et la direction du regard. Et prédire ainsi à quel moment une personne souhaite engager une interaction avec la machine.
L'équipe de Google travaille depuis un an sur le projet. Au gré des confinements, ses membres ont eu l’occasion d’entraîner l’algorithme à éviter certains pièges depuis chez eux. Le capteur radar peut par exemple faire la différence entre quelqu'un qui s'approche de l'appareil volontairement et quelqu'un qui ne fait que passer devant sans s'arrêter. L’ordinateur affiche ensuite les informations adaptées sur l’écran selon le cas de figure.
C’est vrai, Google en est encore au stade de la recherche. Mais cette technologie laisse entrevoir une nouvelle manière de communiquer avec les machines. Et peut-être l’avenir de l’expérience client.
Et voilà, on a fait le tour du sujet. Pour en savoir plus, rendez vous sur ZDNet.fr. Et retrouvez tous les jours un nouvel épisode du ZD Tech sur vos plateformes de podcast préférées.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
13 Listeners
45 Listeners
10 Listeners
13 Listeners
74 Listeners
23 Listeners
24 Listeners
3 Listeners
5 Listeners
84 Listeners
19 Listeners
3 Listeners
5 Listeners
3 Listeners
0 Listeners