Un equipo de Google busca con radar soli crear una nueva generación de dispositivos “socialmente inteligentes” a partir de los matices del lenguaje corporal.
MADRID, 2 Mar. (Europa Press) – Google ha puesto el radar soli en el centro de nuevos trabajos que buscan potenciar las interacciones no verbales con los dispositivos inteligentes, para que estos sepan cuándo el usuario presta atención para iniciar una acción.
El equipo de Advanced Technology and Projects (ATAP) de Google está utilizando el radar soli y la tecnología de aprendizaje automático para crear una nueva generación de dispositivos “socialmente inteligentes”.
Estos trabajos buscan “reimaginar” la interacción con los dispositivos, que hasta ahora se ha basado, además de en el control táctil, en la voz y en los gestos faciales. La nueva propuesta atiende al movimiento corporal para detectar si el usuario quiere o está listo para interactuar.
Para ello, están enseñando a los dispositivos a aprender el contexto social. Y una forma de comprender que puede darse una interacción empieza por saber si el usuario, al acercarse, superpone su espacio personal con el del dispositivo.
Los matices del lenguaje corporal también tienen un papel destacado, por ejemplo, la orientación de la cabeza, para identificar el ángulo en el que la persona está prestando atención al dispositivo.
La finalidad de esta investigación también recoge, no solo la interacción a partir del lenguaje no verbal, sino también la anticipación a dicha interacción, para que el dispositivo sepa “cuándo es el momento correcto” para iniciarla, o cuándo una persona simplemente pasa por delante.
Y todo ello de una forma no invasiva, en segundo plano. “La experiencia puede ser bastante mágica, tener dispositivos con gracia social; que nos comprendan y se anticipen en nuestro día a día de una forma más considerada y encantadora”, indican en “In the Lab with Google ATAP: Nonverbal Interactions with Soli Radar”.