Google, después de años de ingeniería y desarrollo, presentó su propio sistema de reconocimiento de gestos basado en radar. Conjunto de chips Soli con la serie Google Pixel 4 Allá por 2019. Aunque la tecnología estaba muy avanzada, su aplicación no tuvo éxito en ese momento. Actualmente, el chip Soli solo está presente en el interior nido de termostato Y el Nest Hub de segunda generación. Sin embargo, el gigante de las búsquedas parece querer explorar más casos de uso de Soli, ya que recientemente demostró el futuro de los conjuntos de chips Soli en pantallas y tabletas «socialmente inteligentes». Echemos un vistazo a los detalles a continuación.
Chip Google Soli en pantallas inteligentes y tabletas
En un video compartido recientemente en YouTube, el Grupo de Proyectos y Tecnología Avanzada de Google (también conocido como ATAP) demostró cómo se puede usar el chip Soli en pantallas y tabletas inteligentes. Para empezar, el chip Soli fue desarrollado originalmente por el equipo ATAP de Google. Ahora, los investigadores han demostrado cómo se pueden usar chips basados en radar Desarrollando pantallas ‘socialmente inteligentes’ que muestran resultados a través de la detección los Movimientos de la cabeza y del cuerpo de las personas..
El video muestra algunas aplicaciones del chip Soli en pantallas inteligentes y tabletas. El equipo usó un archivo «Una combinación de nuevas tecnologías de sensores y aprendizaje automático» Para detectar la orientación de la cabeza, los movimientos del cuerpo y otros gestos, y tomar medidas. Por ejemplo, el video muestra un archivo Las posibles condiciones climáticas aparecen en la pantalla cuando una persona mira una pantalla inteligente basada en Soli antes de salir por la puerta principal.
Esto demuestra que el chip Soli puede aprender sobre contextos sociales y mostrar resultados relevantes que pueden ayudar a una persona a tomar la decisión correcta. En este caso, La pantalla inteligente pudo reconocer el hecho de que una persona estaba saliendo y podría necesitar mirar el clima afuera.. Es similar a cómo los humanos se comunican entre sí de forma no verbal al comprender el contexto social.
Otros ejemplos mostraron pausas de video automáticas cuando una persona se alejaba de la posición de visualización, respuestas automáticas a videollamadas entrantes cuando el destinatario mira la pantalla y muchos más. Puede ver el video adjunto justo debajo para ver las pantallas y tabletas basadas en Soli «socialmente inteligentes» en acción.
Si bien estas pantallas y tabletas inteligentes parecen muy útiles, no se sabe cuándo o si Google realmente las pondrá a disposición para uso comercial. Dados los problemas con los chips Soli (costos de implementación y más), es poco probable que veamos estas pantallas inteligentes en el mercado en un futuro cercano. ¿Cuáles son sus pensamientos sobre esto? ¡Háganos saber en los comentarios a continuación!
More Stories
El código en los datos previos al entrenamiento mejora el rendimiento del LLM en tareas que no son de codificación
Un marco para resolver ecuaciones diferenciales parciales equivalentes puede guiar el procesamiento y la ingeniería de gráficos por computadora
Epiroc ha lanzado una nueva plataforma de perforación de producción de pozos largos