Home Tecnología Google Está Trabajando En Tecnología De Radar Que Podría Pausar Automáticamente Netflix

Google Está Trabajando En Tecnología De Radar Que Podría Pausar Automáticamente Netflix

por Redacción BL
0 comentario
Google ha presentado una tecnología que puede leer los movimientos corporales de las personas para permitir que los dispositivos

Google ha presentado una tecnología que puede leer los movimientos corporales de las personas para permitir que los dispositivos “entiendan el contexto social que los rodea” y tomen decisiones.

Desarrollada por la división de Tecnología y Productos Avanzados (ATAP) de Google en San Francisco, la tecnología consiste en chips integrados en televisores, teléfonos y computadoras.

Pero en lugar de usar cámaras, la tecnología usa radar: ondas de radio que se reflejan para determinar la distancia o el ángulo de los objetos cercanos.

Si se integra en dispositivos futuros, la tecnología podría bajar el volumen del televisor si te quedas dormido o pausar automáticamente Netflix cuando te levantes del sofá.

Asistido por algoritmos de aprendizaje automático, generalmente también permitiría que los dispositivos sepan que alguien se acerca o ingresa a su “espacio personal”.

Google ha presentado una tecnología que puede leer los movimientos corporales de las personas para permitir que los dispositivos “entiendan el contexto social que los rodea” y tomen decisiones, como mostrar información cuando pasa o bajar el volumen.

RADAR: ONDAS DE RADIO DE ALTA FRECUENCIA

Radar es un acrónimo, que significa Real academia de bellas artesDio Dección aDakota del Norte renvejecimiento

Utiliza ondas de radio de alta frecuencia y se desarrolló por primera vez en la Segunda Guerra Mundial para ayudar a los pilotos de combate.

Funciona de manera simple, una máquina envía una onda y luego un sensor separado la detecta cuando rebota.

Es muy similar a como funciona la vista, la luz rebota en un objeto y entra en el ojo, donde es detectada y procesada.

En lugar de usar luz visible, que tiene una longitud de onda pequeña, el radar usa ondas de radio que tienen una longitud de onda mucho mayor.

Al detectar el rango de ondas que han rebotado, una computadora puede crear una imagen de lo que está adelante que es invisible para el ojo humano.

Esto se puede usar para ver a través de diferentes materiales, en la oscuridad, la niebla y una variedad de condiciones climáticas diferentes.

Los científicos a menudo usan este método para detectar terrenos y también para estudiar hallazgos arqueológicos y valiosos.

Como técnica no invasiva, se puede utilizar para obtener información sin degradar o dañar hallazgos y monumentos preciosos.

La tecnología se describió en un nuevo video publicado por ATAP, parte de una serie documental que muestra sus últimas investigaciones en I+D.

El gigante tecnológico quiere crear ‘dispositivos socialmente inteligentes’ que sean controlados por ‘el movimiento de la mano o el giro de la cabeza’.

“Como humanos, nos entendemos de manera intuitiva, sin decir una sola palabra”, dijo Leonardo Giusti, jefe de diseño de ATAP.

‘Nos damos cuenta de las señales sociales, los gestos sutiles, que entendemos y reaccionamos de forma innata. ¿Y si los ordenadores nos entendieran así?

Dichos dispositivos estarían alimentados por Soli, un pequeño chip que envía ondas de radar para detectar movimientos humanos, desde el latido del corazón hasta los movimientos del cuerpo.

Soli ya se presenta en productos de Google, como la pantalla inteligente Nest Hub de segunda generación para detectar movimiento, incluida la profundidad de la respiración de una persona.

Soli se presentó por primera vez en el teléfono inteligente Google Pixel 4 de 2019, lo que permite controles de gestos como el movimiento de una mano para saltar canciones, posponer alarmas y silenciar llamadas telefónicas, aunque no se incluyó en el Pixel 5 del año siguiente.

La diferencia con la nueva tecnología es que Soli estaría en funcionamiento cuando los usuarios no son necesariamente conscientes de ello, en lugar de que los usuarios hagan algo activamente para activarlo.

si está integrado en un televisor inteligente, podría usarse para tomar decisiones como bajar el volumen cuando detecta que estamos dormidos: información obtenida desde una posición inclinada de la cabeza, lo que indica que está descansando contra el costado de una silla o sofá.

En algún momento en el futuro, la tecnología podría ser tan avanzada, lo suficiente como para capturar el “movimiento submilimétrico”, que podría detectar si los ojos están abiertos o cerrados.

Otros ejemplos incluyen un termostato en la pared que muestra automáticamente las condiciones climáticas cuando los usuarios pasan caminando, o una computadora que silencia un tintineo de notificación cuando ve que no hay usuarios sentados en el escritorio, según cableado.

Con la ayuda de algoritmos de aprendizaje automático, la tecnología permitiría que los dispositivos sepan que alguien se acerca o ingresa a su

Con la ayuda de algoritmos de aprendizaje automático, la tecnología permitiría que los dispositivos sepan que alguien se acerca o ingresa a su “espacio personal”.

La tecnología podría significar que un termostato en la pared mostraría automáticamente las condiciones climáticas cuando los usuarios pasen

La tecnología podría significar que un termostato en la pared mostraría automáticamente las condiciones climáticas cuando los usuarios pasen

Además, cuando los usuarios están en una cocina siguiendo una receta en video, el dispositivo podría hacer una pausa cuando los usuarios se alejan para obtener ingredientes y reanudar cuando regresan.

La tecnología, que aún está en desarrollo, tiene algunas fallas: en una habitación llena de gente, las ondas de radar podrían tener dificultades para detectar a una persona de otra, a diferencia de una sola gran masa.

Además, quitarle el control al usuario para dárselo a los dispositivos podría conducir a una era completamente nueva de tecnología que hace cosas que los usuarios no quieren que haga.

“Los humanos están programados para comprender realmente el comportamiento humano, y cuando las computadoras lo descifran, conduce a este tipo de frustración adicional”. [situations]’, dijo a Wired Chris Harrison del Instituto de Interacción Humano-Computadora de la Universidad Carnegie Mellon.

Esta imagen muestra lo que el dispositivo determina que es una superposición entre dos espacios personales: el del humano y el del dispositivo.

Esta imagen muestra lo que el dispositivo determina que es una superposición entre dos espacios personales: el del humano y el del dispositivo.

“Llevar a personas como científicos sociales y científicos del comportamiento al campo de la informática hace que estas experiencias sean mucho más agradables y mucho más humanistas”.

El radar tiene una ventaja de privacidad obvia sobre las cámaras: disipar los temores de los clientes de que el personal de Google pueda estar viendo transmisiones en vivo de usted durmiendo frente a su televisor, por ejemplo.

Pero a algunos consumidores aún les puede preocupar cómo se utilizan y almacenan los datos sobre sus movimientos, incluso si son anónimos.

“No existe tal cosa como invasión de la privacidad y no invasión de la privacidad”, dijo Harrison. Todo está en un espectro.

¿QUÉ ES PROYECTO SOLI?

Project Soli utiliza un radar invisible que emana de un microchip para reconocer los movimientos de los dedos.

En particular, utiliza un radar de haz ancho para reconocer el movimiento, la velocidad y la distancia.

Funciona utilizando el espectro de radar de 60 GHz a hasta 10 000 fotogramas por segundo.

Estos movimientos luego se traducen en comandos que imitan los toques en una pantalla.

Los chips, desarrollados con el fabricante alemán Infineon, son lo suficientemente pequeños como para integrarse en dispositivos portátiles y otros dispositivos.

Se dijo que el mayor desafío fue reducir un radar del tamaño de una caja de zapatos, generalmente utilizado por la policía en las trampas de velocidad, en algo lo suficientemente pequeño como para caber en un microchip.

Inspirándose en los avances en las comunicaciones que se están preparando para Wi-Fi de próxima generación llamado Wi-Gig, el equipo del investigador líder Ivan Poupyrev redujo los componentes de un radar a milímetros en solo 10 meses.



Fuente de la Noticia

También te puede interesar

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]