Gente de la Safor

Bienvenidos a Spain News Today.

Google utiliza modelos de lenguaje de IA para mejorar los robots asistentes domésticos

robot de cocina

Foto: onurdongel/GettyImages

Investigadores en robots cotidianos Aprovechan los extensos modelos de lenguaje para ayudar a los bots a evitar malentendidos en la comunicación humana de maneras que podrían conducir a un comportamiento inapropiado o incluso peligroso.

Los bots cotidianos de Google Research, propiedad de Alphabet, integran lo que ellos llaman ‘SayCan’ (modelos de lenguaje con una base realista en habilidades previamente entrenadas) y su modelo de lenguaje más grande: PaLM, o Seguimiento del modelo de lenguaje.

Esta combinación, llamada Palma- Saikanmuestra un camino a seguir para simplificar las comunicaciones entre humanos y robots y mejorar el rendimiento de las tareas robóticas.

«PaLM puede ayudar al sistema automatizado a procesar y responder a los reclamos más complejos y abiertos de manera razonable y razonable». explique Vincent Vanhoek, científico distinguido y director de robótica de Google Research.

Mientras que los grandes modelos de lenguaje como GPT-3 de Open AI Puede imitar cómo los humanos usan el lenguaje y Ayudar a los programadores con sugerencias de código completas como Copilot de GitHubestos no se cruzan con el mundo físico en el que los robots pueden operar algún día dentro de un entorno doméstico.

En términos de robótica, los robots que se usan en las fábricas hoy en día están rígidamente programados. La investigación de Google muestra cómo los humanos algún día podrían usar el lenguaje natural para hacerle una pregunta a un bot que requiera que el bot comprenda el contexto de la pregunta y luego realice una acción razonable en un entorno determinado.

Por ejemplo, hoy GPT-3 preguntó con «Derramé mi bebida, ¿pueden ayudarme?» , recibe la respuesta: «Puedes intentar usar una aspiradora». Esto podría ser un negocio peligroso. El Google Inteligencia artificial conversacional o basada en el diálogo, LaMDA, da la respuesta: «¿Quieres que busque un limpiador?» , mientras que otro modelo, FLAN, dice: «Lo siento, no quise derramar el detergente».

El equipo de Google Research y Everyday Robots probó el enfoque PALM-SayCan utilizando un robot en un entorno de cocina.

Su enfoque involucró «poner a tierra» PaLM en el contexto de un robot que recibe instrucciones de alto nivel de un humano, ya que el robot necesita saber qué acción es útil y qué es capaz de hacer en ese entorno.

Ahora, cuando un investigador de Google dice «Derramé mi bebida, ¿puedes ayudarme?» , el robot regresa con una esponja e incluso intenta poner la lata vacía en el contenedor de reciclaje apropiado. La capacitación adicional puede incluir agregar una habilidad de limpieza de derrames.

Vanhoucke explica cómo funcionan los fundamentos del modelo de lenguaje en PaLM-SayCan.

«PaLM sugiere enfoques potenciales para la tarea en función de la comprensión del lenguaje y modela el robot haciendo lo mismo en función del posible conjunto de habilidades. El sistema combinado luego hace referencia a los dos para ayudar a identificar enfoques más útiles y alcanzables para el robot».

Además de facilitar que las personas se comuniquen con los bots, este enfoque también mejora el rendimiento y la capacidad del bot para planificar y realizar tareas.

en su papel «Hago lo que puedo, no como digo»En este artículo, los investigadores de Google explican cómo construyen las capacidades de planificación de un robot para seleccionar una de sus «habilidades» basándose en instrucciones de alto nivel de un ser humano y luego evalúan la probabilidad de que cada habilidad posible cumpla con las instrucciones.

“En la práctica, estructuramos el diseño como un diálogo entre el usuario y el bot, en el que el usuario da instrucciones de alto nivel, por ejemplo, ‘¿Cómo traes una lata de Coca-Cola? Y el modelo de lenguaje responde con una secuencia explícita, por ejemplo “Yo: 1. Buscaré una lata de Coca-Cola, 2. Recogeré una lata de Coca-Cola, 3. Te la traeré, 4. Listo” https://noticias. google.com/__i/rss/rd/articles/.”

En resumen, dada una instrucción de alto nivel, SayCan combina las probabilidades del modelo de lenguaje (que representa la probabilidad de que una habilidad sea útil para enseñar) con las probabilidades de la función de valor (que representa la probabilidad de que dicha habilidad se ejecute con éxito). ) para determinar qué habilidad se debe realizar. Esto da como resultado una posible habilidad. El proceso se repite agregando la habilidad especificada a la respuesta del bot y consultando los modelos nuevamente, hasta que finaliza el paso de salida».

READ  Stability AI estrena el modelo Stable Audio 2.0 para crear clips de audio