Google hizo varios anuncios sobre inteligencia artificial durante su conferencia anual de desarrolladores, I/O 2024, que tuvo lugar ayer.
Google está ahora «plenamente presente», afirmó el director ejecutivo, Sundar Pichai. [its] «Gemini Era» con nuevas actualizaciones del modelo de lenguaje que incluye una función en vivo que permite a los usuarios tener conversaciones de voz «profundas» con el modelo de IA en su teléfono y actualizaciones de su motor de búsqueda con una descripción general de la IA.
La aplicación Gemini ahora está disponible para que los usuarios interactúen con ella en iOS y Android. El gigante tecnológico también presentó Gemini 1.5 Flash, su nuevo modelo multimedia optimizado para “tareas estrechas, de alta frecuencia y baja latencia” e introdujo mejoras en Gemini 1.5 Pro, incluida la duplicación de su ventana contextual de 1 millón a 2 millones de tokens.
Como parte de la actualización, los usuarios pueden hacer preguntas a Gemini e interrumpir cuando la respuesta está en el medio para obtener aclaraciones, mientras que el chatbot se familiarizará con el usuario adaptándose a los patrones de habla a lo largo del tiempo y viendo/respondiendo al entorno físico circundante capturado a través de fotos o vídeos en el dispositivo.
«Gemini es más que un simple chatbot», dijo Pichai. Está diseñado para ser su asistente personal y útil que puede ayudarle a abordar tareas complejas y tomar medidas en su nombre. La interacción con Géminis debe ser conversacional e intuitiva.
Gemini también se utilizará para ayudar a los usuarios a filtrar imágenes mediante la promoción de un modelo de inteligencia artificial para mostrar imágenes según el contexto. Esta función Preguntar fotos está programada para lanzarse en el verano.
Además, Gemini también se integrará en aplicaciones como Gmail para que los usuarios puedan usarlo para buscar, resumir y redactar correos electrónicos. También podrá interactuar con otras aplicaciones como YouTube para solicitar información específica.
Durante la conferencia, Google también mostró el Proyecto Astra, que se describe como un asistente virtual que puede observar y comprender lo que sucede a través de la cámara del dispositivo, recordar dónde están las cosas y hacer las cosas por usted en consecuencia.
Los creadores también podrán aprovechar las nuevas herramientas de inteligencia artificial (IA de generación) disponibles a través de Google, como VideoFX, que puede crear videos de 1080p basados en indicaciones de texto, y una versión mejorada de Image FX, que elimina el problema de los artefactos digitales no deseados. en imágenes. Y la función de modo DJ de MusicFX permite a los músicos crear bucles y muestras de canciones basadas en indicaciones.
Esta noticia llega inmediatamente después de una serie de movimientos recientes en el frente de la inteligencia artificial general. OpenAI anuncia el próximo lanzamiento de su chatbot llamado “GPT-4o” a principios de esta semana, que incluye nuevas características como la capacidad de identificar emociones a partir de expresiones visuales, recordar indicaciones anteriores y discutir contenido dentro de imágenes.
Apple también es pSe dice que tiene “términos finalizados” con OpenAI Integrar la tecnología ChatGPT en la nueva actualización de iOS 18, según un informe de Bloomberg, mientras la compañía se prepara para nuevos anuncios de IA en la próxima Conferencia Mundial de Desarrolladores en junio.
More Stories
El código en los datos previos al entrenamiento mejora el rendimiento del LLM en tareas que no son de codificación
Un marco para resolver ecuaciones diferenciales parciales equivalentes puede guiar el procesamiento y la ingeniería de gráficos por computadora
Epiroc ha lanzado una nueva plataforma de perforación de producción de pozos largos