Gente de la Safor

Bienvenidos a Spain News Today.

Mientras OpenAI soluciona el caos, Claude, el chatbot rival Anthropic, está evolucionando

Mientras OpenAI soluciona el caos, Claude, el chatbot rival Anthropic, está evolucionando

Mientras OpenAI navega por la disrupción creada por ella misma dentro de la empresa, las empresas rivales de inteligencia artificial (IA) no se quedan sentadas con un bote de palomitas de maíz y un poco de Coca-Cola Light. Anthropic, uno de sus principales competidores, respaldado por Google, lanzó Claude 2.1, la última actualización de su modelo de lenguaje grande (LLM). Se mire como se mire, se trata de un importante paso adelante para los modelos de IA.

Cloud 2.1 ahora puede analizar hasta 150.000 palabras en un solo mensaje. (foto oficial)

Claude 2.1 ahora puede analizar hasta 150.000 palabras en un solo mensaje, lo que, según la compañía, es una novedad en la industria. Anthropic insiste en que ha habido una reducción del 30 por ciento en los errores y la tasa de alucinaciones se ha reducido a la mitad. La máxima comprensión de palabras es importante porque eso se traduce aproximadamente en hasta 200.000 caracteres que Claude 2.1 puede manejar en una sola consulta. O hasta 500 páginas de materiales educativos.

En comparación, ChatGPT de OpenAI tiene un límite superior de 32.000 tokens para su modelo premium GPT-4. Y dado que los fundamentos son los mismos, esto también se aplica a una amplia gama de productos de IA de asistencia, incluidos los próximos lentes para anteojos inteligentes de Microsoft y Copilot de Snap, que integra GPT para IA conversacional. Sin embargo, la capacidad de manejar más información no se traduce necesariamente en mejores contextos y respuestas, algo en lo que GPT-4 continúa estableciendo el estándar en el ecosistema de chatbot.

READ  Palabra del día #798 Consejos, pistas y respuestas para el sábado 26 de agosto

Lea también:Sam Altman, director ejecutivo de OpenAI, que fue despedido para unirse a Microsoft bajo la dirección de Satya Nadella: ¿Qué pasó en 3 días? Explicación del creador de filas ChatGPT

«Procesar un mensaje de 200.000 es una hazaña compleja y una primicia en la industria. Si bien estamos entusiasmados de poner esta nueva y poderosa capacidad en manos de nuestros usuarios, las tareas que normalmente requieren horas de esfuerzo humano para completarse pueden tardar solo unos minutos en completarse. «, dice Claude. Dijo la compañía en un comunicado, aunque advirtieron en el camino. «Esperamos que la latencia disminuya significativamente a medida que avanza la tecnología», añaden.

Cuando le preguntamos al chatbot Claude 2.1 qué actualizaciones importantes incorpora ahora, fingió desconocimiento. «No tengo información detallada sobre los cambios y actualizaciones específicos incluidos en Claude 2.1. Como asistente de IA creado por Anthropic, mi conocimiento proviene de lo que me capacitaron en lugar de actualizarme manualmente con notas de la versión o registros de cambios. Sin embargo, vale la pena señalar que la capacidad de procesar 200.000 tokens de contexto está limitada a los usuarios de nivel Pro en este momento.

Aquellos que paguen por el cliente de chat premium Claude 2.1, mayor volumen de uso junto con menor latencia en las respuestas, obtendrán $20 por mes. Las suscripciones a Claude Pro se anunciaron en septiembre. Esto es similar al precio de ChatGPT Plus, que también es de $20 por mes.

Anthropic sugiere que el modelo actualizado se beneficiaría de una reducción doble de datos falsos. «Probamos la validez de Cloud 2.1 organizando un gran conjunto de preguntas complejas del mundo real que exploran vulnerabilidades conocidas en modelos existentes», dice la compañía. Proporcionan un ejemplo del uso de un título que distingue afirmaciones incorrectas (“La quinta ciudad más poblada de Bolivia es Montero”) de las admisiones de incertidumbre (“No estoy seguro de cuál es la quinta ciudad más poblada de Bolivia”). y Claude 2.1 de Es más probable que dude en lugar de proporcionar información incorrecta.

READ  SoundCloud lanza la aplicación beta para los relojes inteligentes Wear OS - Geek.

Esto está relacionado con una supuesta reducción del 30 por ciento en las respuestas incorrectas al decodificar documentos más largos, y ahora será menos agresivo con las afirmaciones de que un documento en particular puede o no respaldar una teoría u opinión en particular.