Mientras OpenAI navega por la disrupción creada por ella misma dentro de la empresa, las empresas rivales de inteligencia artificial (IA) no se quedan sentadas con un bote de palomitas de maíz y un poco de Coca-Cola Light. Anthropic, uno de sus principales competidores, respaldado por Google, lanzó Claude 2.1, la última actualización de su modelo de lenguaje grande (LLM). Se mire como se mire, se trata de un importante paso adelante para los modelos de IA.
Claude 2.1 ahora puede analizar hasta 150.000 palabras en un solo mensaje, lo que, según la compañía, es una novedad en la industria. Anthropic insiste en que ha habido una reducción del 30 por ciento en los errores y la tasa de alucinaciones se ha reducido a la mitad. La máxima comprensión de palabras es importante porque eso se traduce aproximadamente en hasta 200.000 caracteres que Claude 2.1 puede manejar en una sola consulta. O hasta 500 páginas de materiales educativos.
En comparación, ChatGPT de OpenAI tiene un límite superior de 32.000 tokens para su modelo premium GPT-4. Y dado que los fundamentos son los mismos, esto también se aplica a una amplia gama de productos de IA de asistencia, incluidos los próximos lentes para anteojos inteligentes de Microsoft y Copilot de Snap, que integra GPT para IA conversacional. Sin embargo, la capacidad de manejar más información no se traduce necesariamente en mejores contextos y respuestas, algo en lo que GPT-4 continúa estableciendo el estándar en el ecosistema de chatbot.
«Procesar un mensaje de 200.000 es una hazaña compleja y una primicia en la industria. Si bien estamos entusiasmados de poner esta nueva y poderosa capacidad en manos de nuestros usuarios, las tareas que normalmente requieren horas de esfuerzo humano para completarse pueden tardar solo unos minutos en completarse. «, dice Claude. Dijo la compañía en un comunicado, aunque advirtieron en el camino. «Esperamos que la latencia disminuya significativamente a medida que avanza la tecnología», añaden.
Cuando le preguntamos al chatbot Claude 2.1 qué actualizaciones importantes incorpora ahora, fingió desconocimiento. «No tengo información detallada sobre los cambios y actualizaciones específicos incluidos en Claude 2.1. Como asistente de IA creado por Anthropic, mi conocimiento proviene de lo que me capacitaron en lugar de actualizarme manualmente con notas de la versión o registros de cambios. Sin embargo, vale la pena señalar que la capacidad de procesar 200.000 tokens de contexto está limitada a los usuarios de nivel Pro en este momento.
Aquellos que paguen por el cliente de chat premium Claude 2.1, mayor volumen de uso junto con menor latencia en las respuestas, obtendrán $20 por mes. Las suscripciones a Claude Pro se anunciaron en septiembre. Esto es similar al precio de ChatGPT Plus, que también es de $20 por mes.
Anthropic sugiere que el modelo actualizado se beneficiaría de una reducción doble de datos falsos. «Probamos la validez de Cloud 2.1 organizando un gran conjunto de preguntas complejas del mundo real que exploran vulnerabilidades conocidas en modelos existentes», dice la compañía. Proporcionan un ejemplo del uso de un título que distingue afirmaciones incorrectas (“La quinta ciudad más poblada de Bolivia es Montero”) de las admisiones de incertidumbre (“No estoy seguro de cuál es la quinta ciudad más poblada de Bolivia”). y Claude 2.1 de Es más probable que dude en lugar de proporcionar información incorrecta.
Esto está relacionado con una supuesta reducción del 30 por ciento en las respuestas incorrectas al decodificar documentos más largos, y ahora será menos agresivo con las afirmaciones de que un documento en particular puede o no respaldar una teoría u opinión en particular.
More Stories
El código en los datos previos al entrenamiento mejora el rendimiento del LLM en tareas que no son de codificación
Un marco para resolver ecuaciones diferenciales parciales equivalentes puede guiar el procesamiento y la ingeniería de gráficos por computadora
Epiroc ha lanzado una nueva plataforma de perforación de producción de pozos largos