Home » Anthropic actualiza Claude con casi el doble de capacidades que GPT-4 Turbo

Anthropic actualiza Claude con casi el doble de capacidades que GPT-4 Turbo

by Tim

Anthropic acaba de lanzar Claude 2.1, un gran modelo de lenguaje (LLM) que ofrece una ventana de contexto de 200.000 tokens, una característica que supera los 120.000 contextos de GPT-4 Turbo de OpenAI anunciados recientemente.

Este lanzamiento estratégico aporta una destreza en el manejo del contexto que casi duplica la de su rival más cercano, y es fruto de una asociación ampliada con Google que hizo posible que la startup utilizara sus Unidades de Procesamiento Tensorial más avanzadas.

«Nuestro nuevo modelo Claude 2.1 ofrece una ventana de contexto de 200K tokens líder en la industria, una disminución de 2x en las tasas de alucinación, avisos del sistema, uso de herramientas y precios actualizados», dijo Anthropic en un tweet a principios de hoy. La introducción de Claude 2.1 responde a la creciente demanda de IA capaz de procesar y analizar con precisión documentos de formato largo.

Esta nueva actualización significa que los usuarios de Claude ahora pueden trabajar con documentos tan extensos como bases de código enteras o epopeyas literarias clásicas, liberando potencial en diversas aplicaciones, desde el análisis jurídico a la crítica literaria

El investigador de IA Greg Kamradt no tardó en poner a prueba el modelo 2.1 de Claude. Encontró más consistencia en el modelo de OpenAI a menor recuento de tokens, pero Claude tiene resultados más variados según las indicaciones a diferentes longitudes.

«A partir de unos 90.000 tokens, el rendimiento del recuerdo en la parte inferior del documento empezó a empeorar cada vez más», concluyó. Su investigación encontró niveles de degradación similares para GPT -4 Turbo en torno a los 65.000 tokens. «Soy un gran admirador de Anthropic: están ayudando a superar los límites del rendimiento LLM y creando potentes herramientas para el mundo», publicó.

El compromiso de Anthropic con la reducción de los errores de IA queda patente en la mayor precisión de Claude 2.1, que afirma haber reducido en un 50% los índices de alucinación. Eso se suma a la duplicación de la veracidad en comparación con Claude 2.0. Estas mejoras se probaron rigurosamente con un sólido conjunto de preguntas complejas y objetivas diseñadas para desafiar las limitaciones del modelo actual. Como TCN informó anteriormente, las alucinaciones eran uno de los puntos débiles de Claude. Un aumento tan drástico de la precisión pondría al LLM en competencia más directa con el GPT-4.

Con la introducción de una función de uso de herramientas API, Claude 2.1 también se integra más perfectamente en los flujos de trabajo de los usuarios avanzados, demostrando su capacidad para orquestar varias funciones, buscar en la web y extraer información de bases de datos privadas. Aunque aún está en fase beta, esta función promete ampliar la utilidad de Claude a toda una serie de operaciones, desde el razonamiento numérico complejo hasta la recomendación de productos.

Además, Claude 2.1 de Anthropic incorpora «indicaciones del sistema», diseñadas para elevar la interacción entre el usuario y la IA». Estas indicaciones permiten a los usuarios preparar el escenario para las tareas de Claude especificando roles, objetivos o estilos, mejorando así la capacidad de Claude para mantener el carácter en escenarios de juegos de rol, adherirse a las reglas y personalizar las respuestas. Esto es comparable a las instrucciones personalizadas de OpenAI, pero más amplias en términos de contexto.

Por ejemplo, un usuario podría ordenar a Claude que adoptara el tono de un analista técnico al resumir un informe financiero, asegurándose de que el resultado se ajusta a las normas profesionales. Esta personalización a través de las indicaciones del sistema puede aumentar la precisión, reducir las alucinaciones y mejorar la calidad general de una pieza al hacer que las interacciones sean más precisas y relevantes desde el punto de vista contextual.

Sin embargo, todo el potencial de Claude 2.1, con su ventana contextual de 200.000 tokens, está reservado a los usuarios de Claude Pro, por lo que los usuarios gratuitos tendrán que limitarse a Claude 2, con 100.000 tokens y una precisión situada entre GPT 3.5 y GPT-4.

El efecto dominó del lanzamiento de Claude 2.1 influirá en la dinámica del sector de la IA. A medida que las empresas y los usuarios evalúan sus opciones de IA, las capacidades mejoradas de Claude 2.1 presentan nuevas consideraciones para aquellos que buscan aprovechar la IA por su precisión y adaptabilidad.

Related Posts

Leave a Comment