Home » Anthropic actualiza o Claude com quase o dobro das capacidades do GPT-4 Turbo

Anthropic actualiza o Claude com quase o dobro das capacidades do GPT-4 Turbo

by Thomas

A

Anthropic acaba de lançar o Claude 2.1, um modelo de linguagem de grande porte (LLM) que oferece uma janela de contexto de 200.000 tokens – um recurso que supera o contexto de 120K do GPT-4 Turbo da OpenAI, anunciado recentemente.

Este lançamento estratégico traz uma capacidade de tratamento de contexto que quase duplica a do seu rival mais próximo, e é fruto de uma parceria alargada com a Google que tornou possível à startup utilizar as suas Unidades de Processamento Tensor mais avançadas.

“Nosso novo modelo Claude 2.1 oferece uma janela de contexto de token 200K líder do setor, uma redução de 2x nas taxas de alucinação, avisos do sistema, uso de ferramentas e preços atualizados “, disse Anthropic em um tweet hoje cedo. A introdução do Claude 2.1 responde à crescente demanda por IA que pode processar e analisar documentos de formato longo com precisão.

Esta nova atualização significa que os utilizadores do Claude podem agora interagir com documentos tão extensos como bases de código inteiras ou épicos literários clássicos, revelando potencial em várias aplicações, desde a análise jurídica à crítica literária.
O investigador de IA Greg Kamradt pôs rapidamente à prova o modelo Claude 2.1. Encontrou mais consistência no modelo da OpenAI com uma contagem mais baixa de tokens, mas o Claude tem resultados mais variados de acordo com as solicitações de diferentes comprimentos.

“A partir de cerca de 90 mil tokens, o desempenho da recuperação na parte inferior do documento começou a piorar cada vez mais”, concluiu. A sua investigação encontrou níveis de degradação semelhantes para o GPT -4 Turbo em cerca de 65K tokens. “Sou um grande fã do Anthropic – eles estão a ajudar a ultrapassar os limites do desempenho do LLM e a criar ferramentas poderosas para o mundo”, publicou.

O compromisso da Anthropic em reduzir os erros de IA é evidente na precisão melhorada do Claude 2.1, que afirma uma redução de 50% nas taxas de alucinação. Isto resulta numa duplicação da veracidade em comparação com o Claude 2.0. Estas melhorias foram rigorosamente testadas contra um conjunto robusto de perguntas complexas e factuais concebidas para desafiar as limitações do modelo atual. Como o TCN informou anteriormente, as alucinações eram um dos pontos fracos do Claude. Um aumento tão drástico na exatidão colocaria o LLM em competição mais próxima com o GPT-4.

Com a introdução de uma funcionalidade de utilização de ferramentas API, o Claude 2.1 também se integra mais facilmente nos fluxos de trabalho dos utilizadores avançados, demonstrando a sua capacidade de orquestrar várias funções, pesquisar na Web e extrair de bases de dados privadas. Embora ainda em versão beta, esta funcionalidade promete alargar a utilidade do Claude a um espetro de operações, desde o raciocínio numérico complexo até à elaboração de recomendações de produtos.
Além disso, o Claude 2.1 da Anthropic inclui “avisos de sistema”, concebidos para elevar a interação entre o utilizador e a IA”. Estes avisos permitem que os utilizadores preparem o terreno para as tarefas do Claude, especificando papéis, objectivos ou estilos, aumentando assim a capacidade do Claude para manter o carácter em cenários de interpretação de papéis, aderir a regras e personalizar respostas. Isto é comparável às instruções personalizadas do OpenAI, mas mais alargado em termos de contexto.

Por exemplo, um utilizador pode instruir o Claude para adotar o tom de um analista técnico ao resumir um relatório financeiro, garantindo que o resultado está de acordo com os padrões profissionais. Esta personalização através de instruções do sistema pode aumentar a precisão, reduzir as alucinações e melhorar a qualidade geral de uma peça, tornando as interacções mais precisas e contextualmente relevantes.

No entanto, todo o potencial do Claude 2.1, com a sua janela de contexto de 200K tokens, está reservado aos utilizadores do Claude Pro, pelo que os utilizadores gratuitos terão de se limitar ao Claude 2 com 100K tokens e uma precisão classificada algures entre GPT 3.5 e GPT-4.

Os efeitos do lançamento do Claude 2.1 estão prontos para influenciar a dinâmica da indústria de IA. À medida que as empresas e os utilizadores avaliam as suas opções de IA, as capacidades melhoradas do Claude 2.1 apresentam novas considerações para aqueles que procuram tirar partido da IA pela sua precisão e adaptabilidade.

Related Posts

Leave a Comment