30.3 C
Manaus
sexta-feira, 23 maio, 2025
InícioMundoAnthropic lança modelos Claude 4 com foco em programação

Anthropic lança modelos Claude 4 com foco em programação

Date:


A Anthropic anunciou oficialmente nesta quinta-feira (22) sua nova família de modelos de inteligência artificial Claude 4, composta por duas versões: Claude Opus 4 e Claude Sonnet 4. A revelação aconteceu durante a primeira conferência para desenvolvedores da empresa, e marca um novo esforço da startup para competir com gigantes como Google e OpenAI no desenvolvimento de modelos de ponta.

Os novos modelos foram projetados para realizar tarefas de raciocínio complexo e de longo prazo, com foco em desempenho elevado em benchmarks populares e tarefas de programação. Segundo a Anthropic, o Opus 4 é o modelo mais poderoso já criado pela empresa, enquanto o Sonnet 4 se posiciona como um substituto direto do Sonnet 3.7, com melhorias específicas em matemática, codificação e capacidade de seguir instruções.

Anthropic
Os resultados dos testes internos de benchmark da Anthropic (Imagem: Anthropic)
  • De acordo com a empresa, tanto o Opus 4 quanto o Sonnet 4 são modelos híbridos, capazes de responder de forma quase instantânea ou alternar para um “modo de raciocínio” mais profundo, quando necessário.
  • Nessa configuração, os modelos dedicam mais tempo à análise antes de gerar uma resposta, exibindo um resumo amigável do processo de pensamento — embora os detalhes completos não sejam revelados por razões estratégicas.
  • Esses modelos também conseguem alternar entre o raciocínio e o uso de ferramentas como mecanismos de busca, além de armazenar fatos temporários em “memória” para manter a consistência em tarefas mais longas.
  • A promessa é construir um tipo de “conhecimento tácito” ao longo do tempo, especialmente útil em fluxos de trabalho extensos.

Integração com IDEs e foco em desenvolvedores

Para programadores, a Anthropic está atualizando o Claude Code, ferramenta que permite rodar tarefas diretamente via terminal. A nova versão oferece integração com ambientes de desenvolvimento como VS Code, JetBrains e GitHub, além de um SDK que facilita a criação de assistentes de codificação baseados na IA da empresa.

Os modelos também foram otimizados para lidar com códigos complexos. Mesmo com os riscos já conhecidos de vulnerabilidades e erros introduzidos por IA, a Anthropic afirma que o Sonnet 4 e o Opus 4 foram treinados para serem mais eficientes e precisos nesse campo.

Preço e acesso aos modelos

O acesso ao Claude Sonnet 4 estará disponível tanto para usuários pagos quanto gratuitos. Já o Claude Opus 4 será exclusivo para assinantes. Na API da empresa — oferecida via Amazon Bedrock e Google Vertex AI — os preços variam: US$ 3 a US$ 15 por milhão de tokens para o Sonnet 4 e US$ 15 a US$ 75 por milhão de tokens para o Opus 4. Um milhão de tokens equivale a cerca de 750 mil palavras.

Com esses lançamentos, a Anthropic busca expandir sua receita significativamente, projetando atingir US$ 12 bilhões até 2027, frente aos US$ 2,2 bilhões esperados para este ano. O crescimento da empresa conta com aportes bilionários de investidores como a Amazon, além de uma linha de crédito recém-obtida no valor de US$ 2,5 bilhões.

claude 4
Modelos Claude Opus 4 e Claude Sonnet 4 já estão disponíveis (Imagem: Anthropic)

Alerta de instituto de segurança sobre comportamento do Opus 4

Apesar dos avanços, o modelo Claude Opus 4 chamou atenção por motivos de segurança. Segundo relatório da própria Anthropic, um instituto independente de pesquisa em segurança, o Apollo Research, recomendou que uma versão anterior do modelo não fosse lançada, devido à sua propensão a “enganar e tramar” contra usuários e desenvolvedores.

Durante os testes, o Opus 4 demonstrou comportamentos considerados problemáticos, como escrever vírus autorreplicantes, forjar documentos legais e inserir mensagens ocultas com instruções para versões futuras de si mesmo. Em alguns casos, o modelo chegou a denunciar usuários à mídia e autoridades se interpretava que eles estavam agindo de forma ilícita, assumindo uma espécie de papel de “denunciante ético”.

A Anthropic afirma que esses testes foram feitos com uma versão com bugs, já corrigidos, e ressalta que os cenários eram extremos. Ainda assim, a própria empresa reconhece que comportamentos com nível elevado de iniciativa são mais comuns no Opus 4 em comparação a modelos anteriores.

Leia mais:

Medidas de proteção e atualização contínua

Diante dos riscos, a empresa implementou mecanismos reforçados de segurança, incluindo filtros para conteúdos nocivos e medidas de defesa cibernética. Internamente, o modelo foi classificado como “ASL-3”, um nível que reflete a capacidade potencial da IA de ser usada na criação ou disseminação de armas químicas, biológicas ou nucleares — embora com acesso limitado a esse tipo de recurso.

A Anthropic também promete uma frequência maior de atualizações, com melhorias contínuas nos modelos, o que deve manter seus clientes no “estado da arte” do setor. “Estamos mudando para atualizações mais frequentes, entregando uma corrente contínua de melhorias que trazem capacidades inéditas aos clientes com mais rapidez”, afirmou a startup em um comunicado.

Com o lançamento da linha Claude 4, a Anthropic mostra que está disposta a competir diretamente com os líderes do setor de inteligência artificial. Ao mesmo tempo, a empresa sinaliza um compromisso maior com transparência e responsabilidade, mesmo diante dos desafios éticos e técnicos que acompanham modelos cada vez mais avançados.




Fonte: Olhar Digital

spot_img
spot_img