Menu

DeepSeek lança modelo que promete cortar custos e caminha para próxima geração de IA

A empresa chinesa DeepSeek anunciou, nesta segunda-feira (29), um novo modelo experimental de Inteligência Artificial (IA)que, segundo a própria gigante da tecnologia, pode reduzir significativamente os custos de uso em aplicações com longos trechos de texto. 

Batizado de V3.2-exp, o modelo foi disponibilizado gratuitamente no Hugging Face e vem acompanhado de um artigo técnico publicado no GitHub. Confira aqui.

O diferencial do V3.2-exp está em uma tecnologia chamada DeepSeek Sparse Attention (Atenção Esparsa da DeepSeek), criada para otimizar a forma como o modelo processa grandes volumes de contexto sem exigir alto consumo de servidor — um dos principais desafios na operação de IAs atuais.

Na prática, o sistema funciona em duas etapas:

  • Um módulo apelidado de “indexador de relâmpagos” identifica partes específicas do contexto que devem ser priorizadas;
  • Em seguida, um mecanismo de “seleção de tokens de granularidade fina” escolhe os trechos exatos que entram na janela de atenção do modelo.

A combinação permite que o modelo lide com grandes quantidades de informação usando menos capacidade computacional.

Segundo testes preliminares da própria DeepSeek, o custo de uma chamada de API em situações de longo contexto pode cair pela metade. Como o modelo é aberto, a expectativa é que outras equipes façam testes independentes em breve para confirmar esse desempenho.

A novidade se soma a uma corrida mais ampla dentro do setor: reduzir os custos de inferência, ou seja, o gasto para rodar modelos já treinados — que hoje já supera, em muitos casos, o custo de desenvolvimento.

APERFEIÇOAMENTO

A DeepSeek já havia ganhado destaque no início do ano com o modelo R1, treinado com uso intenso de aprendizado por reforço e orçamento bem abaixo de concorrentes dos EUA. Apesar da repercussão, o R1 não transformou o mercado como alguns previam, e a empresa saiu dos holofotes nos meses seguintes.

Agora, o V3.2-exp não deve causar o mesmo impacto, mas especialistas avaliam que a técnica de “atenção esparsa” pode influenciar empresas ocidentais na busca por operações mais baratas — especialmente em modelos que lidam com contextos extensos.