← Voltar
IA

DeepSeek R2 supera o1 em raciocínio matemático

Novo modelo open-source da DeepSeek atinge performance acima do GPT-o1 em benchmarks de matemática e coding, com custo de inferência 10x menor.

12/04/2026

A DeepSeek lançou o R2, seu mais recente modelo de raciocínio, que surpreendeu a comunidade ao superar o GPT-o1 da OpenAI em vários benchmarks de matemática e programação — com um custo de inferência estimado em 10 vezes menor.

Destaques técnicos

O modelo utiliza uma arquitetura Mixture-of-Experts (MoE) com 236 bilhões de parâmetros totais, mas apenas 21 bilhões ativos por token. Essa abordagem reduz drasticamente o custo computacional mantendo capacidade expressiva elevada.

Nos benchmarks MATH-500 e AIME 2024, o R2 atingiu 97,3% e 79,8% respectivamente, contra 96,4% e 74,6% do o1. Em HumanEval (coding), registrou 98,2%.

Open-source e acessível

O modelo está disponível no HuggingFace sob licença MIT, permitindo uso comercial e fine-tuning irrestrito. A DeepSeek também disponibilizou uma API com preços agressivos: $0,14 por milhão de tokens de entrada e $0,28 por milhão de saída.

Impacto no mercado

Analistas apontam que o lançamento pressiona as principais labs americanas a revisarem sua estratégia de precificação. Sam Altman reconheceu publicamente que a DeepSeek está "fazendo coisas impressionantes".

← Ver outros artigosNewsletter →