← Voltar
Inovação

Qwen3 235B: Alibaba entra na corrida dos modelos raciocínio

Modelo open-source com 235B parâmetros disponível no HuggingFace. Benchmarks mostram performance competitiva com Claude 3.7 em tarefas de código.

10/04/2026via n8n

O Alibaba Group lançou o Qwen3-235B, seu mais ambicioso modelo de linguagem até o momento, posicionando-se diretamente na disputa pelos modelos de raciocínio de ponta — ao lado de Claude 3.7, GPT-o3 e DeepSeek R2.

Arquitetura

O Qwen3-235B utiliza arquitetura Mixture-of-Experts com 235B parâmetros totais e 22B ativos por inferência. O modelo foi treinado com 18 trilhões de tokens em 119 idiomas, com ênfase especial em código (Python, C++, Java, Rust) e matemática.

Benchmarks

Disponibilidade

O modelo está disponível no HuggingFace em formato BF16 e quantizações Q4/Q8. Para rodar localmente, é necessário ao menos 2x A100 80GB. Via API, a Alibaba cobra $0,20 por milhão de tokens de entrada.

Destaque: modo de raciocínio

Uma novidade interessante é o "thinking mode" ativável por instrução de sistema — o modelo expõe sua cadeia de raciocínio de forma estruturada, similar ao o1, mas com a vantagem de ser configurável por prompt.

← Ver outros artigosNewsletter →