DeepSeek lança V4-Pro e V4-Flash com janela de contexto de 1 milhão de tokens e preços agressivos horas após OpenAI abandonar GPT-5.5. Modelos abertos e otimizados para eficiência desafiam a hegemonia ocidental e oferecem alternativa acessível para desenvolvedores construírem com IA de ponta. Relembre o impacto do R1, que derrubou US$ 600 bi da Nvidia em 2025, e entenda por que o V4 representa uma mudança mais técnica e silenciosa no mercado. Baixe agora as versões prévias gratuitas e descubra como operar localmente com desempenho de fronteira sem depender de infraestrutura cara ou APIs restritivas.
Resumo NeuralNet: Entenda os impactos práticos para investidores, traders e empresas no Brasil.
Leitura: 3-4 min | Atualizado: 2026-04-24 17:34:00 | Categoria: Criptomoedas
O Que Isso Significa para o Investidor Brasileiro?
Com a Instrução Normativa 1.888/2022 da Receita Federal e a recente regulamentação do mercado de criptoativos (Lei 14.478/2022), movimentos do mercado global impactam diretamente quem opera no Brasil. Fique atento a:
Tributação: Operações acima de R$ 35 mil/mês têm incidência de IR (15-22,5%)
Exchanges reguladas: Priorize plataformas registradas na CVM para maior segurança jurídica
Adoção institucional: Bancos e fintechs brasileiras ampliam oferta de cripto para clientes
Autocustódia: Entenda a diferença entre deixar em exchange vs. carteira própria (hardware wallet)
Análise Completa da Notícia
Em resumo
DeepSeek lançou seu novo modelo V4-Pro com 1,6 trilhão de parâmetros.
Custa US$ 1,74/US$ 3,48 por milhão de tokens de entrada/saída, aproximadamente 1/20 do preço do Claude Opus 4.7 e 98% menos que o GPT 5.5 Pro.
DeepSeek treinou V4 parcialmente em chips Huawei Ascend, contornando as restrições de exportação dos EUA, e diz que assim que 950 novos supernós estiverem online no final de 2026, o preço já baixo do modelo Pro cairá ainda mais.
DeepSeek está de volta e apareceu algumas horas depois que o OpenAI abandonou o GPT-5.5. Coincidência? Talvez. Mas se você é um laboratório chinês de IA que o governo dos EUA tem tentado desacelerar com as proibições de exportação de chips nos últimos três anos, seu senso de oportunidade fica bastante aguçado.
O laboratório com sede em Hangzhou lançou versões prévias do DeepSeek-V4-Pro e DeepSeek-V4-Flash hoje, ambos abertos, ambos com um milhão de janelas de contexto de token. Isso significa que você pode basicamente trabalhar com um contexto aproximadamente do tamanho da Trilogia O Senhor dos Anéis antes que o modelo entre em colapso. Ambos também têm preços bem abaixo de qualquer preço comparável no Ocidente e são gratuitos para aqueles capazes de operar localmente.
A última grande interrupção do DeepSeek—R1 em janeiro de 2025– eliminou 600 mil milhões de dólares da capitalização de mercado da Nvidia num único dia, enquanto os investidores questionavam se as empresas americanas realmente precisavam de investimentos tão grandes para produzir resultados que um pequeno laboratório chinês conseguia com uma fração do custo. V4 é um tipo diferente de mudança: mais silencioso, mais técnico e mais focado na eficiência para qualquer pessoa que realmente construa com IA.
Dois modelos, trabalhos muito diferentes
Dos dois novos modelos, o DeepSeek V4-Pro é o maior, com 1,6 trilhão de parâmetros totais. Para colocar isso em perspectiva, os parâmetros são as “configurações” internas ou “células cerebrais” que um modelo usa para armazenar conhecimento e reconhecer padrões – quanto mais parâmetros um modelo tiver, mais informações complexas ele pode teoricamente conter. Isso o torna o maior modelo de código aberto no mercado de LLM até hoje. O tamanho pode parecer ridículo até você aprender que ele ativa apenas 49 bilhões deles por passagem de inferência.
Este é o truque da mistura de especialistas que o DeepSeek refinou desde a V3: o modelo completo fica lá, mas apenas a parte relevante dele é ativada para qualquer solicitação. Mais conhecimento, a mesma conta de computação.
“DeepSeek-V4-Pro-Max, o modo de esforço máximo de raciocínio do DeepSeek-V4-Pro, avança significativamente as capacidades de conhecimento dos modelos de código aberto, estabelecendo-se firmemente como o melhor modelo de código aberto disponível hoje”, escreveu Deepseek no cartão oficial do modelo no Huggingface. “Ele alcança desempenho de alto nível em benchmarks de codificação e preenche significativamente a lacuna com os principais modelos de código fechado em raciocínio e tarefas de agência.”
V4-Flash é o prático: 284 bilhões de parâmetros totais, 13 bilhões ativos. Ele foi projetado para ser mais rápido, mais barato e, de acordo com os próprios benchmarks do DeepSeek, “atinge um desempenho de raciocínio comparável ao da versão Pro quando recebe um orçamento de pensamento maior”.
Ambos suportam um milhão de tokens de contexto. São cerca de 750.000 palavras – aproximadamente toda a trilogia “O Senhor dos Anéis” mais algumas mudanças. E isso é um recurso padrão, não um nível premium.
O (não tão) molho secreto do Deepseek: fazer com que a atenção não seja terrível em escala
Aqui está a parte técnica para nerds ou interessados na magia que alimenta o modelo. Deepseek não esconde seus segredos e tudo está disponível gratuitamente – o artigo completo está disponível em GitHub.
A atenção padrão da IA – o mecanismo que permite que um modelo entenda as relações entre as palavras – tem um problema de escala brutal. Cada vez que você dobra o comprimento do contexto, o custo do cálculo quase quadruplica. Portanto, executar um modelo com um milhão de tokens não é apenas duas vezes mais caro que 500 mil tokens. É quatro vezes mais caro. É por isso que o contexto de longa data tem sido historicamente uma caixa de seleção que os laboratórios adicionam e, em seguida, restringem silenciosamente os limites de taxa.
DeepSeek inventou dois novos tipos de atenção para contornar isso. O primeiro, Compressed Sparse Attention, funciona em duas etapas. Primeiro, ele compacta grupos de tokens – digamos, a cada 4 tokens – em uma única entrada. Então, em vez de atender a todas essas entradas compactadas, ele usa um “Lightning Indexer” para escolher apenas os resultados mais relevantes para qualquer consulta. Seu modelo passa de um milhão de tokens para um conjunto muito menor de partes mais importantes, como um bibliotecário que não lê todos os livros, mas sabe exatamente qual prateleira verificar.
A segunda, Atenção Fortemente Comprimida, é mais agressiva. Ele reúne cada 128 tokens em uma única entrada – sem seleção esparsa, apenas compactação brutal. Você perde detalhes refinados, mas obtém uma visão global extremamente barata. Os dois tipos de atenção são executados em camadas alternadas, de modo que o modelo obtém tanto os detalhes quanto a visão geral.
O resultado, do artigo técnico: Com um milhão de tokens, o V4-Pro usa 27% da computação necessária para seu antecessor (V3.2). O cache KV – a memória que o modelo precisa para rastrear o contexto – cai para apenas 10% da V3.2. O V4-Flash vai ainda mais longe: 10% de computação, 7% de memória.
E isso fez com que a Deepseek fosse capaz de oferecer um preço por token muito mais barato do que seus concorrentes, ao mesmo tempo em que fornecia resultados comparáveis. Para colocar isso em termos de dólares: GPT-5.5 lançado ontem com entrada de US$ 5 e saída de US$ 30 por milhão de tokens com GPT-5.5 Pro com preço de US$ 30 por milhão de tokens de entrada e US$ 180 por milhão de tokens de saída.
Deepseek V4-Pro custa $ 1,74 de entrada e $ 3,48 de saída. V4-Flash tem entrada de $ 0,14 e saída de $ 0,28. O CEO da Cline, Saoud Rizwan, destacou que se a Uber tivesse usado o DeepSeek em vez do Claude, seu orçamento de IA para 2026 – supostamente suficiente para quatro meses de uso – teria durado sete anos.
deepseek v4 é agora o modelo sota mais barato disponível por 1/20 do custo do opus 4.7.
para ter uma perspectiva, se o uber usasse deepseek em vez de claude, seu orçamento de IA para 2026 teria durado 7 anos em vez de apenas 4 meses. pic.twitter.com/i9rJZzvRBV
DeepSeek faz algo incomum em seu relatório técnico: publica as lacunas. A maioria dos lançamentos de modelos escolhe a dedo os benchmarks onde vencem. DeepSeek executou a comparação completa com GPT-5.4 e Gemini-3.1-Pro, descobriu que o raciocínio do V4-Pro está atrasado em relação a esses modelos em cerca de três a seis meses e o imprimiu mesmo assim.
Onde o V4-Pro-Max realmente vence: Codeforces, benchmark de programação competitivo, classificado como xadrez humano. O V4-Pro obteve pontuação de 3.206, colocando-o em torno do 23º lugar entre os participantes reais do concurso humano. No Apex Shortlist, um conjunto selecionado de problemas matemáticos e STEM, obteve uma taxa de aprovação e atingiu 90,2% contra 85,9% do Opus 4.6 e 78,1% do GPT-5.4. No SWE-Verified, que mede se um modelo pode resolver problemas reais do GitHub extraídos de repositórios reais de código aberto, obteve 80,6% – igualando Claude Opus 4.6.
Onde está: benchmark multitarefa MMLU-Pro (Gemini-3.1-Pro com 91,0% vs V4-Pro com 87,5%), benchmark de conhecimento especializado GPQA Diamond (Gemini 94,3 vs V4-Pro 90,1) e Humanity’s Last Exam, um benchmark de nível de pós-graduação onde os 44,4% do Gemini-3.1-Pro ainda superam os 37,7% do V4-Pro.
Especificamente em um contexto longo, o V4-Pro lidera os modelos de código aberto e supera o Gemini-3.1-Pro no benchmark CorpusQA (um teste que simula a análise de documentos reais em um milhão de tokens), mas perde para Claude Opus 4.6 no MRCR – um teste que mede quão bem um modelo recupera agulhas específicas enterradas profundamente em um palheiro muito longo.
Criado para administrar agentes, não apenas para responder perguntas
O material agente é onde este lançamento se torna interessante para os desenvolvedores que realmente enviam produtos.
V4-Pro pode ser executado em Claude Code, OpenCode e outras ferramentas de codificação de IA. De acordo com a pesquisa interna da DeepSeek com 85 desenvolvedores que usaram o V4-Pro como principal agente de codificação, 52% disseram que estava pronto para ser seu modelo padrão, 39% preferiram sim e menos de 9% disseram não. Funcionários internos disseram que ele supera Claude Sonnet e se aproxima de Claude Opus 4.5 em tarefas de codificação de agente.
Análise Artificial, que executa avaliações independentes de modelos de IA em tarefas do mundo real, classificado V4-Pro é o primeiro entre todos os modelos abertos no GDPval-AA – um benchmark que testa trabalhos de conhecimento economicamente valiosos em tarefas financeiras, jurídicas e de pesquisa, pontuado via Elo. V4-Pro-Max marcou 1.554 Elo, à frente do GLM-5.1 (1.535) e M2.7 do MiniMax (1.514). Para referência, Claude Opus 4.6 pontua 1.619 no mesmo benchmark – ainda à frente, mas a diferença está diminuindo.
DeepSeek V4 Pro é o modelo de pesos abertos nº 1 no GDPval-AA, nossa avaliação de tarefas de trabalho do mundo real@deepseek_ai lançou V4 Pro (1,6T total/49B ativo) e V4 Flash (284B total/13B ativo). V4 é o primeiro novo tamanho do DeepSeek desde V3, com todos os modelos intermediários… pic.twitter.com/2kJWVrKQjF
O V4 do Deepseek também introduz algo chamado “pensamento intercalado”. Nos modelos anteriores, se você estivesse executando um agente que fizesse diversas chamadas de ferramenta (digamos, ele pesquisasse na Web, depois executasse algum código e depois pesquisasse novamente), o contexto de raciocínio do modelo era liberado entre as rodadas. A cada nova etapa, o modelo tinha que reconstruir seu modelo mental do zero. A V4 mantém toda a cadeia de pensamento durante as chamadas de ferramentas, para que um fluxo de trabalho de agente de 20 etapas não sofra de amnésia no meio do processo. Isso é mais importante do que parece para qualquer pessoa que execute pipelines automatizados complexos.
Deepseek e a guerra de IA EUA-China
Os EUA têm restringido as exportações de chips Nvidia de última geração para a China desde 2022. meta declarada era desacelerar o desenvolvimento da IA na China, mas a proibição dos chips não impediu o DeepSeek e, em vez disso, os fez inventar uma arquitetura mais eficiente e desenvolver o fornecimento doméstico de hardware.
DeepSeek não lançou o V4 no vácuo – o espaço de IA tem estado repleto de atividades ultimamente: Antrópico enviado Claude Opus 4.7 em 16 de abril – um modelo Descriptografar testado e considerado forte em codificação e raciocínio, com uso de token notavelmente alto. No dia anterior, a Anthropic também estava analisando Claude Mythos, um modelo de segurança cibernética que diz não poder divulgar publicamente porque é muito bom em ataques de redes autônomas.
Xiaomi abandonou o MiMo V2.5 Pro em 22 de abril, tornando-se totalmente multimodal – imagem, áudio, vídeo. Custa US$ 1 de entrada e US$ 3 de saída por milhão de tokens. Corresponde ao Opus 4.6 na maioria dos benchmarks de codificação. Há três meses, ninguém falava da Xiaomi como uma empresa pioneira de IA. Agora está enviando modelos competitivos mais rapidamente do que a maioria dos laboratórios ocidentais.
O GPT-5.5 da OpenAI pousou ontem com custos aumentando até US$ 180 por milhão de tokens produzidos na versão Pro. Ele supera o V4-Pro no Terminal Bench 2.0 (82,7% vs 70,0%), que testa fluxos de trabalho complexos de agentes de linha de comando. Mas custa consideravelmente mais que o V4-Pro para tarefas equivalentes. Naquele mesmo dia, a Tencent lançou o Hy3, outro modelo de última geração focado na eficiência.
O que isso significa para você
Portanto, com tantos novos modelos disponíveis, a pergunta que os desenvolvedores estão realmente fazendo: quando vale a pena o prêmio?
Para as empresas, a matemática pode ter mudado. Um modelo que lidera os benchmarks de código aberto a US$ 1,74 por milhão de tokens de entrada significa que o processamento de documentos em grande escala, a revisão jurídica ou os pipelines de geração de código que eram caros há seis meses agora são muito mais baratos. O contexto de um milhão de tokens significa que você pode alimentar bases de código inteiras ou registros regulatórios em uma única solicitação, em vez de dividi-los em várias chamadas.
Além disso, sua natureza de código aberto significa que não só pode ser executado gratuitamente em hardware local, mas também pode ser customizado e melhorado com base nas necessidades e casos de uso da empresa.
Para desenvolvedores e construtores individuais, o V4-Flash é o que você deve observar. Com entrada de US$ 0,14 e saída de US$ 0,28, é mais barato do que os modelos que eram considerados opções de orçamento há um ano – e lida com a maioria das tarefas que a versão Pro realiza. Os endpoints deepseek-chat e deepseek-reasoner existentes do DeepSeek já roteiam para V4-Flash nos modos sem pensamento e pensamento, respectivamente, portanto, se você estiver na API, já a está usando.
Os modelos são somente texto por enquanto. DeepSeek disse que está trabalhando em recursos multimodais, o que significa que outros grandes laboratórios, da Xiaomi ao OpenAI, ainda têm essa vantagem. Ambos os modelos são licenciados pelo MIT e estão disponíveis hoje no Hugging Face. Os antigos endpoints deepseek-chat e deepseek-reasoner serão desativados em 24 de julho de 2026.
Insight NeuralNet:
Criptomoedas são ativos de alta volatilidade. Nunca invista mais do que pode perder e sempre faça sua própria pesquisa (DYOR – Do Your Own Research). Diversificação e estratégia de longo prazo reduzem riscos.
Tendências do Mercado Crypto em Destaque
Ativo/Categoria
Catalisador Recente
Situação no Brasil
Potencial
₿ Bitcoin (BTC)
ETFs nos EUA, Halving, adoção institucional
Liquidez alta em exchanges BR
Ethereum (ETH)
Atualizações da rede, staking, Layer 2
Ecossistema DeFi em crescimento
Stablecoins (USDT, USDC)
Reservas auditadas, regulação global
Uso crescente para proteção contra volatilidade
Altcoins & DeFi
Inovação em yield, governança, interoperabilidade
Alto risco; exige pesquisa profunda
* Potencial baseado em análise de mercado. Não é recomendação de investimento.
Aviso Legal e de Risco:
Este conteúdo é estritamente educativo e informativo. Não constitui aconselhamento financeiro, jurídico ou recomendação de investimento. Criptoativos são voláteis e podem sofrer variações bruscas de valor. Rentabilidade passada não garante retornos futuros.Recomendações: (1) Faça sua própria pesquisa (DYOR); (2) Diversifique; (3) Use apenas capital que pode perder; (4) Consulte um advisor financeiro credenciado para decisões pessoais.
Nós utilizamos cookies para garantir que você tenha a melhor experiência em nosso site. Se você continua a usar este site, assumimos que você está satisfeito.