Fevereiro de 2026 está sendo um mês movimentado para a NVIDIA. Em menos de duas semanas, a empresa revelou uma reestruturação surpreendente no seu portfólio de investimentos, publicou benchmarks que mostram reduções de até 10x no custo de inferência AI com a arquitetura Blackwell, e se prepara para divulgar resultados trimestrais que Wall Street projeta em US$ 66 bilhões de receita.

São três movimentos distintos que, juntos, pintam um quadro claro: a NVIDIA não está apenas surfando a onda de AI. Ela está moldando ativamente a infraestrutura que sustenta toda a indústria.

O portfólio secreto da NVIDIA: vendas e a aposta na Intel

No dia 18 de fevereiro, o 13F filing trimestral da NVIDIA revelou mudanças significativas no portfólio de investimentos da empresa. O documento, que cobre as posições até 31 de dezembro de 2025, mostrou que a NVIDIA vendeu integralmente sua participação na Arm Holdings (1,1 milhão de ações avaliadas em cerca de US$ 140 milhões) e saiu completamente da Applied Digital, vendendo uma posição estimada em US$ 177 milhões.

As vendas chamam atenção porque Arm e Applied Digital eram consideradas apostas naturais para a NVIDIA no ecossistema de AI. A Arm projeta a arquitetura de processadores que domina dispositivos móveis e está cada vez mais presente em data centers. A Applied Digital opera data centers voltados para cargas de trabalho de inteligência artificial. Mesmo assim, a NVIDIA decidiu sair de ambas.

O destino desse capital ficou claro no mesmo filing: a NVIDIA agora detém 214,8 milhões de ações da Intel, avaliadas em aproximadamente US$ 7,9 bilhões. Essa posição teve origem em um acordo de setembro de 2025, quando a NVIDIA adquiriu as ações via colocação privada a US$ 23,28 por ação, totalizando US$ 5 bilhões. O deal recebeu aprovação da FTC em dezembro de 2025.

Mais do que um investimento financeiro, a parceria com a Intel tem implicações estratégicas profundas. A Intel vai fabricar CPUs x86 customizadas para as plataformas AI da NVIDIA usando a tecnologia NVLink. As duas empresas também estão desenvolvendo SoCs que integram chiplets de GPU RTX da NVIDIA para computação pessoal. Os primeiros laptops com essa tecnologia conjunta são esperados para o final de 2026, prometendo desempenho AI até 4x superior aos dispositivos atuais.

Para a NVIDIA, diversificar a manufatura para além da TSMC é um movimento de mitigação de risco geopolítico. Para a Intel, o investimento funciona como um voto de confiança na estratégia IDM 2.0 e no Intel Foundry. Para desenvolvedores, significa que laptops com capacidade real de inferência local estão mais perto do que parece.

Blackwell e a queda de até 10x no custo de inferência

Enquanto o 13F filing revelava a estratégia de investimentos, os números de performance da arquitetura Blackwell continuavam ganhando corpo. Provedores de inferência como Baseten, DeepInfra, Fireworks AI e Together AI reportaram reduções de até 10x no custo por token em comparação com a geração anterior Hopper.

Os casos de uso são concretos. A Sully.ai, plataforma de saúde que gera notas clínicas automatizadas, migrou para o modelo open source gpt-oss-120b rodando na infraestrutura Blackwell da Baseten. O resultado foi uma redução de 90% no custo de inferência e melhoria de 65% nos tempos de resposta. Segundo a empresa, a mudança devolveu 30 milhões de minutos clínicos aos médicos.

A Latitude, criadora do jogo AI Dungeon, reduziu o custo por milhão de tokens de US$ 0,20 (na geração Hopper) para US$ 0,10 (Blackwell padrão) e depois para US$ 0,05 usando o formato de baixa precisão NVFP4. Uma queda de 4x que viabiliza modelos maiores em escala de produção.

A Sentient Foundation, rodando na infraestrutura da Fireworks AI, reportou eficiência de custo 25% a 50% melhor que Hopper, processando 5,6 milhões de queries em uma semana e atendendo 1,8 milhão de usuários em 24 horas durante o lançamento.

A Decagon, que oferece atendimento ao cliente baseado em AI, conseguiu uma redução de 6x no custo por query de voz na infraestrutura da Together AI, com tempos de resposta abaixo de 400 milissegundos usando decodificação especulativa e cache de conversação.

O papel dos modelos open source na equação

Um detalhe importante nessas reduções de custo: elas não vêm apenas do hardware. A combinação de três fatores é o que gera o salto de eficiência.

O primeiro fator é o hardware Blackwell em si, especificamente a GPU GB200 NVL72 e o formato nativo de baixa precisão NVFP4. O NVFP4 permite que modelos rodem com metade da precisão numérica sem perda significativa de qualidade, contribuindo com uma melhoria de até 4x no custo por token.

O segundo fator é o stack de software otimizado. A biblioteca TensorRT-LLM e o novo framework NVIDIA Dynamo trabalham juntos para maximizar o throughput de inferência, gerenciando batching dinâmico, alocação de memória e paralelismo de forma transparente para o desenvolvedor.

O terceiro fator, e talvez o mais relevante para o ecossistema, é a migração de modelos proprietários para modelos open source. Quando uma empresa substitui chamadas a APIs proprietárias por modelos abertos como Llama, Mistral ou DeepSeek rodando em infraestrutura própria ou de provedores como os mencionados acima, o custo operacional cai drasticamente.

Pesquisadores do MIT confirmaram independentemente essa tendência, estimando que a combinação de eficiências de infraestrutura e algoritmos está reduzindo os custos de inferência em até 10x ao ano.

Q4 FY2026: Wall Street espera US$ 66 bilhões

No dia 25 de fevereiro, a NVIDIA divulga os resultados do quarto trimestre do ano fiscal 2026. O consenso de analistas aponta para uma receita de aproximadamente US$ 65 a 66 bilhões no trimestre, com lucro por ação estimado em US$ 1,46 e margens brutas se aproximando de 75%.

O segmento de Data Center, que representa mais de 90% da receita da NVIDIA, deve se aproximar de US$ 60 bilhões no trimestre. Para contextualizar: no Q3, esse segmento registrou US$ 51,2 bilhões, um crescimento de 66% em relação ao ano anterior. O segmento de Gaming deve permanecer estável em torno de US$ 4 bilhões.

O que realmente importa para o mercado, porém, não são os números passados. É o guidance para os próximos trimestres. A demanda por GPUs Blackwell permanece acima da capacidade de produção, com unidades esgotadas até meados de 2026. Os sinais de demanda dos hyperscalers são a variável que pode mover a ação nos dias seguintes ao earnings call.

E esses sinais são claros. Os quatro maiores compradores de GPUs da NVIDIA anunciaram investimentos recordes em infraestrutura AI para 2026: a Alphabet (Google) planeja investir US$ 180 bilhões (alta de 98% sobre 2025), a Amazon projeta US$ 200 bilhões (+56%), a Meta US$ 125 bilhões (+74%) e a Microsoft mais de US$ 140 bilhões (+59%). O total combinado se aproxima de US$ 650 bilhões.

Wall Street tem subestimado consistentemente os gastos com AI nos últimos três anos. Em 2024, a previsão era de 19% de crescimento e o realizado foi 54%. Em 2025, projetaram 22% e o realizado foi 64%. Para 2026, a estimativa original de 19% já foi revisada para 70%.

O que isso significa para desenvolvedores

Para quem constrói produtos e serviços baseados em AI, os movimentos da NVIDIA em fevereiro de 2026 trazem implicações práticas.

A mais imediata é o custo de inferência. Se você roda modelos open source em provedores como Baseten, DeepInfra, Fireworks AI ou Together AI, a migração para infraestrutura Blackwell pode reduzir seus custos operacionais em 4x a 10x. Isso muda a viabilidade econômica de funcionalidades que antes eram caras demais para produção.

A segunda implicação é a consolidação dos provedores de inferência. Com Blackwell, as diferenças de custo entre provedores que adotaram a nova geração e os que ainda rodam Hopper vão se ampliar. A pressão competitiva deve forçar uma migração generalizada, beneficiando quem consome essas APIs.

A terceira implicação, mais de médio prazo, é a parceria Intel-NVIDIA para laptops. Se os benchmarks prometidos se confirmarem, desenvolvedores terão acesso a inferência local com performance real ainda em 2026. Isso abre espaço para aplicações de AI que rodam inteiramente no dispositivo, sem dependência de cloud.

Por fim, os números de capex dos hyperscalers confirmam que a infraestrutura de AI vai continuar crescendo de forma agressiva. Para quem está entrando no mercado de AI ou expandindo produtos existentes, o momento é favorável: mais capacidade, preços em queda e ecossistema de ferramentas cada vez mais maduro.

Conclusão

A NVIDIA está jogando em múltiplos tabuleiros ao mesmo tempo. No financeiro, reestruturou seu portfólio para apostar em manufatura doméstica com a Intel. No técnico, demonstrou que a arquitetura Blackwell pode reduzir custos de inferência em uma ordem de magnitude. No estratégico, se posiciona para um trimestre que pode bater todos os recordes de receita da indústria de semicondutores.

Para o ecossistema de desenvolvedores, o resultado líquido é positivo. Inferência mais barata, mais provedores competindo em preço, modelos open source cada vez mais viáveis em produção e a promessa de hardware local com capacidade real de AI. Fevereiro de 2026 pode ser lembrado como o mês em que rodar AI em produção ficou acessível para muito mais gente.

Referências pesquisadas nesta publicação