A Samsung Electronics está prestes a dar um passo decisivo no mercado de memória para inteligência artificial. A empresa sul-coreana iniciará ainda neste mês a primeira produção em massa mundial de chips HBM4, a sexta geração das memórias de alta largura de banda (High Bandwidth Memory), visando recuperar o protagonismo em um dos segmentos mais disputados da indústria de semicondutores.
Segundo fontes do setor, a Samsung planeja começar o envio dos chips já na próxima semana, logo após o feriado do Ano Novo Lunar. O destino inicial será a Nvidia, que deve utilizar o HBM4 da Samsung em suas próximas unidades de processamento gráfico voltadas para IA, na plataforma Vera Rubin, com lançamento previsto para o segundo semestre de 2026. Esses aceleradores devem equipar servidores e data centers dedicados a cargas intensivas de inteligência artificial generativa e computação de alto desempenho.
Um salto técnico importante no HBM4
Do ponto de vista tecnológico, o HBM4 da Samsung representa um belo avanço em relação às gerações anteriores. Os novos chips alcançam velocidades de até 11,7 gigabits por segundo, superando em 37% o padrão definido pela JEDEC, que hoje é de 8 Gbps. Em comparação direta com o HBM3E, a geração anterior, o ganho é de cerca de 22%.
Outro destaque é a largura de banda por pilha, que chega a até 3 terabytes por segundo, aproximadamente 2,4 vezes maior do que no HBM3E. Esse salto é crítico para aplicações de IA, que dependem de acesso rápido a grandes volumes de dados para alimentar modelos cada vez maiores e mais complexos.
A Samsung também aposta em empilhamentos mais altos, com até 12 camadas inicialmente, permitindo capacidades de até 36 GB por pilha, com possibilidade de chegar a 48 GB em configurações futuras.
Integração vertical como diferencial
Um dos principais trunfos da Samsung frente aos concorrentes está em seu modelo de fabricação verticalmente integrado. Diferente de outras fabricantes, que dependem de fundições externas para produzir o die lógico base, a Samsung utiliza seu próprio processo de 4 nanômetros na divisão de foundry, combinado com sua DRAM 1c, a sexta geração da classe de 10 nanômetros.
Essa abordagem reduz dependências externas, facilita ajustes de desempenho e eficiência energética e acelera o ciclo entre projeto e produção em larga escala. Segundo fontes da indústria, essa integração foi um dos fatores decisivos para a Samsung obter avaliações positivas da Nvidia, especialmente em critérios como velocidade operacional e consumo energético.
A novidade da Samsung coloca pressão direta sobre a SK Hynix, atual líder do mercado de HBM. Embora a SK Hynix ainda deva responder por uma parcela maior do fornecimento total de HBM4 no curto prazo, seus planos de produção em massa foram adiados para março ou abril de 2026. Até lá, a empresa deve continuar focando no HBM3E como principal produto.
Analistas observam que, mesmo que a SK Hynix mantenha vantagem em volume, a Samsung ganha espaço ao sair na frente em desempenho e certificação para a próxima geração de aceleradores da Nvidia. Isso pode influenciar tanto preços quanto contratos futuros, especialmente a partir de 2027.
Expansão agressiva e impacto financeiro
Para sustentar essa virada, a Samsung está investindo pesado em capacidade produtiva. A empresa planeja aumentar em cerca de 50% sua produção de HBM até o fim de 2026, chegando a aproximadamente 250 mil wafers por mês. Parte desse crescimento virá de uma nova linha dedicada na unidade Pyeongtaek Plant 4.
As projeções financeiras indicam que as vendas de HBM da Samsung podem triplicar em 2026, com a participação de mercado saltando de cerca de 16% para algo próximo de 35%. Após um período de perda de espaço nas gerações anteriores, o HBM4 indica que, pelo menos nesse segmento, a Samsung está de volta ao jogo.
Fique por dentro das principais novidades da semana sobre tecnologia e Linux: receba nossa newsletter!