OpenAI dá passo inédito e encomenda chip próprio de IA à Broadcom

A OpenAI confirmou nesta segunda-feira que firmou uma parceria estratégica com a Broadcom para projetar e fabricar seus primeiros processadores de inteligência artificial próprios — hoje, estes chips são peças centrais para empresas que oferecem grandes modelos de IA, como o ChatGPT. A colaboração prevê que a OpenAI ficará responsável pelo design dos chips (ou pelos “accelerators” de IA), enquanto a Broadcom cuidará do desenvolvimento e da implantação.

Segundo os anúncios, o projeto começará a ser empregado no segundo semestre de 2026, com o objetivo de distribuir uma capacidade total de 10 gigawatts (GW) de aceleradores personalizados de IA, com deployment estimado para ser concluído até o fim de 2029.

A iniciativa indica um passo importante da OpenAI para reduzir sua dependência de terceiros — especialmente da Nvidia, cujas GPUs têm sido amplamente utilizadas para treinar e servir seus modelos.

Motivações e contexto

Pressão sobre fornecimento e custos

Com o crescimento exponencial da demanda por poder computacional para IA — seja para treinamento de modelos, seja para inferência (responder perguntas, gerar texto, imagens, etc.) —, garantir acesso a hardware em escala tornou-se um dos gargalos mais críticos para empresas de IA de grande porte. A dependência de GPUs de terceiros, como as da Nvidia, tornava essas empresas vulneráveis a atrasos, custos elevados e gargalos nas cadeias de fornecimento.

Além disso, a OpenAI já fechara acordos recentes com AMD e Nvidia para fornecimento de chips, mas esses modelos externos não ofereciam o mesmo tipo de controle de desempenho, eficiência energética e customização que designs próprios poderiam permitir.

Competição e estratégia de longo prazo

Criar hardware próprio é uma tendência crescente entre gigantes da tecnologia (Google, Amazon, Meta, etc.), que veem nisso uma forma de otimizar desempenho, controlar custos operacionais e obter vantagem competitiva. OpenAI, ao seguir esse caminho, pretende não apenas reduzir dependência externa, mas também moldar o hardware com base nas necessidades específicas de seus modelos, visando maior eficiência e integração.

Também há uma componente estratégica: com hardware próprio, OpenAI pode ajustar melhor a arquitetura para inferência, latência, custos de energia – todos fatores que se tornam cada vez mais decisivos à medida que aplicações de IA se expandem (assistentes, agentes, automação, etc.).

O escopo do projeto: o que se sabe até agora

Capacidade de 10 GW

A parceira prevê deploy de aceleradores de IA que somam 10 GW de capacidade. Essa dimensão é enorme — estimativas apontam que o consumo de energia dessa infraestrutura seria equivalente ao de mais de 8 milhões de lares nos Estados Unidos.

Esse volume sugere clusters massivos de servidores com chips especiais, sistemas de interconexão (networking), cabeamento, refrigeração e outras infraestruturas associadas. Ou seja, não é apenas o chip em si, mas todo o ecossistema de hardware ao redor.

Cronograma

  • Desenho / projeto: já em curso, com OpenAI liderando a fase de design.

  • Roll-out completo: até o fim de 2029.

Infraestrutura de rede e conectividade

Além do chip propriamente dito, uma parte central da parceria inclui soluções de rede: uso de hardware Ethernet, PCIe, conectividade óptica, etc., para suportar clusters de IA em grande escala. A Broadcom traz experiência nisso, o que será fundamental para escalar desde o chip até os racks completos.

Desafios previstos

Apesar de promissora, a empreitada enfrenta obstáculos consideráveis.

Complexidade do design

Criar chips de IA eficientes em performance e consumo energético é uma tarefa técnica complexa. Mesmo empresas já experientes têm tido dificuldades para igualar o desempenho de chips liderados pela Nvidia, que domina o mercado hoje.

Produção e fabricação

Embora o design esteja sob responsabilidade da OpenAI, a fabricação dependerá de parceiros externos, possivelmente Taiwan Semiconductor Manufacturing Company (TSMC), entre outros, para a litografia moderna e processos avançados de produção.

Ademais, obter capacidade de produção em volumes tão grandes (capacidade de GW de IA) requer não só fábricas, mas também fornecimento de materiais, memory stacks, interconexões físicas, refrigeração, energia etc., tudo isso de forma confiável e sustentável.

Os custos vão além da compra ou manufatura dos chips: energia elétrica, infraestrutura de data centers, refrigeração, redundância, manutenção. Levar ao cabo um projeto de 10 GW em vários data centers exige grandes investimentos de capital. Até agora, os termos financeiros exatos entre OpenAI e Broadcom não foram divulgados.

Tempo

O cronograma de deployment (meio de 2026 até 2029) é ambicioso. Imprevistos em design, fabricação, logística ou regulamentações podem atrasar ou onerar o plano. A cadeia de fornecimento global de semicondutores tem sido sujeita a variações – desde escassez de componentes até questões geopolíticas.

Impactos esperados

Para OpenAI

  • Autonomia: melhoria no controle sobre hardware essencial para suas operações. Menos dependência de fornecedores externos significa menos vulnerabilidade a flutuações de preços ou atraso no fornecimento.

  • Eficiência: customização de hardware permite otimizar desempenho para os tipos de modelos que a OpenAI desenvolve, por exemplo, em inferência ou até parte do treinamento, resultando em economias de energia e custo operacional.

  • Escalabilidade: com sua própria arquitetura, a OpenAI poderá dimensionar seus sistemas conforme a demanda sem depender só de parceiros.

Para Broadcom

  • Crescimento de mercado: a parceria com OpenAI consolida a Broadcom como ator importante no ecossistema de IA, além de assegurar contrato de grande escala.

  • Desenvolvimento de portfólio: reforça sua competência em aceleradores de IA, interconectividade de rede, e soluções de infraestrutura de data centers.

Para o mercado de IA como um todo

  • Diversificação: à medida que grandes empresas investem em hardware próprio, o mercado pode se tornar menos dependente de um ou dois fornecedores dominantes — o que pode gerar competição, inovação, e possivelmente pressão para preços mais acessíveis.

  • Inovação em eficiência energética: hardware próprio tende a focar mais em eficiência, uma vez que os custos energéticos e de operação se tornam parte crucial da equação.

  • Geopolítica e segurança de supply chain: empresas poderão querer garantir fabricação em locais estratégicos, reduzir vulnerabilidades diante de sanções, atrasos logísticos ou tensões entre países.

Limitações e incertezas

  • Mesmo com a parceria, não se espera que a OpenAI derrube imediatamente o domínio da Nvidia no mercado de aceleradores de IA — pelo menos no curto prazo. Analistas apontam que Nvidia continua forte, tanto em reputação, quanto em maturidade de hardware, software, ecossistema, suporte etc.

  • O desempenho real dos chips — latência, throughput, eficiência energética — ainda é desconhecido publicamente, assim como muitos detalhes técnicos. Modelos de inferência vs. treinamento têm requisitos diferentes, e o sucesso vai depender também da integração com software, otimizações de sistema, escalabilidade de rede etc.

  • O preço total da implantação pode se revelar muito maior, especialmente custos operacionais recorrentes como energia elétrica, refrigeração, manutenção, atualizações etc.

Botão Voltar ao topo