Como a Nvidia usa conexões ópticas para criar sistemas com mais de mil GPUs - Brasileira.News
Início Tecnologia Como a Nvidia usa conexões ópticas para criar sistemas com mais de...

Como a Nvidia usa conexões ópticas para criar sistemas com mais de mil GPUs

0
7
System with various wires managing access to centralized resource of server in data center
System with various wires managing access to centralized resource of server in data center Foto: Brett Sayles — Pexels License (livre para uso)

Neste início de abril de 2026, a Nvidia detalhou seus planos de revolucionar a arquitetura de seus sistemas de inteligência artificial até 2028, adotando interconexões fotônicas para agrupar mais de mil unidades de processamento gráfico (GPUs) em um único servidor. O movimento tecnológico, liderado pelo CEO Jensen Huang, visa superar as limitações físicas dos cabos de cobre atuais e garantir a escalabilidade necessária para o avanço dos modelos de linguagem global. Para o Brasil, essa evolução tecnológica impactará diretamente a infraestrutura dos novos data centers em expansão no país, essenciais para o suporte de computação em nuvem e desenvolvimento local de IA.

De acordo com informações do The Register, a gigante dos processadores já investiu bilhões em empresas especializadas em componentes ópticos e de rede, como a Marvell, a Coherent e a Lumentum, preparando o terreno para a implementação massiva dessa arquitetura em data centers.

“Para todos que estão em nosso ecossistema, precisamos de muito mais capacidade. Precisamos de muito mais capacidade para cobre; precisamos de muito mais capacidade para óptica; precisamos de muito mais capacidade para CPO; e é por isso que temos trabalhado com todos vocês para estabelecer as bases para esse nível de crescimento”, afirmou Huang durante sua apresentação na conferência GTC.

Por que o uso exclusivo de cabos de cobre não é mais viável?

A percepção de que a infraestrutura precisava evoluir surgiu no final de 2022, logo após a OpenAI lançar o ChatGPT ao público. Naquela época, os sistemas mais potentes da fabricante suportavam apenas oito aceleradores por unidade, enquanto o treinamento de inteligência artificial passou a exigir milhares de chips trabalhando em sincronia. A tentativa inicial de suprir essa demanda resultou na máquina Grace Blackwell NVL72, que utiliza uma placa traseira com quilômetros de cabos de cobre para conectar 36 nós e 72 GPUs, exigindo um consumo energético de 120 quilowatts.

— Publicidade —
Google AdSense • Slot in-article

“O cobre é a melhor conectividade, se você puder usá-lo. É muito econômico, muito barato e consome zero de energia. É muito confiável. Não há componentes ativos”, explicou Gilad Shainer, vice-presidente sênior de redes da desenvolvedora.

Contudo, o material apresenta restrições inegáveis de alcance. Com uma taxa de transferência de 1,8 terabyte por segundo, o sinal via cobre sofre degradação após distâncias muito curtas. Essa barreira física obriga a alocação de todas as chaves de rede no centro do rack e a aglomeração forçada de processadores no menor espaço possível, limitando a criação de sistemas ainda mais robustos.

Quais são os principais desafios da tecnologia óptica no setor?

Inicialmente, a única opção comercial para interligar as placas utilizando luz exigiria o uso de módulos ópticos conectáveis, aparelhos do tamanho de um pacote de chicletes que abrigam os lasers necessários para converter eletricidade em impulsos luminosos. Para atingir a largura de banda exigida, cada GPU precisaria de dezoito módulos operando a 800 gigabits por segundo.

Apesar de um único componente consumir entre dez e 15 watts, a multiplicação dessa carga por 72 processadores adicionaria cerca de 20 mil watts ao consumo total do servidor. A solução definitiva encontrada pela empresa para mitigar o desperdício energético foi a adoção da óptica co-empacotada (CPO), um sistema que integra os motores fotônicos diretamente ao lado do circuito integrado do switch.

Como a infraestrutura de inteligência artificial funcionará no futuro?

A fabricante detalhou o roteiro de evolução para suas arquiteturas Vera Rubin NVL576 e Rosa Feynman NVL1152. Para garantir que a transição ocorra de forma estável, Ian Buck, vice-presidente de hiperescala, confirmou que a primeira camada da rede dentro dos servidores manterá o cabeamento tradicional de cobre. A segunda camada estrutural, no entanto, passará a utilizar componentes baseados em luz.

As diretrizes técnicas confirmadas para as próximas gerações de infraestrutura incluem fatores essenciais de arquitetura:

  • Operação híbrida simultânea com materiais de cobre e ópticos na geração Vera Rubin.
  • Capacidade de integração óptica entre até oito racks distintos, equilibrando os níveis térmicos do hardware.
  • Implementação da arquitetura Feynman, projetada para a segunda metade de 2028, com conexões NVLink co-empacotadas.
  • Possível integração dos sistemas CPO diretamente na base da GPU para erradicar a latência de processamento em camadas múltiplas.

Enquanto a empresa desenvolve suas próprias soluções nativas para 2028, iniciativas paralelas já demonstram a viabilidade do conceito. Empresas do setor corporativo de tecnologia, como a Ayar Labs, firmaram parcerias com fornecedoras de infraestrutura para alocar 1.024 GPUs em sistemas baseados inteiramente em óptica, estabelecendo a comunicação fotônica como o novo padrão do mercado mundial.

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here