Horizon, novo supercomputador dos EUA, terá 1 milhão de CPUs e 300 petaflops - Brasileira.News
Início Ciência & Inovação Horizon, novo supercomputador dos EUA, terá 1 milhão de CPUs e 300...

Horizon, novo supercomputador dos EUA, terá 1 milhão de CPUs e 300 petaflops

0
5

O Horizon, apontado como o novo supercomputador acadêmico de maior porte dos Estados Unidos, deve ser lançado nos próximos meses no Texas Advanced Computing Center, em Austin, para substituir o Frontera como principal sistema universitário do país. O equipamento está sendo construído em parceria com a Dell Technologies, com financiamento da Fundação Nacional de Ciência dos EUA, e foi projetado para operar como plataforma de ciência aberta e pesquisa científica, com uso em áreas como simulação climática, inteligência artificial e engenharia. De acordo com informações do Convergência Digital, o sistema usará a plataforma Nvidia Grace Blackwell, contará com quatro mil GPUs Nvidia e terá capacidade de 300 petaflops.

No centro de computação, quatro supercomputadores já operam no mesmo espaço físico, incluindo o Frontera. Essas máquinas atendem 400 universidades dos Estados Unidos e parceiros internacionais, com acesso remoto voltado a pesquisadores que desenvolvem estudos não confidenciais, em geral destinados à publicação científica. O data center também presta suporte a empresas e fundações privadas em projetos que podem envolver desde modelagem climática até aplicações de IA.

Como o Horizon se encaixa na estrutura já usada pelas universidades dos EUA?

Segundo Dan Stanzione, diretor-executivo do TACC e vice-presidente associado de pesquisa da Universidade do Texas em Austin, o Horizon assumirá em alguns meses o posto hoje ocupado pelo Frontera. O novo sistema se somará a outros quatro grandes supercomputadores em operação no local, todos compostos por milhares de servidores Dell interconectados em clusters para formar uma única estrutura de computação de alto desempenho.

Stanzione explicou que o Frontera possui cerca de 450.000 processadores distribuídos em 8.500 servidores Dell. Esse arranjo serve de referência para entender a escala do Horizon, anunciado com 1 milhão de CPUs. O Frontera recebeu investimento de US$ 60 milhões, foi implantado em junho de 2019 e entrou em operação plena em setembro do mesmo ano, mantendo o status de supercomputador mais rápido instalado em um campus universitário nos Estados Unidos.

— Publicidade —
Google AdSense • Slot in-article

Por que a latência e a densidade são fatores centrais nesse tipo de sistema?

O texto destaca que o Frontera usa refrigeração líquida em vez de ar e funcionou, na prática, como um protótipo para o Horizon. Stanzione afirmou que os componentes atuais são mais densos e impõem limites relevantes à operação e ao desenho físico da infraestrutura. A disposição compacta dos racks, dos cabos e dos switches é tratada como parte essencial do desempenho.

“O Frontera era o nosso maior supercomputador até o momento; o Horizon assumirá esse posto daqui a alguns meses”

Ao detalhar a importância da arquitetura física, Stanzione afirmou que a latência é decisiva quando um pesquisador utiliza centenas ou milhares de servidores em treinamentos de grandes modelos de linguagem ou em simulações complexas. Nesses casos, a velocidade da comunicação entre os sistemas passa a limitar o desempenho geral da máquina.

“Se, por exemplo, tivermos um usuário utilizando mil servidores com GPUs para realizar um grande treinamento de LLM ou uma simulação complexa, a velocidade de comunicação entre eles torna-se crucial”

O executivo também explicou que até o comprimento dos cabos interfere no resultado, já que o tempo de transmissão entre servidores afeta a execução de tarefas em larga escala. Na avaliação dele, uma rede mais lenta ou uma latência maior pode reduzir de forma significativa o aproveitamento da capacidade total da máquina.

Como o data center do TACC foi estruturado para lidar com esse desafio?

O centro de dados conta com tubulações sob o piso elevado e com equipamentos identificados como IRCs, ou resfriadores de corredor. Esses sistemas captam o ar quente na parte traseira das fileiras e devolvem ar resfriado à frente, permitindo que os servidores mantenham a temperatura adequada. A organização da infraestrutura busca conciliar densidade, refrigeração e comunicação rápida entre os equipamentos.

O texto também relata que, antes da expansão das cargas de IA, provedores comerciais de nuvem costumavam operar com racks de baixa densidade, priorizando a distribuição de energia em áreas maiores. Com a mudança no perfil das aplicações, especialmente em inteligência artificial, a reorganização das instalações passou a seguir padrões mais próximos dos centros de computação de alto desempenho.

Que tipo de pesquisa é apoiada pelo centro de supercomputação?

Além do processamento de dados, o TACC mantém uma área dedicada à visualização científica. O ambiente usa um painel com várias telas 4K conectadas a computadores independentes, formando uma única área de trabalho ampliada para interpretação gráfica de simulações e instrumentos científicos.

Entre os exemplos citados no local estão visualizações de correntes de vento e padrões climáticos globais, estudos sobre baterias de íons de sódio, reconstruções de movimentos fetais a partir de dados sonoros e simulações sobre a formação de galáxias primordiais. Segundo o relato, dezenas de projetos recebem assistência específica em visualização a cada ano, enquanto outros se concentram em análises baseadas em IA ou no exame de grandes planilhas.

Quais são os principais números e objetivos do Horizon?

O Horizon está sendo construído com base na Dell AI Factory com Nvidia e foi apresentado como uma plataforma voltada a pesquisadores que precisam combinar computação de alto desempenho e inteligência artificial em problemas complexos. De acordo com o material, os servidores Dell PowerEdge com computação acelerada Nvidia serão o núcleo operacional do sistema.

  • 1 milhão de CPUs
  • quatro mil GPUs Nvidia
  • capacidade de 300 petaflops
  • instalação no Texas Advanced Computing Center
  • foco em ciência aberta e pesquisa científica

A proposta, segundo a descrição publicada, é ampliar a capacidade de pesquisa em frentes como mudanças climáticas, avanços médicos e física fundamental. O lançamento está previsto para os próximos meses, quando o sistema deverá substituir o Frontera como principal referência acadêmica de supercomputação nos Estados Unidos.

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here