A Hewlett Packard Enterprise (HPE) lançou uma solução de supercomputação pensada para acelerar a inteligência artificial generativa e oferecer às empresas os meios para integrar esta tecnologia nos seus modelos de negócio e serviços. Essa solução, projetada para simplificar o desenvolvimento de modelos de IA, oferece um pacote completo de software de IA/ML e hardware de última geração para acelerar o treino e ajuste de novos modelos de IA.

Destacando-se por ser pré-configurada e testada, a solução utiliza o Grace Hopper GH200 Superchip da NVIDIA, com uma configuração específica avançada, aliada a software avançado que inclui ferramentas de aceleração de IA e machine learning (ML), como o HPE Machine Learning Development Environment, o NVIDIA AI Enterprise e o pacote HPE Cray Programming Environment.

O ponto forte da solução reside, contudo, na sua escalabilidade notável, já que incorporando o HPE Cray EX2500 e superchips NVIDIA GH200 Grace Hopper, e podendo incluir até 4 nós GH200 Superchip da NVIDIA, é possível escalar a solução até vários milhares de GPU.

A solução também se destaca pela eficiência da rede, ao integrar o HPE Slingshot Interconnect, que oferece uma rede de alto desempenho baseada em Ethernet adequada para cargas de trabalho exascale. Projetada para uma implementação rápida, a solução é direcionada a centros de pesquisa e grandes empresas, prometendo acelerar o treino em até duas ou três vezes.

A oferta é complementada pelos serviços HPE Complete Care, que proporcionam suporte abrangente desde a configuração inicial, até o ciclo de vida da solução. Ao mesmo tempo, é energeticamente eficiente, recorrendo a arrefecimento líquido direto para melhorias de desempenho até 20% por quilowatt por comparação a soluções de refrigeração por ar, e consumindo menos 15%.

Essa solução resulta de uma colaboração estratégica com a NVIDIA, visando fornecer desempenho dedicado para impulsionar iniciativas de IA generativa. Tudo somado, a HPE oferece uma solução completa, desde software avançado até hardware de ponta, para acelerar o treino de modelos de IA generativa e atender às demandas crescentes dessas cargas de trabalho intensivas em dados.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui