Micron , Samsung e SK hynix introduziram seus módulos de memória anexada por compressão de pequeno contorno (SOCAMM) que usam memória LPDDR5X e são voltados para IA e servidores de baixo consumo. SOCAMMs — que serão usados primeiro com servidores baseados nos sistemas GB300 Grace Blackwell Ultra Superchip da Nvidia — são projetados para reunir alta capacidade, alto desempenho, pegada pequena e baixo consumo de energia.
Um SOCAMM mede 14x90mm — um terço de um RDIMM tradicional — e carrega até quatro pilhas de memória LPDDR5X de 16 matrizes. Os módulos SOCAMM iniciais da Micron oferecerão uma capacidade de 128 GB e contarão com os dispositivos de memória LPDDR5X da empresa produzidos em sua tecnologia de processo DRAM 1β (1-beta, 5ª geração classe 10nm). A Micron não divulga as taxas de transferência de dados suportadas por seus sticks SOCAMM iniciais, mas diz que sua memória é classificada para até 9,6 GT/s. Enquanto isso, o SOCAMM da SK hynix demonstrado na GTC 2025 é classificado para até 7,5 GT/s.
A memória consome uma parte considerável do consumo de energia do servidor. Por exemplo, o consumo de energia da DRAM em servidores equipados com terabytes de memória DDR5 por soquete excede o das CPUs. A Nvidia projetou suas CPUs Grace em torno da memória LPDDR5X, que consome menos que a DDR5, mas implementou um amplo barramento de memória (tomando uma página dos processadores de nível de datacenter da AMD e Intel) para oferecer alta largura de banda de memória. No entanto, com máquinas baseadas em GB200 Grace Blackwell, a Nvidia teve que usar pacotes de memória LPDDR5X soldados, pois nenhum módulo de memória LPDDR5X padrão atenderia aos seus requisitos de capacidade.
O SOCAMM da Micron muda isso ao oferecer uma solução modular padrão que pode abrigar quatro pilhas de memória LPDDR5X de 16 matrizes, potencialmente oferecendo uma capacidade bastante impressionante. A Micron diz que seus SOCAMMs de 128 GB consomem um terço da energia consumida por um RDIMM DDR5 de capacidade de 128 GB, o que é um grande negócio. Infelizmente, não está claro se os SOCAMMs da Micron serão um padrão da indústria suportado pela JEDEC ou permanecerão como uma solução proprietária desenvolvida pela Micron, Samsung, SK hynix e Nvidia para servidores executando CPUs Grace e Vera.
Os sticks SOCAMM da Micron já estão em produção em massa, então espere que sistemas baseados no GB300 Grace Blackwell Ultra Superchip da Nvidia usem essa memória. A memória modular simplifica a produção e a manutenção do servidor, o que afetará positivamente os preços desses dispositivos.
"A IA está impulsionando uma mudança de paradigma na computação, e a memória está no centro dessa evolução", disse Raj Narasimhan, vice-presidente sênior e gerente geral da Unidade de Negócios de Computação e Redes da Micron. "As contribuições da Micron para a plataforma Nvidia Grace Blackwell produzem benefícios significativos de desempenho e economia de energia para aplicativos de treinamento e inferência de IA. As soluções de memória HBM e LPDDR ajudam a desbloquear recursos computacionais aprimorados para GPUs."
Fonte: tomshardware
Nenhum comentário:
Postar um comentário