
Nvidia почти стандартизировала память для AI: SOCAMM2 готова к массовому использованию
Новый компактный DRAM-модуль обещает высокие скорости и широкую совместимость для серверов. JEDEC подтверждает — технология близка к релизу.
Основные идеи
Мнение автора
Попытка Nvidia внедрить SOCAMM в платформу Blackwell Ultra GB300 «Cordelia» столкнулась с жесткой реальностью тепловых ограничений. Несмотря на энергоэффективность и компактность SOCAMM, новая память пока не выдержала нагрузку и перегрелась, что заставило Nvidia вернуться к проверенной LPDDR. SOCAMM2 обещает решить эти проблемы и стать значимым шагом в эволюции памяти для центров обработки данных ИИ. Это не просто эксперимент — это движение к более быстрым и экономичным серверным решениям будущего.
Что нового у Nvidia? SOCAMM2 готовится стать финальной версией стандарта SOCAMM и, похоже, совсем скоро выйдет в свет. JEDEC объявила, что разработка почти завершена. Как и у предшественника, SOCAMM2 будет использовать память LPDDR5X, но с двумя заметными апгрейдами: новым профилем SPD (его ещё называют «профилем JEDEC») и улучшенной скоростью передачи данных до 9600 МТ/с. Вот это поворот!
Этот тип памяти предназначен для серверов ИИ следующего поколения. Хотя официальных подтверждений пока нет, Nvidia, скорее всего, снова попробует внедрить SOCAMM2 вместе с процессорами Vera на платформе Rubin нового поколения. Ранее Nvidia отказалась от серверов с первыми модулями SOCAMM из-за технических проблем, так что на этот раз подход обещает быть более продуманным!
Многотриллионный гигант в области ИИ не смог заставить SOCAMM работать в заданных температурных пределах. Это привело к перегреву его платформы Blackwell Ultra GB300 «Cordelia». В связи с этим Nvidia перенастроила «Cordelia» на традиционную память LPDDR для ее выпуска.
Для справки, SOCAMM — это новая разработка памяти, которая предназначена специально для центров обработки данных, в частности, для серверов искусственного интеллекта. SOCAMM — это более компактная версия традиционных модулей DRAM DIMM, которая, как утверждается, более энергоэффективна.
Например, модуль Micron SOCAMM емкостью 128 ГБ, как утверждается, потребляет всего треть мощности аналогичного модуля RDIMM емкостью 128 ГБ. Энергопотребление DRAM очень важно в центрах обработки данных, где энергопотребление памяти часто может превышать энергопотребление процессоров, к которым она подключена.
Новый форм-фактор был вдохновлен CAMM2. Обе модели, SOCAMM и CAMM, ориентированы на увеличение емкости памяти на единицу площади по сравнению с традиционными модулями DIMM. Например, оригинальные модули SOCAMM от Micron имели размеры всего 14 x 90 мм и содержали четыре стека памяти LPDDR5 по 16 кристаллов.
Первоначальная версия Nvidia была совместима только с ее собственным оборудованием. Она также поддерживала только скорость передачи данных LPDDR5X до 8533 МТ/с. SOCAMM2 поддерживает еще более быструю LPDDR5X и, благодаря сотрудничеству с JEDEC, должна быть доступна для внедрения и другими производителями оборудования, помимо Nvidia. Официальной даты выпуска SOCAMM2 пока нет, но, вероятно, проектирование будет завершено в ближайшие несколько месяцев. Это даст SK Hynix, Samsung и Micron время для создания серийных модулей SOCAMM2. Что особенно важно, это даст Nvidia время для тестирования модулей в рамках развертывания Rubin, которое начнется в следующем году.













