Micron и SK Hynix представили модули SOCAMМ исключительно для AI-серверов Nvidia
ixbt
24.03.2025 14:03
4
На конференции Nvidia GTC 2025 компании Micron и SK Hynix представили SOCAMM — новый форм-фактор модулей памяти, созданный исключительно для систем Nvidia. Решение, получившее название Small Outline Compression Attached Memory Module, призвано повысить производительность и энергоэффективность AI-серверов, работающих на базе платформы Grace Blackwell. В основе технологии лежит стандарт LPDDR5X, а её ключевыми преимуществами стали сниженное энергопотребление, компактные размеры и высокая пропускная способность. ![]() Как заявили в Micron, их модули SOCAMM объёмом 128 ГБ уже готовы к массовому производству. По сравнению с традиционными RDIMM и MRDIMM, новинка демонстрирует более чем 2,5-кратный прирост пропускной способности при трёхкратном сокращении энергозатрат. Модуль размером 14×90 мм также способствует оптимизации компоновки серверов и улучшению управления температурным режимом. «AI меняет парадигму вычислений, и память играет в этом ключевую роль», — отметил Радж Нарасимхан, старший вице-президент Micron. По его словам, разработка SOCAMM позволит ускорить как обучение нейросетей, так и их работу в режиме реального времени. SK Hynix, в свою очередь, анонсировал собственную версию низкопотребляющих модулей SOCAMМ, но не раскрыл их технические характеристики. Компания планирует начать массовое производство «в соответствии с развитием рынка» и позиционирует решение как основу для будущей AI-инфраструктуры. Примечательно, что SOCAMМ несовместим с системами AMD и Intel — технология разработана специально для архитектуры Nvidia. Это подчёркивает фокус компании на создании замкнутой экосистемы для AI-решений. Ожидается, что с ростом спроса на AI-инфраструктуру SOCAMМ станет одним из стандартов в сегменте высокопроизводительных серверов. Средний рейтинг 0 |
Комментарии:Здесь нет комментариев.Здесь пока нет ни одного комментария, вы можете стать первым! |