Компания SK Hynix объявила о разработке первых 12-слойных модулей памяти HBM3 емкостью 24 ГБ на стек. Плотность памяти у таких модулей на 50% выше относительно первых HBM3, запущенных в производство в прошлом году. Компания готова поставлять новые микросхемы во втором полугодии. Первые образцы уже предоставлены крупным заказчикам.

SK hynix представила первые модули 12-слойной памяти HBM3 объемом 24 ГБ

Инженеры SK hynix повысили эффективность производственного процесса, применив технологии Advanced Mass Reflow Molded Underfill (MR-MUF) и Through Silicon Via (TSV). Это позволило уменьшить толщину одного чипа DRAM на 40% относительно 8-слойных модулей 16 ГБ.

Модули HBM используется для создания высокопроизводительных чипов, где память расположена на одной положке с вычислительным процессором. С наращиваем мощностей в сегменте высокопроизводительных вычислений HPC и серверных систем растет спрос и на подобные устройства. Самым известным продуктом с HBM3 является ускоритель вычислений Nvidia H100 на основе GPU Hopper, который активно используется для обучения нейросетей. И на фоне бума таких технологий сейчас наблюдается повышенный спрос на данные ускорители.  У графического чипа H100 активно пять из шести стеков HBM3 по 16 ГБ, поэтому общий объем высокоскоростной памяти достигает 80 ГБ. При тех же параметрах, но с новыми модулями, ускоритель мог бы использовать 120 гигабайт памяти. Это дает представление о том, сколько памяти будет у будущих ускорителей Nvidia.

Источник:
Videocardz