Компания SK Hynix объявила о разработке первых 12-слойных модулей памяти HBM3 емкостью 24 ГБ на стек. Плотность памяти у таких модулей на 50% выше относительно первых HBM3, запущенных в производство в прошлом году. Компания готова поставлять новые микросхемы во втором полугодии. Первые образцы уже предоставлены крупным заказчикам.
Инженеры SK hynix повысили эффективность производственного процесса, применив технологии Advanced Mass Reflow Molded Underfill (MR-MUF) и Through Silicon Via (TSV). Это позволило уменьшить толщину одного чипа DRAM на 40% относительно 8-слойных модулей 16 ГБ.
Модули HBM используется для создания высокопроизводительных чипов, где память расположена на одной положке с вычислительным процессором. С наращиваем мощностей в сегменте высокопроизводительных вычислений HPC и серверных систем растет спрос и на подобные устройства. Самым известным продуктом с HBM3 является ускоритель вычислений Nvidia H100 на основе GPU Hopper, который активно используется для обучения нейросетей. И на фоне бума таких технологий сейчас наблюдается повышенный спрос на данные ускорители. У графического чипа H100 активно пять из шести стеков HBM3 по 16 ГБ, поэтому общий объем высокоскоростной памяти достигает 80 ГБ. При тех же параметрах, но с новыми модулями, ускоритель мог бы использовать 120 гигабайт памяти. Это дает представление о том, сколько памяти будет у будущих ускорителей Nvidia.
Источник:
Videocardz