Сейчас компания Nvidia является главным выгодополучателем от бума искусственного интеллекта. Компания предлагает самые быстрые ускорители вычислений для этой сферы, продажи постоянно растут, и все аналитики прогнозируют многомиллиардные доходы зеленому гиганту. Но есть специалисты, которые подвергают сомнению такое радужное будущее. И главной проблемой они видят возрастающее энергопотребление мощных графических процессоров, которые используются в вычислительных центрах для ИИ. Актуальные ускорители Nvidia A100 и H100 уже являются энергоёмкими устройствами, а недавно анонсированные Blackwell B200 потребляют до 1000 Вт. Поэтому энергопотребление ЦОД с такими устройствами чрезвычайно высокое, и будет только возрастать.

Аналитики предполагают, что к 2027 году общее энергопотребление ЦОД в мире вырастет с 85 до 134 тераватт-часов, что эквивалентно потреблению таких стран, как Нидерланды, Аргентина или Швеция. И это реальная проблема, которая потребует серьезных изменений в энергетической инфраструктуре. Так, в США уже рассматривают возможность развертывания маломощных атомных станций (малых модульных реакторов) для питания крупных вычислительных центров. Также Илон Маск недавно отмечал, что обеспечение энергией станет одним из сдерживающих факторов для развития ИИ в будущем. И если Nvidia не изменит стратегию по выпуску мощных и горячих GPU, то это действительно станет проблемой, но одновременно откроет окно возможности для конкурентов.

Компании, которые предложат более экономичные и маломощные решения могут получить серьезное конкурентное преимущество в будущем. И некоторые уже ведут такие наработки. Также крупные софтверные компании, включая Microsoft, Meta и другие, ведут разработку собственных узкоспециализированных чипов под свои вычислительные центры и собственные ИИ. Это может нарушить монополию Nvidia и привести к серьезным изменениям на рынке ИИ через несколько лет.

Источник:
Wccftech