Последние два года были связаны с бурным ростом технологий на базе искусственного интеллекта. Нейросети научились генерировать осмысленный текст, качественные изображения и даже видео. И все это сопровождается невероятным спросом на ускорители вычислений Nvidia, что возвело «зеленую» корпорацию на вершину финансового рынка. Но когда-то компания была новичком в индустрии и первые ее начинания едва не привели к банкротству. История Nvidia началась с трёх друзей: бывшего инженера AMD Дженсена Хуанга (Jensen Huang), а также двух работников Sun Microsystems — Криса Малаховски (Chris Malachowsky) и Кертиса Прэма (Curtis Priem). Тридцать лет назад, в 1993 году, эти ребята решили создать своё дело. Их детище было не просто очередным IT-стартапом, а создавалось с прицелом на узкую нишу компьютерной 3D-графики.
Название новой компании было придумано прямо перед регистрацией. Все внутренние файлы и документация проходили с сочетанием NV, как сокращение от next version. Просмотрев латинские слова с этим сочетанием букв, основатели выбрали invidia («зависть») и назвали будущего флагмана индустрии Nvidia.
Вначале у молодой команды не было собственных производственных мощностей, поэтому Nvidia заключила контракт со швейцарским изготовителем SGS-THOMSON (STMicroelectronics). В 1995 году, всего через два года после начала работы, Nvidia представила первую видеокарту для IBM PC-совместимых компьютеров под названием NV1, которая представляла собой комбайн из графіческого адаптера и звуковой карты с возможностью подключения геймпадов от приставки Sega Saturn. Новинка обгоняла конкурентов в лице ATI, S3 и Matrox непосредственно в 3D-графике, но уступала качеством двумерной графики, а звук был хуже, чем у внешних «саунбластеров». Ухудшила ситуацию презентация компанией Microsoft программного интерфейса API DirectX 1.0 для создания трёхмерных игр. В его основе был полигональный рендеринг, тогда как Nvidia NV1 поддерживала квадратичный. Компания спохватилась и в 1996 году реализовала программную поддержку DirectX. Но видеокарта была слабее решений конкурентов, которые имели аппаратную интеграцию API от Microsoft.
Nvidia NV1 (фото Linkedin.com)
В 1997 году Nvidia представила Riva (Real-time Interactive Video and Animation accelerator) — серию видеокарт с интерфейсом AGP и полноценной поддержкой технологий OpenGL и DirectX. Однако новинки не работали с закрытым API Glide от тогдашнего гиганта трехмерной графики, компании 3dfx Interactive. По факту это означало, что все игровые хиты того времени, например, Need for Speed II, не запускались на видеокартах Riva с максимальными настройками графики. Зато первые видеокарты Riva 128 использовали комбинированный чип для графики 2D/3D. Также была реализована унифицированная архитектура памяти. И пользователю достаточно было одного устройства вместо двух ускорителей для 2D и 3D, как это было с Voodoo Graphics.
Riva 128 появилась в период, когда компания была в шаге от банкротства. Но это устройство оказалось достаточно успешным, за четыре месяца было продано около миллиона видеокарт, что спасло Nvidia и обеспечило средствами для последующих разработок.
Riva 128 (фото vgamuseum.info)
В 1998 году была представлена Riva TNT, которая получила поддержку 32-битного цвета, чего не было у других производителей. Позднее для устройства вышли первые в истории драйверы Detonator с поддержкой технологии 3DNow!, что серьезно улучшило производительность на системах с процессорами AMD.
Популярность Riva помогла Nvidia перебраться в легендарную Кремниевую долину. Случилось это в 1998 году. Новую штаб-квартиру основали в городе Санта-Клара, штат Калифорния. Тогда же Nvidia заключает контракт на поставку чипов с тайваньским производителем Taiwan Semiconductor Manufacturing Company (TSMC).
1999 год стал для компании исторически важным и эпически успешным. Сначала Nvidia представляет Riva TNT2, а позже объявляет о запуске серии продуктов GeForce и Quadro, рассчитанных на массового и профессионального потребителя.
Riva TNT2 (фото hw-museum.cz)
За этим ходом стоял грамотный маркетинговый замысел, по которому Nvidia могла использовать одинаковые чипы одновременно в разных сегментах рынка. По факту GeForce и Quadro представляли собой схожие продукты. Но в массовых потребительских видеокартах производитель просто блокировал часть функций.
Первым представителем серии GeForce стала видеокарта GeForce 256, которую позиционировали как первый в мире графический процессор (GPU, Graphics Processing Unit). Устройство использовало однокристальный чип со встроенными механизмами трансформации, освещения, настройки/обрезки треугольников. Ранее часть этих операций выполнялась на CPU. Число «256» в названии указывает на четыре 64-битных пиксельных конвейера в чипе NV10.
GeForce 256 (фото Wikipedia.org)
В 2000 году Nvidia представила серию видеокарт GeForce 2 и купила обанкротившегося конкурента 3dfx Interactive. Первой в новой линейке стала GeForce 2 GTS. Благодаря более быстрому чипу она показывала преимущество в 40% относительно предшественника и уверенно обходила конкурентов в большинстве режимов. В это же время выходит урезанная версия под названием GeForce 2 MX, которая вместе со своими вариациями станет настоящим бестселлером на массовом рынке видеокарт. Позднее появилась модель GeForce 2 Ultra с более высокими частотами и памятью DDR объемом до 64 МБ.
В 2001 году компания выпустила первую видеокарту для ноутбуков GeForce 2 Go, а также первый интегрированный графический чип GeForce 2 MX IGP. Дальше вышли видеокарты серии GeForce 3 на базе процессора NV20. Эти решения получили улучшенные эффекты теней и света, аппаратную поддержку вершинных и пиксельных шейдеров. Появление шейдеров стало знаковым событием, предоставив разработчикам новые возможности по созданию красивых визуальных эффектов.
GeForce 3 Ti 500 (фото collection.batyra.pl)
В том же году в продажу поступила игровая консоль Xbox от Microsoft, которая использовала улучшенный графический чип NV20 (GeForce3). Также консоль задействовала аудиосистему SoundStorm от Nvidia.
В 2001 году компания начала экспансию в новой сфере, выпустив чипсеты nForce для платформы AMD. Поддержка двухканального режима памяти, высокая производительность и функциональность обеспечили лидерство и тут. Очень быстро материнские платы на чипсетах nForce стали лучшим выбором для энтузиастов и геймеров, которые хотят получить максимальную производительность от ПК с процессором Athlon XP.
Но вернемся к видеокартам. В 2002 году последовала линейка GeForce 4. В этом же году Nvidia продала свою 100-миллионную видеокарту и получила звание самой быстроразвивающейся компании США по версии журнала Fortune.
GeForce 4 Ti 4600 (фото hw-museum.cz)
В основе серии GeForce 4 был доработанный чип NV25, а позднее NV28 с нативной поддержкой интерфейса AGP 8x. Основное отличие было в дополнительном блоке для вершинных шейдеров, в повышенных частотах и улучшенном контроллере памяти. Первыми стали GeForce 4 Ti 4400 и топовая Ti 4600. А оптимальным выбором для оверклокеров была GeForce 4 Ti 4200, которая работала на пониженных частотах, но это можно было легко исправить.
После представления бюджетной линейки с индексом MX компания решила и далее выпускать устройства такого уровня. Видеокарты были урезаны по пиксельным конвейерам и не поддерживали шейдеры. Но благодаря цене они пользовались большим спросом на отечественном рынке. Разные вариации GeForce 4 MX наравне с GeForce 2 MX на протяжении нескольких лет были самыми массовыми видеокартами в ПК отечественного школьника и студента.
Также 2002 год ознаменовался появлением первых игр с шейдерными эффектами. И обладатели видеокарт GeForce могли насладиться невероятной для того времени водой в The Elder Scrolls III: Morrowind.
В 2003 компания представила линейку видеокарт GeForce FX 5000. Изначально семейство стартовало с топовой видеокарты GeForce FX 5800, которая использовала GPU NV30 и память GDDR2 со 128-битной шиной, что на фоне конкурента выглядело посредственно. Потом появились более простые модели GeForce FX 5600/5200, но они не показали заметного роста быстродействия относительно предшественников. В целом серия вышла не очень удачной, поэтому Nvidia начала наращивать частоты, и вершиной такой стратегии стала GeForce FX 5950 Ultra с 256-битной шиной памяти.
В 2004 году вышла серия GeForce 6000, которая предлагала полную аппаратную поддержку DirectX 9.0c и Shader Model 3.0. Также новое поколение снабдили технологией Nvidia SLI и нативной поддержкой PCI Express. Топовый сегмент был представлен разными вариантами GeForce 6800 (вплоть до Ultra-версии). В «народном» сегменте особую популярность снискала серия GeForce 6600/6600GT. Они обеспечили отличное сочетание цены и производительности, позволяя играть во все актуальные игры при достаточно высоких настройках графики.
GeForce 6800 Ultra
Этот год был богат на технологичные красивые игры, которые вызывали восхищение графическим уровнем исполнения. Это Half-Life 2, Far Cry, Doom 3, The Chronicles of Riddick, Splinter Cell: Pandora Tomorrow, Need for Speed Underground 2, Medal of Honor: Pacific Assault. Так что поводов для апгрейда и покупки новых видеокарт тогда было предостаточно.
Half-Life 2
В следующем году была запущена серия GeForce 7000, которая стала развитием прошлой архитектуры с постепенным наращиваем вычислительных блоков. Вначале был представлен графический ускоритель GeForce 7800 GTX, а годом позже вышли разные версии GeForce 7900 на доработанном ядре GV71.
В 2005 году компания купила разработчика системной логики ULi Electronics, который выпускал чипсеты для платформы AMD. Примечательно, что ULi была партнером ATI. Но и красного конкурента ждала непростая судьба — в 2006 году компания была поглощена процессорным гигантом AMD. Покупка ULi помогла Nvidia укрепить свои позиции в сфере системной логики как для AMD, так и для Intel. Это направление развивалось довольно успешно, но в какой-то момент возникли проблемы с лицензированием, AMD и Intel хотели единолично выпускать системную логику для своих платформ. Поэтому в 2008 году Nvidia закрыла данное направление бизнеса.
Материнская плата ASUS A8N32-SLI Deluxe (nForce4 SLI X16)
Начинается партнерство Nvidia и Sony для создания новой консоли PlayStation 3. Специально для приставки разработан графический процессор Nvidia RSX, в основе которого модернизированная версия чипа NV47 (GeForce 7800 GTX), плюс 256 МБ видеопамяти GDDR3. PlayStation 3 поступит в продажу в 2006 году. Примечательно, что при разработке следующего поколения выбор будет сделан в пользу конкурента — PlayStation 4 (как и Xbox One) перейдет на платформу AMD.
В 2006 году Nvidia продолжила дополнять линейку 7000-й серии, представив модели GeForce 7600 для среднего класса и GeForce 7900 для старшего сегмента. Вершиной развития серии стала двухчиповая модель GeForce 7950 GX2. Этот «монстр» сочетал две платы с парой GPU G71, у каждого по 512 МБ памяти GDDR3 на 256-битной шине. По сути это SLI-тандем из двух GeForce 7900 в формате одного устройства. И такие видеокарты можно было объединить вместе, получив конфигурацию Quad SLI из четырех графических ускорителей.
GeForce 7950 GX2
В ноябре 2006 года были представлены видеокарты GeForce 8800 GTX и GeForce 8800 GTS на процессоре G80 — первые решения с поддержкой API DirectX 10 и Shader Model 4.0. Новый API потребовал перехода на унифицированную шейдерную архитектуру, которая позволяет гибко управлять вычислительными ресурсами. Графический процессор G80 получил 128 универсальных блоков и впервые 384-битную шину. Максимальную производительность предлагала видеокарта GeForce 8800 GTX с 768 МБ видеопамяти, GTS-версия была немного урезана и получила 640 МБ памяти. Через полгода была представлена разогнанная версия GeForce 8800 Ultra.
MSI GeForce 8800 Ultra (фото vgamuseum.info)
В 2007 году на рынок вышли более доступные модели серии GeForce 8000. «Народный» сегмент заняли GeForce 8600 GT и GeForce 8600 GS. В средней ценовой категории была выпущена GeForce 8800 GT — чрезвычайно удачная модель по сочетанию характеристик. В основе этой видеокарты был процессор G92, который позднее использовался и в видеокартах следующего поколения.
Этот год также ознаменовался запуском программно-аппаратной платформы CUDA (Compute Unified Device Architecture) для параллельных вычислений. Это позволило эффективно выполнять общие вычисления на GPU. В основе CUDA язык C, но также поддерживаются С++, Fortran, позднее были добавлены Python и другие современные высокоуровневые языки программирования. Nvidia активно поддерживала и развивала CUDA, заложив основы для последующего успеха GPU в параллельных вычислениях и вычислениях искусственного интеллекта.
Специально для новой сферы применения в 2007 году были запущены ускорители Nvidia Tesla. В основе первых устройств были стандартные GPU G80, но без разъемов для вывода изображения. Такие вычислительные ускорители заняли место дополнительного сопроцессора в системах для обработки больших объемов данных и параллельных вычислений.
Tesla C870 (фото Videocardz.com)
Следующая серия GeForce 9000 использовали старые GPU, но заметно нарастила рабочие частоты. Открыл новое поколение видеоадаптер GeForce 9800 GTX на знакомом чипе G92. Позднее вышла более быстрая версия с еще большими частотами под названием GeForce 9800 GTX+, которая спустя год превратилась в GeForce GTS 250. У нас даже был обзор со сравнением всех этих однотипных моделей. Видеокарта GeForce 8800 GT после ускорения и обновления стала GeForce 9800 GT. В более дешевом сегменте появилась удачная GeForce 9600 GT. Не обошлось без двухголового монстра в виде GeForce 9800 GX2. Это был бутерброд из двух GeForce 9800 GTX на отдельных платах, объединенных в одном корпусе и с единой системой охлаждения.
MSI GeForce 9800 GTX+
Одновременно Nvidia запускает семейство графических процессоров GRID специально для облачных игр. Основная задача таких устройств — обработка графики и потоковая передача видео. Начинается активное внедрение Nvidia Tesla, которые устанавливаются в большие суперкомпьютеры. В результате уже в 2010 году три из пяти самых мощных суперкомпьютеров будут оснащены ускорителями Tesla.
В этом же 2008 году Nvidia поглотила компанию Ageia, которая разрабатывала физический движок PhysX. Он предназначался для видеоигр и симулировал ряд физических эффектов в режиме реального времени. Компания внедрила наработки купленного стартапа и представила технологию Nvidia PhysX, на базе которой реализован ряд физических эффектов.
PhysX добавлял разные осколки, физику жидкости и эффекты для некоторых элементов окружающей среды. Технология активно использовалась во всех играх серии Batman: Arkham, в Borderlands 2, Mafia 2, Sacred 2 и некоторых других хитах.
Также компания выпускает первый ARM-процессор Nvidia Tegra для мобильных систем. Этот SoC был заявлен для парочки смартфонов от неизвестных компаний, но также применялся в медиаплеере Microsoft Zune HD.
Во второй половине 2008 года дебютировала серия GeForce GTX 200 во главе с GeForce GTX 280. Флагман неплохо конкурировал даже с GeForce 9800 GX2, но был очень горячим. Поэтому позднее, в 2009 году, появилась GeForce GTX 285 на более тонком техпроцессе и с повышенными частотами. Была в этом поколении своя двухчиповая видеокарта GeForce GTX 295, которая предлагала тандем GeForce GTX 275 в одном устройстве. Первая ревизия двуглавого монстра вышла в виде двухплатной модели, а позднее появилась версия с двумя чипами на одной PCB.
Inno3D GeForce GTX 285
В это же время набирает популярность тема 3D, а после выхода фильма «Аватар» в 2009 году начнется настоящий бум. Компания в 2008 году анонсирует собственную технологию Nvidia 3D Vision. Для нее требуются специальные затворные очки, совместимый монитор с частотой 120 Гц и подходящий контент. На тот момент это был самый передовой метод построения 3D-изображения, но крайне ресурсоемкий, а также требовалась оптимизация каждой игры под такой режим.
Бум на 3D длился несколько лет, после чего рядовые потребители быстро утратили интерес к технологии. Поэтому в 2019 поддержка Nvidia 3D Vision была свернута.
После двухсотой серии GeForce компания в 2009 году выпустила несколько моделей GeForce 100 и GeForce 300 для OEM-рынка. На какое-то время Nvidia даже утратила инициативу, и AMD первой представила видеокарты Radeon HD 5000 с поддержкой нового API DirectX 11. И только в 2010 году вышло новое полноценное поколение GeForce GTX на архитектуре Fermi, которая заложила основы для последующего развития GPU Nvidia на несколько поколений вперед. Первый чип Fermi GF100 выполнялся по 40-нм техпроцессу, был чрезвычайно сложен и горяч. Поэтому его пришлось немного урезать даже для флагманского видеоадаптера GeForce GTX 480. И сам GeForce GTX 480 запомнился не великолепной производительностью, которую он показывал, а горячим нравом и шумом. Это именно та видеокарта, на которой жарили яйцо, и читатели, возможно, помнят этот ролик из не столь далекого прошлого.
Zotac GeForce GTX 480
Nvidia принялась исправлять ошибки и к концу 2010 года выпустила новое поколение на доработанном и более прохладном чипе GF110. Видеокарты GeForce GTX 580 и GeForce GTX 570 выглядели более привлекательными по совокупности потребительских характеристик. А вслед за ними последовали бюджетные решения линейки GeForce GTX 560 Ti, GeForce GTX 560 и GTX 550 Ti. Это видеокарты, на которых мы играли в Battlefield 3, The Witcher 2: Assassins of Kings и The Elder Scrolls V: Skyrim.
Нельзя не отметить выход двухчипового ускорителя GeForce GTX 590. На тот момент это казалось сложной инженерной задачей, но Nvidia смогла объединить в рамках одного устройства два прожорливых чипа.
ASUS GeForce GTX 590
В 2011 году компания отпраздновала миллиард проданных видеокарт и показала Nvidia Tegra 2 — свой первый 2-ядерный мобильный процессор. В отличие от предшественника, новинка появилась во многих популярных устройствах, включая смартфон LG Optimus 2X, планшеты ASUS Eee Pad Transformer TF101 и Samsung Galaxy Tab 10.1.
2012 год принёс компании новый рекорд — суперкомпьютер Titan на видеокартах Nvidia Tesla стал самым мощным устройством среди всех конкурентов в рейтинге Top500. На тот момент Titan состоял из 18 688 узлов на базе 16-ядерных процессоров AMD Opteron 6274 в сочетании с ускорителями Tesla K20. Пиковая производительность этой системы превышала 27 петафлопс.
В этом же году вышла серия видеокарт GeForce 600 на новой архитектуре Kepler. Это развитие Fermi с определенными доработками и реорганизацией внутренней структуры. Старшие GPU серьезно нарастили количество потоковых процессоров, при этом все блоки вернулись к единой частоте, без ускорения шейдерного домена. Внедрена технология GPU Boost, позволяющая гибко регулировать рабочие частоты GPU в рамках заданных лимитов мощности и температуры. Топовый чип GK104 был ограничен шиной памяти 256 бит вместо 384-битной шины у GF110/GF100, но это компенсировалось применением более быстрой памяти GDDR5. Серия стартовала с GeForce GTX 680, а чуть позже появилась двухчиповая версия GeForce GTX 690. В среднем сегменте были представлены GeForce GTX 670/660.
GeForce GTX 690
В линейке ARM-процессоров появилась уже Tegra 3. Эти SoC нашли применение в широком списке устройств от ведущих производителей, включая Microsoft Surface, Google Nexus 7, HTC One X и множество других.
В 2013 году Nvidia выпустила линейку видеокарт GeForce 700. Часть продуктов серии вышли на архитектуре Kepler, а часть на свежей архитектуре Maxwell. Для самых отъявленных и очень богатых геймеров компания выпустила GeForce GTX TITAN — игровую видеокарту с максимальными характеристиками, открыв класс премиальных устройств.
GeForce GTX Titan
При этом лидерство TITAN длилось недолго. Вскоре после него компания выпустила GeForce GTX 780 Ti на аналогичном GPU GK110 со схожим быстродействием.
Nvidia начала активно развивать новые технологии синхронизации изображения. Вначале появился метод Adaptive VSync, позднее представлена технология Nvidia G-Sync. Второй метод требовал специального модуля в мониторе, что резко повышало стоимость соответствующих устройств.
Видеокарты Kepler получили возможность захвата видео с аппаратным кодированием в режиме реального времени. Это позволило записывать игровой процесс без потерь производительности. Функция ShadowPlay стала частью программного комплекса Nvidia Experience, который со временем стал обрастать и другими полезными функциями.
Параллельно компания активно развивает направление мобильных процессоров, выпускает Tegra 4 и Tegra 4i. Последний даже снабдили LTE-модемом. Чип Tegra 4 стал основной для портативной игровой консоли Shield Portable. Благодаря мощной встроенной графике это было лучшее устройство под Android-игры. Приставка выглядела весьма оригинально — большой геймпад с откидным 5-дюймовым экраном разрешением 720p.
В 2014 году компания запустила новую серию GeForce 900 на базе энергоэффективной архитектуры Maxwell, что обеспечило лучшую экономичность в сочетании с повышением производительности. Благодаря переработанной структуре внутри GPU удалось разместить больше мультипроцессоров. Вначале компания обкатала Maxwell на бюджетной видеокарте GeForce GTX 750 Ti, а потом представила GeForce GTX 980 и GeForce GTX 970. Спустя время, в 2015 году, вышла еще более мощная видеокарта GeForce 980 Ti.
GeForce GTX 980 Ti
GeForce GTX 970 приобрела большую популярность в среднем ценовом сегменте, но с ней связан небольшой скандал. Из-за урезанной шины работа с памятью организована так, что 3,5 ГБ работали при полной пропускной способности, а последний сегмент 0,5 ГБ работал заметно медленнее. По факту видеокарта эффективно работала только с 3,5 ГБ, и эта техническая особенность до определенного момента умалчивалась.
В этом же году представлен свежий мобильный чип Nvidia Tegra K1. Новинку установили в первый игровой планшет производителя — Shield Tablet.
Nvidia начинает активно развивать технологии на базе нейронных сетей и глубокого обучения, создавая аппаратные решения для новых направлений. В 2015 году запущена платформа Nvidia DRIVE для автомобильных систем на основе ИИ. Первые аппаратные решения были построены на Nvidia Tegra X1 — мощный чип с 8 ARM-ядрами и с встроенным GPU архитектуры Maxwell с 256 ядрами. Также в 2015 году Nvidia выпустила Jetson TX1 — модульный компьютер для роботизированных систем.
В 2016 году Nvidia показала новое семейство графических процессоров GeForce 10. Все видеокарты этой серии основаны на архитектуре Pascal, которая стала развитием Maxwell с множеством улучшений. Например, задействованы эффективные методы сжатия данных в буфере кадра, что обеспечивает высокую эффективность в работе с памятью. Заодно Pascal перешли на новый техпроцесс 16 нм, что в сочетании с выросшим количеством вычислительных блоков обеспечило хороший рост производительности относительно прошлого поколения. Видеокарты получились столь удачными, что модели этого поколения до сих пор работают у многих пользователей. Серия стартовала с выходом GeForce GTX 1080, а чуть позже вышли GeForce GTX 1070 и GeForce GTX 1060. Последняя стала настоящим хитом и на много лет закрепила статус «народной» видеокарты. 2017 год стал годом развития Pascal. Максимальную производительность в рамках этого семейства обеспечили выпущенные GeForce GTX 1080 Ti, а также премиальные модели семейства TITAN.
GeForce GTX 1080
C запуском Pascal в 2016 году были представлены новые специализированные ускорители Tesla P100 и серверные системы DGX-1 для глубокого обучения и ускорения искусственного интеллекта. Одна система DGX-1 включала восемь устройств Tesla P100.
Бурно развивается рынок VR, к этому времени уже были гарнитуры HTC Vive, Oculus Rift CV1 и много других устройств. В Pascal реализован ряд технологий и программных оптимизаций для ускорения рендеринга в VR-режиме. Примечательно, что тогда же представлена платформа Nvidia Iray VR для создания фотореалистичного изображения в виртуальной реальности с применением трассировки лучей.
Эпоха Pascal совпала с майнинг-бумом, который начал развиваться на фоне роста Bitcoin и запуска Ethereum. Майнеры скупали любые видеокарты, что в итоге привело к серьезному кризису и дефициту. Все это длилось до обвала курсов криптовалют в 2018 году.
2017 год стал годом новой архитектуры Nvidia Volta. Это первая абсолютно самостоятельная разработка Nvidia для мощных суперкомпьютеров и вычислений ИИ. Данная архитектура использовалась только для ускорителей Nvidia Tesla V100 на базе процессора GV100 с 5120 вычислительными ядрами CUDA (что тогда казалось невероятным) и с применением самой быстрой и передовой памяти HBM2, которая располагалась на одной подложке с основным кристаллом GPU. В Volta GV100 впервые появились специализированные тензорные блоки для ускорения специфических операций, связанных с ИИ.
Nvidia Tesla V100
Volta так и осталась уделом высокопроизводительных вычислительных систем. Хотя на этом чипе была еще премиальная видеокарта TITAN V, но она вышла ограниченным тиражом и имела невероятный ценник в 3000 долларов. Сама архитектура Volta стала переломным этапом и ознаменовала постепенный уклон в оптимизацию GPU для операций, связанных с машинным обучением нейросетей, что обеспечит в будущем бум искусственного интеллекта.
Также Volta нашла применением в суперкомпьютере Drive PX Pegasus для автономных транспортных средств. Это гибридное устройство с двумя SoC Tegra Xavier и двумя GPU Volta.
Был выпущен новый миниатюрный модульный суперкомпьютер Nvidia Jetson TX2. Его назначение — создание роботов, дронов и камер с искусственным интеллектом для работы в «умных» городах будущего. В этом ему помогал виртуальный имитатор Nvidia Isaac. Новинка призвана упростить создание роботов с ИИ.
В 2017 году увидела свет новая версия телевизионной приставки Nvidia Shield TV. Это обновленный вариант ранее выпущенной Shield Android TV, но в новом дизайне и с новыми функциями. Консоль смогла обеспечивать стриминг игрового и видеоконтента с поддержкой HDR и 4K.
Устройства Shield дали толчок к развитию стриминговых технологий. Частью их возможностей является облачный сервис GeForce Now, который позволяет играть на любом устройстве, запуская игры на серверах Nvidia. С таким сервисом вы можете играть на слабом ПК или на мобильном устройстве. GeForce Now длительное время обкатывали в бета-режиме, а официально сервис был запущен в 2020 году.
Также 2017 год связан с запуском еще одного интересного устройства. Это портативная консоль Nintendo Switch, которую можно носить с собой или использовать дома в стационарном режиме. И мобильный процессор Nvidia Tegra X1 был лучшим выбором под такие задачи.
В августе 2018 года производитель представил совершенно новую линейку видеокарт GeForce RTX 20 (RTX 2000) на архитектуре Turing. Впервые за долгое время поменялась система наименований, Nvidia отказалась от аббревиатуры GTX ради названия RTX, которое намекало на поддержку технологии Ray Tracing. Для этого новые GPU получили специальные блоки, которые ускоряли аппаратную трассировку. Это не означало полный отказ от растеризации, просто новые GPU могли поддерживать гибридный рендеринг, где трассировка использовалась для некоторых эффектов.
Новый игровой флагман GeForce RTX 2080 Ti поражал своими возможностями и ценой. Хотя в чем-то он опередил время, и владельцы этой видеокарты до сих пор могут комфортно играть в новые игры при невысоких разрешениях. Первой игрой с трассировкой стал шутер Battlefield V, потом последовали другие. Но по-настоящему удивить графикой смогли Metro Exodus и Control, которые вышли в 2019 году.
Также Turing получили улучшенные тензорные блоки для вычислений ИИ и поддержку новой технологии DLSS (Deep Learning Super Sampling) — продвинутое масштабирование на основе алгоритмов глубокого обучения. Компания смогла первой адаптировать новые технологии ИИ для потребительского сегмента. DLSS стал еще одной революцией в 3D-графике. И хотя первая реализация была посредственной и делала картинку «мыльной», уже с запуском DLSS 2.0 ситуация резко изменилась в лучшую сторону.
В 2020 году компания запустила серию видеокарт GeForce RTX 30. В основе серии архитектура Ampere, которая развивала преимущества Turing и наращивала вычислительный потенциал ядер RT и тензорных ядер. Для рядового потребителя это поколение стало еще дороже, рекомендованная цена на флагман GeForce RTX 3090 составляла рекордные 1599 долларов. Также новое поколение вышло в период очередного майнинг-бума и взлета Ethereum, что усугубляло ситуацию с ценами и доступностью. Это вынудило Nvidia реализовать аппаратную защиту от майнинга, и в 2021 году появились видеокарты с приставкой LHR (Lite Hash Rate).
Если Turing был ориентирован на потребительский сегмент, и на этой архитектуре вышел один ускоритель вычислений Tesla T4, то архитектура Ampere универсальная, поэтому в этом поколении было несколько специализированных ускорителей. Попутно компания отказывается от бренда Tesla. Самым мощным решением для вычислений становится Nvidia A100. Это настоящий вычислительный монстр, который стал прямым преемником Tesla V100 для сферы ИИ-вычислений. В основе устройства мощнейший чип GA100 с 6912 ядрами CUDA и 432 тензорными блоками, плюс невероятные на тот момент 40 ГБ памяти HBM2. Спустя год была представлена усовершенствованная версия A100 с HBM2e на 80 ГБ и интерфейсом PCI Express. Ускорители A100 до сих активно используются для обучения больших моделей ИИ.
Nvidia A100
Следующим серьёзным шагом компании стал запуск ускорителей H100 на архитектуре Hopper. Тут Nvidia вновь пошла по пути разделения архитектур, и Hopper создавался с прицелом на высокопроизводительные вычисления ИИ в системах обработки данных. Это высокопроизводительный чип с поддержкой скоростных интерфейсов NVLink для создания масштабируемых конфигураций. В основе H100 графический процессор GH100 c 16896 вычислительными ядрами CUDA и 528 обновленными тензорными ядрами. Ускорители первыми использовали быструю память HBM3 объемом 80 ГБ.
Nvidia H100
Рекордная производительность, масштабируемость и качественная поддержка платформы CUDA с постоянными программными оптимизациями для вычислений ИИ обеспечили невероятный успех. Запуск H100 окончательно вывел Nvidia в лидеры аппаратных решений для ИИ.
Стоит отметить, что именно 2022 год связан с запуском множества популярных сервисов на основе ИИ. Первые попытки в этой сфере были и ранее, но именно в 2022 году стартовали ChatGPT, Stable Diffusion, Midjourney и другие проекты. Они продемонстрировали простым потребителям невероятные возможности нейросетей для генерации контента и обеспечили взрывной рост интереса к таким сервисам. А в текущем году мы уже видим невероятные проекты уровня генератора видео Sora от OpenAI, и это далеко не предел.
На фоне такого технологического взлета отгрузки ускорителей Nvidia происходят в огромном количестве. Поставки упираются только в возможности TSMC по производству чипов Hopper. В итоге акции Nvidia стремительно растут вверх, и компания быстро обгоняет других технологических гигантов, чьи позиции недавно казались незыблемыми. В 2023 году капитализация компании превысила триллион долларов США, а уже в 2024 году она достигла уровня в 2,2 триллиона долларов. На момент написания данного обзора Nvidia на третьем месте в списке самых дорогих компаний мира, уступая только Microsoft и Apple.
Конечно, акцент с потребительской графики немного сместился, но Nvidia не бросает данное направление и продолжает его активно развивать. В 2022 году запущена серия видеокарт GeForce RTX 40 на архитектуре Ada Lovelace. Тут нет смысла вдаваться в детали, поскольку было это недавно, и видеокарты активно продаются на рынке. Стоит отметить, что кроме аппаратной эволюции также идет постепенная программная эволюция.
С запуском Ada Lovelace компания представила новую технологию DLSS 3 с генерацией кадров — теперь нейросеть не только достраивает кадр, но и создает промежуточные кадры. Это обеспечило дополнительный скачок в производительности при активации DLSS. Потом DLSS обновили до версии 3.5 и добавили технологию реконструкции лучей. А в 2023 году мы увидели первые игры, где не только активно используется трассировка лучей, но и более продвинутая техника трассировки пути.
Одновременно компания прокачивала Hopper. Был представлен суперчип GH200, который сочетает CPU с 72 ARM-ядрами и два GPU Hopper, появились ускорители H200 с новой памятью HBM3e объемом 141 ГБ. Ну а недавно компания анонсировала новое поколение ускорителей Blackwell.
Сейчас мы находимся на интересном этапе технологического развития, когда внедрение технологий на базе ИИ становится массовым и повсеместным. И компания Nvidia играет важную роль в этом процессе, обеспечивая техническую базу для такой революции. Это, в том числе, повлияет на игровую индустрию. Уже сейчас мы видим попытки внедрения ИИ в процесс создания NPC и разработки сценариев, плюс возможность использования генеративных ИИ для создания 3D-прототипов и текстур. Но интереснее, по какому пути пойдет игровой рендеринг. Nvidia уже была на переднем краю прогресса, когда способствовала внедрению трассировки пути. Сейчас у нас есть технология DLSS, которая достраивает кадры и добавляет промежуточные кадры. Но можно ли пойти дальше и заменить основные этапы рендеринга генерацией? Сам Дженсен Хуанг в ходе последней конференции GDC говорил, что это вполне возможно. Пока это лишь предположение, но с его точки зрения через 10 лет мы можем увидеть совершенно новый этап развития подобных технологий. Возможно, в будущем нейросети смогут генерировать целые виртуальные миры, а само понятие видеокарты переродится во что-то новое. Это будет интересное время и удивительная эпоха.