В этом году компании AMD наконец-то удалось вывести на рынок графические ускорители Navi, релиз которых изначально был запланирован на 2018-й. Чипмейкер использовал проверенную временем стратегию, начав с релиза среднеуровневых видеокарт Radeon RX 5700 и RX 5700 XT. Новинки проявили себя в качестве достойных соперников младших GeForce RTX, став привлекательной альтернативой для тех, кого не впечатлили эффекты на базе трассировки лучей.

Nvidia тоже не сидела сложа руки. На релиз графических адаптеров AMD Navi она ответила выпуском карт GeForce Super, обладающих более привлекательным соотношением цены и производительности, нежели вышедшие ранее модели. Весьма неожиданным стало решение «зелёных» подружить свои видеокарты с технологией VESA Adaptive-Sync, а весной поддержкой DirectX Raytracing обзавелись видеоадаптеры GeForce GTX. Эти и другие темы будут затронуты во второй части материала об итогах уходящего года в мире hardware.

Входной билет в мир трассировки лучей

О планах Nvidia выпустить графический адаптер GeForce RTX 2060 наряду с линейкой мобильных ускорителей GeForce RTX стало известно ещё в прошлом году. Оба анонса состоялись в рамках январской выставки CES 2019, на которой выступил несменный капитан «зелёной» команды Дженсен Хуанг. С рекомендованной ценой в 350 долларов GeForce RTX 2060 стала наиболее доступной видеокартой, поддерживающей набор технологий Nvidia RTX.

Для нового видеоадаптера компания не стала разрабатывать отдельный GPU, решив использовать 12-нм кристалл TU106, уже знакомый по GeForce RTX 2070. Из 2304 физически присутствующих ядер CUDA в новой конфигурации чипа осталось активно лишь 1920 единиц, а число тензорных и RT-ядер сократилось до 240 и 30 штук соответственно.

Более того, «под нож» попала и шина памяти, которая была урезана с 256 до 192 разрядов путём отключения пары 32-битных контроллеров. Видеобуфер представлен шестью гигабайтами GDDR6 с эффективной частотой 14 ГГц, пропускная способность памяти — 336 Гбайт/с.

Как показали независимые тесты, GeForce RTX 2060 по уровню быстродействия соответствует карте GeForce GTX 1070 Ti, а к её главным недостаткам можно отнести наличие 6 Гбайт видеобуфера и достаточно скромную производительность в играх с DirectX Raytracing, которая не позволяет насладиться «лучами» при высоком fps в разрешениях больше Full HD.

Если говорить о линейке ускорителей GeForce RTX для ноутбуков, то она представлена тремя решениями: GeForce RTX 2060, RTX 2070 и RTX 2080. В них используются те же модификации GPU, что и в десктопных аналогах, все отличия от которых сводятся к более скромным рабочим частотам. Благодаря этому номинальное энергопотребление мобильных GeForce RTX оказывается значительно меньше, чем у настольных сородичей. Например, GeForce RTX 2080 Max-Q (частота GPU от 735 до 1095 МГц) потребляет всего 80 Вт, тогда как «аппетиты» настольной версии (от 1515 до 1710 МГц) составляют 215 Вт.

FreeSync в массы!

Ещё в 2014 году организация VESA сделала открытую технологию Adaptive-Sync (AMD FreeSync) частью стандарта DisplayPort, что не мешало Nvidia и дальше продвигать собственную проприетарную разработку G-Sync. Оба подхода имеют одну и ту же задачу — убрать разрывы или подёргивания изображения на экране путём синхронизации частоты обновления монитора с кадровой частотой. Главное отличие технологии Nvidia кроется в специальном аппаратном модуле, который приводит к удорожанию совместимых мониторов.

Поэтому решение «зелёных» наделить свои видеокарты поддержкой VESA Adaptive-Sync, пусть и с некоторыми ограничениями, стало приятным сюрпризом. Начиная с драйвера GeForce 417.71 WHQL упомянутую технологию могут использовать владельцы устройств на базе GPU Pascal (GeForce 10-й серии) и новее.

В характерной для неё манере Nvidia всячески избегает прямого упоминания названий VESA Adaptive-Sync или AMD FreeSync. Вместо них «зелёные» предпочитают использовать термин G-Sync Compatible. Он используется как для обозначения соответствующего режима работы, так и для маркировки дисплеев, прошедших испытания в лаборатории Nvidia. В мониторах с отметкой G-Sync Compatible, как утверждают «зелёные», качество адаптивной синхронизации практически не отстаёт от фирменной G-Sync.

Поддержкой VESA Adaptive-Sync в этом году также обзавелись графические ядра Intel. О планах взять на вооружение эту технологию «синий» гигант объявил ещё в 2015 году, однако воплотить их в жизнь удалось только сейчас. Adaptive-Sync поддерживают видеоядра поколения Gen11, интегрированные в 10-нм процессоры Ice Lake. К сожалению, графика Intel Gen9.5, знакомая, например, по десктопным чипам Coffee Lake-S, этим похвастаться не может.

Первый 7-нм GPU «для игр»

Весьма неожиданным событием CES 2019 стала презентация графической карты Radeon VII, которую AMD с гордостью называет «первым в мире 7-нм игровым GPU». В основе новинки лежит 7-нм ядро Vega 20 с 3840 потоковыми процессорами, а её видеобуфер представлен четырьмя микросхемами HBM2 c пропускной способностью 1 Тбайт/с и суммарным объёмом 16 Гбайт. На первый взгляд Radeon VII выглядела как видеокарта с огромным заделом на будущее, но в реальности всё оказалось не столь радужно.

Судьба AMD Radeon VII была предрешена ещё до её анонса. Она является последним проектом Майка Рейфилда (Mike Rayfield), экс-руководителя Radeon Technologies Group. Данный пост он занимал менее года и запомнился бывшим коллегам нерациональными шагами развития бизнеса.

Грубо говоря, Radeon VII представляет собой профессиональный ускоритель Radeon Instinct MI50, адаптированный под геймерские нужды. Изначально компания AMD не планировала использовать 7-нм GPU Vega 20 в потребительских картах из-за его дороговизны.

Только микросхемы HBM2 обходятся «красным» примерно в $320, то есть почти в половину рекомендованной цены Radeon VII ($700). Как показали испытания, она является соперником видеокарт Nvidia GeForce RTX 2080 и GeForce GTX 1080 Ti. Последняя, напоминаем, вышла на два года раньше с такой же рекомендованной стоимостью.

Релиз адаптеров Radeon RX 5700 с архитектурой RDNA фактически поставил крест на Radeon VII. В частности, старший Radeon RX 5700 XT во многих играх демонстрирует аналогичное быстродействие, но при этом доступен за рубежом по цене от 399 долларов. Как говорится, зачем платить больше?

7-нм видеоядра AMD Vega 20 также нашли применение в ускорителях Radeon Pro Vega II из состава рабочей станции Apple Mac Pro 2019. Особый интерес вызывает «двухголовая» модификация Radeon Pro Vega II Duo. В её арсенале состоят 2x 4096 потоковых процессоров и 2x 32 ГБ видеопамяти HBM2, а для связи отдельных GPU используется шина Infinity Fabric. Грубая вычислительная мощность в операциях одинарной точности составляет 28,3 Тфлопс.

Устройства имеют проприетарный форм-фактор MPX Module, что отражается не только в непривычной компоновке печатной платы, но и в дизайне кулера. Система охлаждения видеоадаптеров представлена массивным радиатором, за обдув которого отвечают вентиляторы во фронтальной части Mac Pro.

«Просто безумие»

В первом полугодии архитектура Nvidia Turing добралась до карт GeForce GTX 16-й серии. Для них чипмейкер подготовил 12-нм графические процессоры TU116 и TU117, лишённые блоков, отвечающих за интеллектуальное сглаживание DLSS и аппаратное ускорение трассировки лучей. Это позволило уменьшить площадь кристалла GPU и сделать конечный продукт доступнее для рядового потребителя.

Схема графического процессора Nvidia TU116

Первенцем серии GeForce GTX 16 стала видеокарта GeForce GTX 1660 Ti, базирующаяся на полноценном чипе TU116. Она оперирует 1536 ядрами CUDA, 192-битным интерфейсом памяти и шестью гигабайтами GDDR6. Вслед за ней дебютировала GeForce GTX 1660, у которой число потоковых процессоров сократилось до 1408 единиц, а вместо GDDR6 используются менее скоростные микросхемы GDDR5 при той же 192-разрядной шине.

Наконец, в апреле свет увидела GeForce GTX 1650, созданная на базе кристалла Nvidia TU117. Она довольствуется 896 ядрами CUDA, 128-битной шиной и четырьмя гигабайтами памяти GDDR5. Её главной «фишкой» является невысокое энергопотребление (около 68 Вт), а значит она может обойтись без разъёма дополнительного питания.

Вскоре после релиза GeForce GTX 1660 в «зелёной» команде решили наделить поддержкой DirectX Raytracing (DXR) все более-менее актуальные 3D-ускорители GeForce GTX. Благодаря данному шагу возможность лично оценить красоту эффектов на базе трассировки лучей появилась у владельцев карт Nvidia Pascal и Turing с шестью гигабайтами памяти.

Разумеется, без специальных блоков, отвечающих за аппаратное ускорение трассировки лучей, быстродействие таких адаптеров оставляет желать лучшего. К примеру, GeForce GTX 1080 Ti при активации DXR оказывается не в силах обеспечить кадровую частоту уровня GeForce RTX 2060, самой доступной видеокарты с RT-ядрами.

Navi, где тебя носило?

В середине лета Advanced Micro Devices вывела на рынок первые видеокарты семейства Navi: Radeon RX 5700 и Radeon RX 5700 XT. В них компания применила графическую архитектуру Radeon DNA, которая хоть и является правопреемницей старой доброй Graphics Core Next, но при этом создавалась с прицелом на 3D-рендеринг, а не на расчёты общего назначения. Для сегмента GPGPU у компании есть графические ядра Vega, замечательно справляющиеся с ролью «числодробилок». Для справки, вычислительная мощность ускорителя Radeon Instinct MI60 на 7-нм GPU Vega 20 составляет до 14,7 Тфлопс в операциях FP32.

Архитектура Radeon DNA отличается гибкой масштабируемостью, благодаря чему она найдёт применение не только в дискретных GPU, но и видеоядрах будущих игровых консолей Sony и Microsoft, гибридных процессорах AMD Ryzen и даже мобильных SoC Samsung. Первенцем RDNA стал 7-нанометрвый чип Navi 10, послуживший основой вышеупомянутых карт Radeon RX 5700-й серии. Физически он включает 2560 потоковых процессоров, 160 текстурных блоков, 64 блока рендеринга и сообщается с видеобуфером посредством 256-битной шины.

С выпуском Radeon RX 5700 для компании AMD началась эра GDDR6-памяти. Кроме того, они являются первыми потребительскими видеокартами с интерфейсом PCI Express 4.0 x16. Правда, для раскрытия потенциала им хватает и старого доброго PCI-E 3.0 x16.

Дебютировавшие летом ускорители AMD Navi 10 проявили себя в качестве уверенных соперников GeForce RTX 2070 и RTX 2060 и даже подтолкнули Nvidia к выпуску Super-версий этих видеокарт. Radeon RX 5700 и Radeon RX 5700 XT можно смело рекомендовать геймерам, которые играют в разрешении 1440p и скептически относятся к набору технологий Nvidia RTX. Ценителями тишины и любителям оверклокинга следует воздержаться от покупки референсных моделей, оборудованных шумной «турбиной».

Забавный факт: изначально Radeon RX 5700 XT называлась Radeon RX 690. Это вскрылось на презентации юбилейной модели Radeon RX 5700 XT 50th Anniversary Edition. В посвящённых ей материалах на вентиляторе красовалась надпись «Radeon RX 690 Limited Edition», что говорит об изменении схемы маркировки в самый последний момент. До сих пор неизвестно, чем именно руководствовалась AMD при смене имени нового продукта.

Суперсемейка

Релиз графических ускорителей AMD Navi не остался без внимания «зелёного» лагеря. На Radeon RX 5700 (XT) команда Дженсена Хуанга ответила выпуском троицы адаптеров GeForce RTX Super, а для эффективной конкуренции с Radeon RX 5500 были созданы GeForce GTX 1660 Super и GTX 1650 Super. От предшественников новые видеокарты отличаются конфигурацией GPU, памяти и лучшим соотношением производительности на доллар.

GeForce RTX 2080 Super обзавелась полнофункциональным чипом Nvidia TU104 с 3072 ядрами CUDA, а также памятью GDDR6 с эффективной частотой 15,5 ГГц. Ну а в модели GeForce RTX 2070 Super используется отбраковка TU104 в конфигурации с 2560 потоковыми процессорами Turing. Рекомендованная стоимость видеокарт при этом осталась на том же уровне, что и у предшественников – 699 и 499 долларов соответственно.

Тем временем GeForce RTX 2060 Super является скорее урезанной GeForce RTX 2070, нежели обновлённой GeForce RTX 2060. Она не только нарастила число ядер CUDA до 2176 единиц, но и обзавелась восемью гигабайтами памяти GDDR6 с 256-разрядной шиной. Благодаря этому в играх новинка обеспечивает почти ту же частоту кадров, что и GeForce RTX 2070, отправленная «на пенсию». GeForce RTX 2060 Super была оценена в $399, на $50 дороже, чем выпущенная ранее GeForce RTX 2060.

Зная о предстоящем релизе недорогих видеокарт серии Radeon RX 5500 в Nvidia решили нанести превентивный удар, дополнив модельный ряд карт GeForce GTX. В октябре свет увидела GeForce GTX 1660 Super, а спустя месяц на полки магазинов поступила GeForce GTX 1650 Super. Оба устройства получили высокоскоростную память GDDR6 и базируются на 12-нм ядре Nvidia TU116.

В случае GeForce GTX 1660 Super конфигурация GPU полностью унаследована от GeForce GTX 1660, а прирост быстродействия был получен за счёт увеличения пропускной способности памяти. По данному показателю она даже обходит GeForce GTX 1660 Ti : 336 Гбайт/с против 288 Гбайт/с. Как следствие, GeForce GTX 1660 Super отстаёт от неё всего на 5%, но вместе с этим оказывается на $50 дешевле ($229 вместо $279).

ASUS TUF Gaming GeForce GTX 1650 Super OC

Пожалуй, наиболее интересным представителем «суперсемейки» является GeForce GTX 1650 Super. При всего на $10 большей рекомендованной цене эта видеокарта на ~40% обходит GeForce GTX 1650 и является прямым соперником Radeon RX 5500 XT. В ней Nvidia использовала отбракованные кристаллы TU116 с 1280 ядрами CUDA и 128-разрядным интерфейсом памяти, компенсируя узкую шину чипами GDDR6. В ходе испытаний GeForce GTX 1650 Super зарекомендовала себя в качестве оптимальной видеокарты для 1080p-гейминга и претендует на звание по-настоящему «народного» Nvidia Turing.

Radeon RX 5500

Наконец, в декабре AMD вместе с партнёрами вывела на рынок 3D-ускорители Radeon RX 5500 XT, базирующиеся на 7-нм видеоядре Navi 14. Подготовку к его дебюту «красные» начали ещё в октябре, решив испытать силы нового GPU в OEM-сегменте. Благодаря этому сборщики готовых компьютеров получили доступ к видеокарте Radeon RX 5500, а вендоры — дополнительное время на подготовку собственных модификаций Radeon RX 5500 XT.

В графических картах Radeon RX 5500 XT используется урезанная версия кристалла Navi 14 в конфигурации с 1408 потоковыми процессорами RDNA. Видеобуфер представлен четырьмя или восемью гигабайтами памяти GDDR6 со 128-разрядной шиной. К слову, полноценная версия нового GPU используется только в ускорителе Radeon Pro 5500M для лэптопа Apple MacBook Pro 16, однако на нём мы сегодня останавливаться не будем.

Что касается игрового быстродействия, то видеокарты Radeon RX 5500 XT можно назвать энергоэффективной альтернативой адаптеров Radeon RX 580 и RX 590. Неудивительно, ведь последние базируются на разогнанных GPU Polaris, изготавливаемых по менее тонким технологическим нормам. Впрочем, те геймеры, кого не пугает «прожорливость» данных видеокарт, ныне могут приобрести Radeon RX 580/590 по весьма привлекательной цене.

В прямой схватке между GeForce GTX 1650 Super и Radeon RX 5500 XT нельзя чётко выделить победителя: видеокарты демонстрируют схожее быстродействие и оцениваются примерно одинаково. Другими словами, при выборе между ними следует обращать внимание на особенности конкретных моделей, например, систему охлаждения или дизайн печатной платы. В конце концов, всегда можно поддержать гривной более симпатичного вам разработчика GPU.

В завтрашней статье мы постараемся вспомнить наиболее интересные релизы и события последних 12 месяцев из других областей рынка компьютерного «железа».

Обзор главных событий 2019 года. Процессоры и платформы
Обзор главных событий 2019 года. Память, оверклокинг и новые тенденции