В останні місяці ми спостерігаємо вибухове зростання популярності генеративних нейромереж, особливо чат-бота ChatGPT. Устаткування Nvidia є основним для забезпечення функціонування таких мереж, і зростання навантаження веде до необхідності розширення серверної підтримки.

За даними FierceElectronics, на початку для навчання ChatGPT використовувалося 10 тисяч спеціалізованих прискорювачів NVIDIA. Але після зростання популярності система була перевантажена і не могла забезпечувати потреби великої бази користувачів. Тому було запущено платну передплату ChatGPT Plus за 20 доларів, яка забезпечує пріоритетний доступ. За даними аналітиків, поточна модель штучного інтелекту ChatGPT вже використовує 25 тисяч прискорювачів Nvidia. Нещодавно Microsoft інтегрувала ChatGPT у пошуковик Bing, що, очевидно, також призведе до розширення серверної бази для забезпечення роботи нейромережі.

Google планує інтегрувати у свою пошукову систему аналог ChatGPT. Фахівці вже прикинули, що для розгортання такого ШІ потрібно 512820 серверів Nvidia A100 HGX з 4102568 графічними процесорами A100. Це вимагатиме величезних капіталовкладень на рівні 100 мільярдів доларів. Поки що це теоретичні викладки, але вони дозволяють оцінити потенціал даного сегменту ринку.

Наразі всі високопродуктивні системи глибокого навчання використовують обладнання Nvidia. Багато бібліотек і фреймворків глибокого навчання, наприклад TensorFlow і PyTorch, мають вбудовану підтримку CUDA та оптимізовані для графічних процесорів Nvidia. Тому всі ці перегони у сфері ШІ обіцяють Nvidia рекордні доходи.

Для звичайних користувачів ситуація може виявитися зовсім іншою. Попит у сегменті спеціалізованих прискорювачів скоро перевищить пропозицію. Це може змусити Nvidia збільшити виробництво спеціалізованих прискорювачів на шкоду рішенням для масового ринку. Не виключена ситуація, коли ми знову побачимо дефіцит та завищені ціни на ігрові відеокарти, як це було під час майнінгової лихоманки.

Джерело:
Wccftech