Група експертів з різних областей, включаючи IT-фахівців, опублікувала публічний лист із закликом призупинити експерименти із системами штучного інтелекту. Лист складено від імені некомерційної організації Future of Life Institute. У ньому наголошується, що зараз дослідники залучені до неконтрольованих перегонів систем штучного інтелекту, передбачити результати яких не можуть навіть творці таких систем.
Існуючі системи вже є конкурентними у вирішенні широкого спектра завдань, але вони можуть застосовуватися для маніпуляції суспільством. Розвиток ШІ порушує питання про глибинні ризики для всього людства. Чи повинні ми впроваджувати повну автоматизацію, перекладаючи всі завдання ШІ? Чи повинні ми забезпечити рівень розвитку ШІ вище за людський інтелект? Чи не веде це до ризиків втрати контролю над власною цивілізацією?
Автори листа закликають призупинити розробку систем ШІ потужніших за GPT-4 як мінімум на 6 місяців, щоб оцінити потенційні ризики. У разі потреби контролю треба залучити урядові органи. Дослідники повинні використовувати цю паузу для спільної розробки та впровадження загальних протоколів безпеки. Системи ШІ мають стати більш прозорими, зрозумілими та лояльними. Автори закликають дослідників співпрацювати з політиками для вироблення механізмів контролю високопродуктивних систем ШІ.
Серед підписантів Ілон Маск, співзасновник Apple Стів Возняк, співзасновник Skype Яан Таллінн, політики, історики та інші діячі. При цьому в списку навіть помічено генерального директора компанії OpenAI Сема Альтмана, що наштовхує на думку про сумнівність всього списку осіб. Журналісти The Verge припускають, що деяких персон додали заради жарту.
Варто зазначити, що низка експертів вже висловлювала побоювання щодо бурхливого зростання ШІ , у тому числі у сфері подачі інформації та в галузі кібербезпеки. Також днями опубліковано доповідь Goldman Sachs, в якій прогнозується, що 300 мільйонів людей у найближчому майбутньому можуть втратити роботу через автоматизацію процесів за допомогою ШІ .