Специалист в области искусственного интеллекта Елиэзер Юдковский (Eliezer Yudkowsky) призвал ограничить вычислительные мощности для обучения ИИ во всём мире. Более того, он выступил с довольно смелым предложением — уничтожать ЦОД большой производительности, если любая из стран попытается построить такие мощности. Впрочем, сам Юдковский сделал как никто много для ускорения развития «общего искусственного интеллекта» (AGI).
Юдковский является специалистом по «регулированию ИИ» в соответствии с целями и задачами, которые ставят разработчики — для того, чтобы тот не причинил вреда случайно или целенаправленно. Он опубликовал заметку в Time Magazine, в которой отчаянно бьёт тревогу, утверждая, что само существование человечества и даже биологических форм жизни находится под вопросом из-за неконтролируемого развития ИИ — если кому-нибудь удастся построить достаточно производительный ИскИн, способный осознавать себя.
В OpenAI заявили, что планируют решить проблему «регулирования», построив ИИ, который сможет настраивать основополагающие принципы работы других искусственных интеллектов. Юдковский раскритиковал OpenAI за недостаточную прозрачность работ и подчеркнул, что недавнее открытое письмо, подписанное Илоном Маском (Elon Musk) с тысячей других IT-экспертов и призывающее к полугодовому мораторию на крупные ИИ-разработки, не отражает настоящей ситуации, поскольку такие исследования следовало бы прекратить навсегда.
По мнению учёного, изучение безопасности ИИ должно занимать десятилетия, а не месяцы. Учёный призвал запретить крупные эксперименты по изучению ИИ навсегда и везде, без исключений для государственных и военных ведомств. Более того, он предложил заключить многосторонние соглашения, предусматривающие не только ограничения на создание ЦОД с большим числом ускорителей, но и снижение квот по мере того, как будут разрабатываться всё более совершенные алгоритмы обучения.
Если же спецслужбы выяснят, что страна, отказавшаяся от вечного моратория, закупает компоненты и занимается строительством ЦОД для AGI, такие ЦОД следует уничтожать авиаударами, поскольку любой конфликт между странами будет менее пугающим, чем война между человечеством и искусственным интеллектом. По мнению Юдковского, при попытке создания сверхчеловеческого разума ни в коем случае нельзя допускать ошибок — возможности исправить их уже не представится.
Источники: