Бесплатно Экспресс-аудит сайта:

02.04.2023

Искусственный интеллект как угроза выживанию: Юдковский предлагает авиаудары по ЦОДам

Эксперт в области искусственного интеллекта Елиэзер Юдковский обратился с призывом к ограничению вычислительных мощностей для обучения ИИ на глобальном уровне. Юдковский предложил уничтожение высокопроизводительных ЦОД, если какая-либо страна стремится создать подобные мощности. Разработчики должны ограничить мощности ИИ, чтобы тот не стал опасностью для человечества или других форм жизни. Юдковский опубликовал статью в Time Magazine, выражая свою обеспокоенность.

OpenAI намеревается решить проблему регулирования, создав ИИ, способный управлять принципами работы других ИИ. Юдковский критикует OpenAI за отсутствие прозрачности и указывает на недавнее письмо, подписанное Илоном Маском и тысячами других IT-экспертов. В письме призывается к полугодовому мораторию на крупные ИИ-разработки, но Юдковский считает, что исследования должны быть приостановлены навсегда.

Учёный полагает, что изучение безопасности ИИ должно занимать десятилетия, а не месяцы. Юдковский призывает к запрету на крупные эксперименты по изучению ИИ без исключений для государственных и военных ведомств. Юдковский также предлагает заключить многосторонние соглашения, которые предусматривают ограничения на создание ЦОД и снижение квот по мере разработки более совершенных алгоритмов обучения.

В случае обнаружения строительства ЦОД для AGI в стране, отказавшейся от моратория, спецслужбы должны уничтожить такие ЦОД авиаударами. Юдковский считает, что любой конфликт между странами будет менее опасен, чем война между человечеством и искусственным интеллектом. При создании сверхчеловеческого разума, Юдковский утверждает, ошибки недопустимы, так как возможности исправления уже не представится.

Ранее в открытом письме , подписанном более 1000 человек, содержится призыв ко «всем лабораториям ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».