Опубликовано 17 февраля 2024, 21:00
1 мин.

Ученые предложили создать экстренный выключатель для искусственного интеллекта

И нужен ли он вообще
Новый документ Кембриджского университета, поддержанный видными деятелями в области искусственного интеллекта, вызвал дискуссию своим предложением об удаленных «выключателях» и других механизмах контроля для передовых технологий ИИ.
Ученые предложили создать экстренный выключатель для искусственного интеллекта

В документе описывается несколько подходов, которые политики должны рассмотреть при регулировании аппаратных средств ИИ. Некоторые предложения, такие как улучшение видимости и ограничения на продажу ускорителей ИИ, уже реализуются. Например, США отслеживают компании, разрабатывающие мощные модели ИИ, и инфраструктуру, используемую для их обучения. Кроме того, предлагается ужесточить политику «знай своего клиента», чтобы предотвратить несанкционированный доступ к этим технологиям.

Хотя эти меры направлены на предотвращение гонки вооружений ИИ, исследователи предупреждают о возможных негативных сторонах. Введение требований к отчетности может нарушить конфиденциальность пользователей и привести к утечке данных. Торговые ограничения, например, ограничивающие производительность чипов, продаваемых в Китай, также имеют свои недостатки.

Для решения этих проблем в статье предлагается создать глобальный реестр для отслеживания чипов ИИ на протяжении всего их жизненного цикла, даже после экспорта. Этот реестр может включать в себя уникальные идентификаторы каждого чипа для борьбы с контрабандой.

Наиболее спорным предложением, однако, является включение «выключателей», встроенных в сами чипы. Хотя авторы признают риск использования таких переключателей хакерами, они предлагают систему цифрового лицензирования, контролируемую регулирующими органами. Это позволит удаленно отключать чипы, используемые в злонамеренных целях.

Еще одно предложение предполагает требование многократного одобрения рискованных задач по обучению ИИ, аналогично гарантиям на ядерное оружие. Хотя это может предотвратить вредные разработки ИИ, это также может помешать полезным разработкам, а грань между ними может оказаться размытой.

Наконец, в статье предлагается направить ресурсы ИИ на позитивное использование в обществе.