Опубликовано 29 марта 2023, 19:06
2 мин.

Маск, Возняк и другие исследователи ИИ призвали «немедленно приостановить» обучение нейросетей мощнее GPT-4

Иначе можно доиграться
Некоммерческая организация Future of Life опубликовала коллективное письмо, подписанное главой SpaceX Илоном Маском, соучредителем Apple Стивом Возняком, соучредителем Pinterest Эваном Шарпом, соучредителем Ripple Крисом Ларсеном, генеральным директором Stability AI Эмадом Мостаком, исследователями из DeepMind, Гарварда, Оксфорда и Кембриджа, а также маститыми специалистами в области искусственного интеллекта Йошуа Бенджио и Стюартом Расселом. Всего более 1125 человек.
Маск, Возняк и другие исследователи ИИ призвали «немедленно приостановить» обучение нейросетей мощнее GPT-4

Эксперты призвали «немедленно приостановить» обучение нейросетей мощнее GPT-4, по крайне мере на полгода. В противном случае существует серьёзная опасность для человечества. Подписанты считают, что «мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми».

В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных по отношению к человеку систем искусственного интеллекта, которые могут проявиться в виде экономических и политических потрясений. В целом речь идёт о необходимости как минимум на полгода приостановить обучение систем, которые превосходят языковую модель GPT-4 и работающего на её основе чат-бота ChatGPT. В этот период предлагается, чтобы независимые эксперты выработали, внедрили и проверили общие протоколы безопасности для таких систем.

Специалисты предупредили, что искусственный интеллект, способный полноценно конкурировать с человеком, может представлять собой по-настоящему серьёзную опасность, какой ещё не было. И это подтверждается ведущими лабораториями искусственного интеллекта.

ИИ может не просто изменить общество, но запустит процессы, глубоко изменяющие историю жизни на Земле. Поэтому такие технологии можно разрабатывать, развивать и управлять ими «с соразмерной тщательностью и ресурсами».

«Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают», — отметил один из экспертов, подписавший письмо, почётный профессор Нью-Йоркского университета Гэри Маркус.

Ниже выдержка из письма.

Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных «цифровых умов», которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.

Илон Маск, Стив Возняк и другие эксперты

С полным текстом можно ознакомиться на сайте Хабр.