Опубликовано 01 апреля 2023, 15:43
1 мин.

«Ядерная война — единственная альтернатива уничтожению человечества искусственным интеллектом»: мнение учёного

Возможно, опасность всё-таки преувеличена?
Известный теоретик искусственного интеллекта (ИИ) Элиезер Юдковский написал статью, в которой призвал прекратить разработку таких систем и заявил, что «спасти» человечество от уничтожения может только ядерная война.
«Ядерная война — единственная альтернатива уничтожению человечества искусственным интеллектом»: мнение учёного

© Pixabay

Юдковский также сказал журналистам, что приостановить исследования ИИ недостаточно. Мир, по его мнению, должен быть готов уничтожить кластеры графических процессоров, обучающих такие системы, с помощью авиаударов и угрожать нанести ядерный удар странам, которые не прекратят исследования новой технологии.

Для Юдковского вопрос стоит не в том, уничтожит ли ИИ человечество, а в том, когда это случится. Он считает, что это очевидное событие. Поэтому учёный уверен, что единственный способ остановить создание сильного искусственного интеллекта, не уступающего человеческому или превосходящего его, — это предпринять действия, которые неизбежно вызовут более масштабную войну и приведут к миллионам, а то и миллиардам, смертей.

Юдковский также отметил, что США и Китай являются лидерами в стремлении развивать ИИ. Именно эти страны, по сценарию учёного, с наибольшей вероятностью нанесут авиаудар по центрам обработки данных своего соперника.