Опубликовано 01 апреля 2023, 14:09
1 мин.

«Нужно бояться не ИИ, а людей, которые его делают»: эксперты поделились мнением об искусственном интеллекте

Выпущен ответ на призывы приостановить разработку ИИ-систем
Группа известных специалистов по этике искусственного интеллекта (ИИ) написала ответное письмо на предложение приостановить разработку моделей ИИ, таких как GPT-4. Они считают, что такой шаг не имеет смысла и не решает реальных проблем, связанных с использованием ИИ.
«Нужно бояться не ИИ, а людей, которые его делают»: эксперты поделились мнением об искусственном интеллекте

© Unsplash

Ранее тысячи людей, включая Стива Возняка и Илона Маска, подписали открытое письмо, в котором выразили свою обеспокоенность возможными угрозами от неконтролируемого ИИ. Они предложили ввести мораторий на разработку таких систем до тех пор, пока не будут созданы механизмы их регулирования .

Однако специалисты по этике ИИ возразили этому предложению. Они утверждают, что опасность исходит не от гипотетического сильного будущего искусственного интеллекта, а от того, как алгоритмы используются сегодня. Специалисты указывают на такие проблемы, как эксплуатация рабочих, кража данных, концентрация власти в меньшем количестве рук и вред для окружающей среды.

По мнению экспертов, нужно не приостанавливать разработку ИИ, а контролировать её. Они призывают к прозрачности и регулированию со стороны государства и общества. Они также подчеркивают необходимость участия разнообразных групп людей в процессе создания и оценки ИИ.

Вы не должны бояться ИИ. Вы должны бояться людей, которые его строят

Джессика Мэтьюз
основательница Uncharted Power