В Китае нейросети обязали сдавать идеологический экзамен перед релизом
Теперь перед публичным релизом нейросети обязаны пройти идеологическую проверку и ответить примерно на 2000 специальных вопросов. Без этого модель не получит разрешение на работу.
Как пишет The Wall Street Journal, регуляторы требуют, чтобы ИИ отказывался как минимум от 95% запросов на «чувствительные» темы.
В их числе события на площади Тяньаньмэнь, вопросы прав человека, критика партийной власти и любые сюжеты, противоречащие официальной линии. Перечень таких тем регулярно обновляется и обязателен для всех разработчиков.
Контроль касается и обучения моделей. Использовать разрешено только заранее отфильтрованные датасеты: эксперты вручную проверяют тысячи примеров контента и не менее 96% материалов должны быть признаны «безопасными».
Всего выделено 31 категория риска, самая серьезная — информация, способная подорвать государственную власть.