В Китае вводят новые жесткие правила для генеративного ИИ. Теперь перед публичным релизом нейросети обязаны пройти идеологическую проверку и ответить примерно на 2000 специальных вопросов. Без этого модель не получит разрешение на работу. Как пишет The Wall Street Journal, регуляторы требуют, чтобы ИИ отказывался как минимум от 95% запросов на «чувствительные» темы. В их числе события на площади Тяньаньмэнь, вопросы прав человека, критика партийной власти и любые сюжеты, противоречащие официальной линии. Перечень таких тем регулярно обновляется и обязателен для всех разработчиков. Контроль касается и обучения моделей. Использовать разрешено только заранее отфильтрованные датасеты: эксперты вручную проверяют тысячи примеров контента и не менее 96% материалов должны быть признаны «безопасными». Всего выделено 31 категория риска, самая серьезная — информация, способная подорвать государственную власть.