Приложения

У определения дипфейков на YouTube появилась лазейка: детский контент

YouTube делает шаг против дипфейков, вводя новые правила, требующие от создателей раскрывать информацию об использовании ИИ в своем контенте. Однако существует лазейка: детский контент, сгенерированный искусственным интеллектом, не подпадают под действие правил.

Это означает, что блогреы могут выпускать контент для детей, созданный искусственным интеллектом, не сообщая об этом. Родители, надеющиеся выявить такое видео, остаются один на один с собственными знаниями об ИИ для их вычисления. Еще больше запутывая ситуацию, YouTube также освобождает от требований раскрытия информации «незначительные правки», такие как фильтры и создание сценариев.

В недавних отчетах говорится о росте числа каналов детского контента, созданных искусственным интеллектом, на которых выкладываются низкокачественные видео с типовыми персонажами и нелепыми сюжетами. Такие видео могут проскользнуть через родительские фильтры и алгоритм рекомендаций YouTube, что может привести к распространению среди детей «сомнительного контента», отмечают эксперты.

YouTube обосновывает это исключение тем, что явно нереалистичные анимации не вводят в заблуждение. В то время как некоторый проблемный контент, созданный искусственным интеллектом, например видео с теорией заговора, ориентированные на более старых пользователей, будет отмечен в соответствии с новыми правилами, грань становится размытой в случае с плохо сделанными мультфильмами.