МВД РФ рассказало, как защититься от ИИ-розыгрышей и дипфейков
Следуйте советам© Ferra.ru
Хотя такие розыгрыши безобидны, они показывают, как легко нейросети создают дипфейки. Современные алгоритмы подгоняют мимику и голос под текст, поэтому видео выглядит достоверно. Это создает риски, в том числе для распространения фейковых новостей, ложных заявлений публичных лиц или мошеннических предложений.
Чтобы не стать жертвой, МВД рекомендует:
-
Проверять источник видео или фото, особенно если оно пришло из непонятного места.
-
Обращать внимание на мелкие ошибки: неровные контуры лица, дрожащие тени, странные движения губ и глаз, несоответствие звука.
-
Сравнивать контекст и поведение человека с его реальными действиями или публичными заявлениями.
-
Делать поиск изображения через Google или Яндекс.
Также можно использовать сервисы для анализа видео на признаки ИИ-монтажа. Но важно помнить: ни одна технология не гарантирует стопроцентную защиту. Алгоритмы лишь оценивают вероятность подделки, а окончательное решение всегда за человеком.