Опубликовано 10 октября 2021, 21:52
2 мин.

Почему поддельные видео со знаменитостями нужно запрещать

По словам автора, в скором времени отличить подделку от настоящей версии будет невозможно
Российская компания Neuro.net опубликовала в блоге на habr.com перевод статьи Мартина Форда о будущем искусственного интеллекта и в частности дипфейков.
Почему поддельные видео со знаменитостями нужно запрещать

Автор серьёзно опасается, что через год или два уже не только обыватели, но и специалисты не смогут отличить реальную аудиозапись от поддельной. Даже сейчас это возможно сделать только после тщательного анализа. Кроме того, в 2019 году компания Symantec обнаружила случаи обмана сотрудников различных организаций, причём мошенники использовали аудиодипфейки - копии голосов директоров этих компаний. Существуют сейчас и подобные видео, причём довольно качественные. И если пока что эксперты могут определить, поддельное видео перед ними или нет, то что будет дальше - неизвестно.

Почему поддельные видео со знаменитостями нужно запрещать

По мнению Мартина Форда, технологии глубокого обучения, в том числе генеративно-состязательные сети (GAN), могут быть действительно опасны. С помощью них создаются реалистичные картинки, видео, записи голосов людей. Накануне выборов видеоролик с наложенным лицом политика может снизить рейтинг этого кандидата, более того, автор уверен, что реалистичный дипфейк (фото или видео, созданное ИИ с помощью подмены лица одного человека лицом другого) способен даже "изменить ход истории". И если для злоумышленников это просто "находка", то для судебной системы - проблема. Если не будет существовать действительно надёжного средства отличить реальный контент от поддельного, то ничего нельзя будет доказать. Сейчас уже идёт работа над программой, которая поможет решить эту проблему.

В будущем, вероятнее всего, гаджеты будут оснащаться специальными цифровыми подписями (подобная технология есть у стартапа Truepic). Только так можно будет отличить реальные фотографии от "липовых". Кроме того, вполне возможно, что через какое-то время подделка станет как две капли воды похожей на оригинал. Тогда, утверждает автор, возникнет новая реальность, в которой вся информация вокруг может быть иллюзией. И под угрозой могут оказаться социальная структура, общественный порядок, экономика.

Создавая новые ИИ-технологии, продолжает Форд, надо учитывать все возможные риски. Для этого он предлагает придумать какую-либо технологию либо разработать законодательную базу. Но в любом случае, заключает автор, предпринимать меры необходимо сейчас.