Ученые разработали метод защиты от клонирования голоса
Используя искажения/imgs/2024/04/22/18/6443552/5744cf7c8a06ba1fdde1f1fd27fe946fd10a4b04.jpeg)
© Ferra.ru
Проект под названием DeFake, разработанный профессором Нинг Чжаном из Университета Вашингтона в Сент-Луисе, предлагает использовать технологию адверсариального искусственного интеллекта для внедрения невидимых искажений в голосовые записи. Эти искажения делают клонирование голоса более сложным, делая записи неиспользуемыми для мошеннических целей.
Суть DeFake заключается в том, чтобы создать звуковые искажения, которые незаметны для человеческого слуха, но делают запись непригодной для использования искусственным интеллектом. Подобные методы защиты помогают предотвратить злоупотребление чужим голосом и защитить потребителей от мошенничества.
Этот проект дополняет ранее выполненную работу Нинг Чжана по предотвращению несанкционированного синтеза речи.