Опубликовано 26 октября 2023, 18:45
1 мин.

Исследователи «отравили» рисующий картины ИИ

Довольно успешно – картины потеряли в качестве
Исследователи из Чикагского университета разработали «ядовитую пилюлю» под названием «Nightshade» для защиты художников и авторов от использования их работ для обучения моделей искусственного интеллекта без разрешения.
Исследователи «отравили» рисующий картины ИИ

Этот метод отравления данных незаметно изменяет изображения таким образом, что нарушает процесс обучения моделей искусственного интеллекта. Nightshade искажает обучающие данные, внося в изображения небольшие, незаметные изменения. Цель - ввести в заблуждение модели искусственного интеллекта при обучении на этих изображениях. Например, с помощью Nightshade исследователям удалось обмануть модель ИИ, заставив ее генерировать изображения кошек вместо собак.

Использование данных из Интернета в исследованиях ИИ является распространенной практикой, даже если эти данные содержат материалы, защищенные авторским правом, или изображения были использованы без разрешения их создателя. Исследователи признают, что Nightshade может быть использован в злонамеренных целях, но подчеркивают, что их основная задача - защита художников и авторов.

Эта разработка может спровоцировать гонку вооружений между исследователями, работающими над защитой творческих произведений от ИИ, и теми, кто стремится снабдить модели ИИ данными. В то время как крупные компании могут разработать контрмеры для защиты своих моделей, небольшие фирмы и проекты с открытым исходным кодом, обладающие ограниченными ресурсами, могут пострадать несоизмеримо больше.