Опубликовано 21 января 2024, 13:30
1 мин.

В США создали «отраву» для моделей ИИ, которых незаконно обучают на изображениях

Чтобы бороться с недобросовестными разработчиками
Специалисты Чикагского университета выпустили Nightshade 1.0 — инструмент, предназначенный для наказания недобросовестных создателей моделей машинного обучения, которые обучают свои системы на данных, предварительно не получив разрешения.
В США создали «отраву» для моделей ИИ, которых незаконно обучают на изображениях

© Ferra.ru

Nightshade — «наступательный инструмент» для защиты изображений от несанкционированного использования. Технология называется Glaze и минимизирует видимые изменения исходного изображения. Ещё разработчики называют своё детище «отравой», «паслёном» — для обмана ИИ.

«Nightshade вычисляется как многоцелевая оптимизация, которая минимизирует видимые изменения исходного изображения. Например, человеческий глаз может увидеть затенённое изображение коровы на зелёном поле практически без изменений, но модель ИИ может увидеть большой кожаный кошелек, лежащий в траве», — рассказал один из руководителей проекта.

Специфика технологии заключается в выборе ярлыка, который описывает то, что на самом деле изображено, чтобы размыть границы этого понятия, когда изображение попадает в модель для обучения.