Опубликовано 21 января 2024, 13:30
1 мин.

В США создали «отраву» для моделей ИИ, которых незаконно обучают на изображениях

Чтобы бороться с недобросовестными разработчиками
Специалисты Чикагского университета выпустили Nightshade 1.0 — инструмент, предназначенный для наказания недобросовестных создателей моделей машинного обучения, которые обучают свои системы на данных, предварительно не получив разрешения.