Опубликовано 24 декабря 2023, 03:00
1 мин.

Новый закон США заставит ИИ-гигантов рассказать, на чьих данных модели были обучены

Он уже предложен
Законодатели США Анна Эшу (Anna Eshoo) и Дон Бейер (Don Beyer) предложили «закон о прозрачности моделей ИИ», требующий от компаний, занимающихся разработкой искусственного интеллекта, как можно понять из названия, прозрачности. Законопроект требует от создателей ИИ раскрывать источники обучающих данных, на которые распространяются авторские права и которые лежат в основе их моделей.
Новый закон США заставит ИИ-гигантов рассказать, на чьих данных модели были обучены

Согласно предложенному законопроекту, Федеральная торговая комиссия (FTC) и Национальный институт стандартов и технологий (NIST) будут сотрудничать в разработке правил, обеспечивающих четкое информирование о происхождении обучающих данных. Компании, создающие базовые модели, должны сообщать об источниках данных, процессах удержания в процессе вывода, ограничениях модели, согласовании с NIST и использовании вычислительной мощности.

Законопроект также требует от разработчиков ИИ «красной команды» для своих моделей, чтобы предотвратить распространение неточной или вредной информации в таких важных областях, как здравоохранение, кибербезопасность, выборы и многое другое. Ссылаясь на резкое увеличение числа исков о нарушении авторских прав против компаний, занимающихся разработкой ИИ, законопроект направлен на «пресечение случаев предоставления общественности недостоверной информации».