Sony представила эталонный набор данных для оценки этики ИИ
Инструмент FHIBE© Ferra.ru
Набор данных содержит аннотации с информацией о демографических и физических характеристиках, условиях съемки и настройках камеры. Он позволяет выявлять факторы, влияющие на предвзятость моделей, включая пол, прически и этническую принадлежность. Тестирование показало, что некоторые модели хуже распознают людей с определёнными местоимениями и усиливают стереотипы при вопросах о профессии или преступлениях. Особенно это касалось людей с более тёмной кожей и представителей африканской и азиатской этнической группы.
Sony отмечает, что FHIBE демонстрирует возможность этичного и разнообразного сбора данных и предоставляет точные инструменты для анализа причин предвзятости ИИ. Набор уже открыт для общественного использования и будет обновляться со временем. Результаты исследования опубликованы в журнале Nature.