Эксперт предложил способ определить ответственность за ошибки ИИ
Эта проблема является одним из главных препятствий для внедрения технологийС развитием искусственного интеллекта все чаще возникает вопрос, кто несёт ответственность, если алгоритмы ошибаются, и это приводит к серьёзным последствиям. Николай Турубар, директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект», рассказал о том, насколько сложно понять, кто именно виноват, когда ИИ допускает промахи. Он привёл примеры, когда ошибки искусственного интеллекта приводили к трагедиям — от неверных медицинских рекомендаций для онкобольных до самоубийства подростка после общения с чат-ботом.
Эксперт подчеркнул, что ИИ всего лишь алгоритм, у него нет совести и понимания, и он не может нести ответственность. В итоге ответственность ложится на людей, но вот на кого конкретно определить сложно. В некоторых случаях ясно, что вина на тех, кто обучал модель, особенно если данные были неверными или предвзятыми. Например, он вспомнил судебный иск против кредитного бюро Equifax и дискриминационную систему найма от Amazon. Но часто логика решений ИИ скрыта от пользователей и разработчиков, из-за чего правовая система не может разобраться в причинах ошибок.
По мнению Турубара, чтобы справиться с этой проблемой, нужно работать в двух направлениях. С одной стороны, важно развивать технологии объяснимого ИИ, которые смогут раскрывать, почему система приняла то или иное решение. С другой, необходимы чёткие этические правила и сертификация ИИ-систем, как это сделано в авиации или медицине. Он положительно оценил инициативы вроде европейского AI Act и российского Кодекса этики для ИИ, считая их важным шагом к ответственному развитию технологий до тех пор, пока ошибки ИИ не станут опасными и необратимыми.