В Google изложили план разработки безопасного ИИ человеческого уровня
© Ferra.ru
Но вместе с этой мощной технологией приходит и серьезная ответственность. DeepMind опубликовала новый документ, в котором описала, как она работает над обеспечением безопасности и надежности разработки AGI.
Они сосредоточены на предотвращении четырех ключевых рисков:
-
Неправильное использование — когда люди используют ИИ для нанесения вреда, например, для распространения ложной информации или организации кибератак.
-
Несоответствие — когда ИИ не следует целям человека должным образом, например, использует неэтичные короткие пути для решения задач.
-
Аварии — неожиданные проблемы, возникающие из-за поведения ИИ.
-
Структурные риски — более широкие опасности системного уровня.
Чтобы снизить эти риски, DeepMind тестирует свои самые передовые модели ИИ на предмет опасного поведения, разрабатывает более надежные инструменты безопасности и новые методы, позволяющие сделать решения ИИ более понятными. Для руководства своей работой компания также создала советы и партнерства с исследователями, правительствами и некоммерческими организациями.