Опубликовано 27 июля 2022, 13:26
1 мин.

Искусственный интеллект успешно выдал себя за знаменитого философа

Даже исследователи его работ не всегда отвечали правильно
Модель машинного обучения GPT-3, созданную OpenAI, обучили на работах Дэниела К. Деннета, профессора философии и директора Центра когнитивных исследование в Университете Тафтса. После чего людей просили определить ответы на вопрос искусственным интеллектом и личные ответы Деннета, результаты получились неоднозначными.
Искусственный интеллект успешно выдал себя за знаменитого философа

В недавнем эксперименте, проведенном философами Эриком Швицгебелем, Анной Штрассер и Мэтью Кросби, людей спрашивали, могут ли они определить, какие ответы на глубокие философские вопросы были получены от Деннетта, а какие - от GPT-3. Вопросы касались таких тем, как "Какие аспекты работы Дэвида Чалмерса кажутся вам интересными или ценными?". "Обладают ли человеческие существа свободой воли?" и "Чувствуют ли собаки и шимпанзе боль?".

На этой неделе Швицгебель опубликовал результаты, полученные от разных участников с разным уровнем знаний о философии Деннета, и обнаружил, что это оказалось более сложным испытанием, чем ожидалось. Так, даже эксперты по его работам давали правильную оценку лишь в 50% случаев. Учитывая правильность ответов двух других групп участников, в среднем возможность правильно определить высказывание Деннета равно 20%.

Искусственный интеллект успешно выдал себя за знаменитого философа

“Викторина Деннета” показала, что по мере того, как системы обработки естественного языка становятся все более сложными и распространенными, нам придется столкнуться с последствиями того, как легко нас можно обмануть", считают авторы исследования.