Опубликовано 06 января 2024, 12:00
1 мин.

Из ИИ получился ужасный «тестировщик»: программисты негодуют

И что с ним не так
В то время как искусственный интеллект обещает большие возможности для разработки программного обеспечения, появляется и темная сторона: некачественные отчеты об ошибках, созданные им, вызывают головную боль у разработчиков. Кто виноват? Чрезмерное доверие к таким инструментам, как Bard и Copilot.
Из ИИ получился ужасный «тестировщик»: программисты негодуют

Проблема не только теоретическая. Дэниел Стенберг, создатель curl и libcurl, столкнулся с лавиной фиктивных сообщений об уязвимостях, многие из которых были созданы искусственным интеллектом. Эти отчеты, как он считает, тратят драгоценное время разработчиков на поиск несуществующих дефектов.

Один из примеров: отчет, утверждающий, что он предсказывает будущую уязвимость, который Стенберг позже развенчал как «галлюцинацию ИИ», смешивающую реальные и сфабрикованные детали.

Стенберг призывает к осторожности, подчеркивая необходимость человеческого контроля. Хотя ИИ может помочь в поиске ошибок, окончательный выбор всегда должен оставаться за человеком. Даже Феросс Абухадиджех, генеральный директор компании Socket, использующей ИИ для обнаружения уязвимостей в пакетах, подчеркивает, что для уменьшения количества ложных срабатываний очень важны люди.

Спор идет не об искоренении помощи ИИ, а об ответственном использовании. Разработчики должны понимать ограничения этих инструментов и не поддаваться соблазну автоматизации в ущерб точности.

Потраченное впустую время разработчиков, отложенные исправления и подорванное доверие к системе сообщений об уязвимостях — все это может оказаться пагубным.