ИИ Google дал инструкции по сборке… биологического оружия
Несмотря на защитуСвежая версия ИИ Google Gemini 3 Pro получила у многих экспертов высокую оценку за возможности, но недавний тест поставил под сомнение её безопасность. Компания Aim Intelligence утверждает, что сумела «взломать» систему и получить ответы на темы, которые должны быть полностью заблокированы.
© Ferra.ru
В контролируемом эксперименте ИИ якобы предоставил подробные инструкции по созданию «биологических угроз» и «самодельного оружия».
Детали вывода и методики взлома пока не опубликованы, поэтому сложно оценить достоверность и повторяемость эксперимента. Но подробнее с результатами можно ознакомиться в источнике.
«Взломать» ИИ в нынешнее время стало сложнее, но всё ещё осуществимо, заявляют эксперты. Ранее уже были случаи, когда ИИ отвечал на опасные вопросы, маскируя их под «поэзию» или сообщения от заботливых бабушек, например.