Для «отравления» ИИ хватит 0,00 016% от всего обучающего набора данных
Всего 250 документовИсследователи из Anthropic выяснили, что чтобы вывести из строя крупную языковую модель, достаточно всего 250 специально подготовленных документов — это около 0,00 016% от всего обучающего набора данных модели с 13 млрд параметров.