Понимание извлечения модели: фундаментальные принципы угрозы
Вопрос защиты от извлечения моделей ИИ часто ограничивается прикладными тактиками: ограничение API, внедрение водяных знаков, добавление ложных ответов. Однако корневая уязвимость может быть глубже — в самой структуре информации, которую модель раскрывает через свои предсказания. С точки зрения теории информации, для многих типов моделей существует граница, определяющая, какое минимальное количество взаимодействий с интерфейсом позволит злоумышленнику … Читать далее