Дифференциальная приватность меняет математику обучения нейросетей
Differential privacy в deep learning, это не просто протокол для защиты данных, а фундаментальное ограничение, которое меняет саму математику обучения. Гарантия приватности вводит шум, который не исчезает с ростом выборки, создавая принципиальный предел точности модели. В этом анализе сходимости мы увидим, как приватность перестаёт быть «надстройкой» и становится частью уравнения оптимизации, определяя, что вообще можно … Читать далее