Новый метод эффективно защищает конфиденциальные данные обучения ИИ
Конфиденциальность данных имеет свою цену. Существуют методы безопасности, которые защищают конфиденциальные пользовательские данные, такие как адреса клиентов, от злоумышленников, которые могут попытаться извлечь их из моделей ИИ, но они часто делают эти модели менее точными. Недавно исследователи Массачусетского технологического института разработали структуру, основанную на метрике конфиденциальности, называемой PAC Privacy. , который может поддерживать производительность модели ИИ, гарантируя, что конфиденциальные данные, такие как медицинские изображения или финансовые записи, останутся в безопасности от злоумышленников. Теперь они продвинулись в этой работе на шаг дальше, сделав свою технику более вычислительно эффективной, улучшив компромисс между точностью и конфиденциальностью и создав формальный шаблон, который можно использовать для приватизации практически любого алгоритма без необходимости доступа к внутренним механизмам этого алгоритма. Команда использовала новую версию PAC Privacy для приватизации нескольких классических алгоритмов анализа данных. и задач машинного обучения. Они также продемонстрировали, что более «стабильные» алгоритмы легче приватизировать с помощью их метода. Прогнозы стабильного алгоритма остаются последовательными, даже когда его обучающие данные немного изменены. Большая стабильность помогает алгоритму делать более точные прогнозы на ранее невиданных данных. Исследователи утверждают, что возросшая эффективность новой структуры конфиденциа...