Новый метод позволяет моделям ИИ забывать личные и защищенные авторским правом данные

Новый метод позволяет моделям ИИ забывать личные и защищенные авторским правом данные

Группа специалистов по информатике из Калифорнийского университета в Риверсайде разработала метод удаления личных и защищенных авторским правом данных из моделей искусственного интеллекта — без необходимости доступа к исходным обучающим данным. Это достижение, подробно изложенное в докладе, представленном в июле на Международной конференции по машинному обучению в Ванкувере (Канада), отвечает на растущую глобальную обеспокоенность по поводу того, что личные и защищенные авторским правом материалы остаются в моделях ИИ на неопределенный срок и, таким образом, доступны пользователям моделей, несмотря на попытки первоначальных создателей удалить или защитить свою информацию с помощью платного доступа и паролей. Исследование также было опубликовано на сервере препринтов arXiv . Инновация UCR заставляет модели ИИ «забывать» выбранную информацию, сохраняя при этом функциональность моделей с оставшимися данными. Это значительное достижение, позволяющее вносить изменения в модели без необходимости их пересоздания на основе объёмных исходных данных для обучения, что требует больших затрат и энергии. Этот подход также позволяет удалять конфиденциальную информацию из моделей ИИ, даже если исходные данные для обучения больше не доступны. «В реальных ситуациях не всегда можно вернуться и получить исходные данные», — сказал Юмит Йигит Башаран, докторант кафедры электротехники и вычислительной техники Калифорнийского университета в Риверсайде и ведущий автор исследования. «Мы создали сертиф...
20:17, 01.09.2025
Источник: android-robot.com  
Рубрика: «Интернет и Игры»   Поделиться: Поделиться новостью в Facebook Поделиться новостью в Twittere Поделиться новостью в VK Поделиться новостью в Pinterest Поделиться новостью в Reddit

Удалить личные данные из Google стало прощеУдалить личные данные из Google стало проще Поисковая система Google стала основным каналом доступа к онлайн-информации, но иногда в р ...

Новое исследование показывает, что модели OpenAI запоминают защищенный авторским правом контентНовое исследование показывает, что модели OpenAI «запоминают» защищенный авторским правом контент Новое исследование подтверждает, что OpenAI, вероятно, использовала защищенный авторским п ...

Новый метод эффективно защищает конфиденциальные данные обучения ИИНовый метод эффективно защищает конфиденциальные данные обучения ИИ Конфиденциальность данных имеет свою цену. Существуют методы безопасности, которые защищаю ...

Математический метод позволяет людям доказать свое местонахождение, не раскрывая егоМатематический метод позволяет людям доказать свое местонахождение, не раскрывая его Данные о местоположении считаются особенно конфиденциальными — их неправильное использован ...

CHASPIK.SPB.RU Поиск в новостях