СтуЧат в GPT. Чем грозит лишняя откровенность с чат-ботами и как их создатели собирают о нас информацию
Большие языковые модели собирают всю информацию, которую мы им передаём, и откровенность с чат-ботами может дорого обернуться. Нет таких данных, которые не могли бы выйти за пределы диалога с ChatGPT, DeepSeek, Gemini или другой нейросетью. Простому пользователю достаточно не забывать о цифровой гигиене, а вот у корпораций есть риск потерять очень чувствительную информацию, рассказали эксперты «Секрету фирмы». Почему нейросети вызвали тревогу о безопасности данных В феврале 2025 года в Южной Корее заблокировали чат-бот DeepSeek. Агентство по защите персональных данных заявило, что китайская нейросеть передавала данные пользователей и их запросы третьим сторонам без разрешения. В конце апреля чат-бот разблокировали , а DeepSeek указал, что теперь персональные данные обрабатываются в соответствии с законодательством Кореи. Однако сама история заставила многих задуматься. Звоночек далеко не первый: в 2023 году компания OpenAI сообщала об утечке данных пользователей ChatGPT — некоторые пользователи могли видеть чужие сообщения, имена, фамилии, электронную почту и платёжные данные подписчиков сервиса. В том же году специалисты нескольких университетов Европы и США провели исследование уязвимостей чат-бота ChatGPT. В диалоге ИИ буквально заставили выдать имена, фамилии, номера телефонов, биткоин-адреса, даты дней рождения и даже откровенный контент случайных людей. Это заставляет задумываться о том, насколько вообще безопасным оказывается общение с чат-ботами, которым пользователи,...