😊 Можно ли доверять конфиденциальные данные нейросетям и как защищать загруженную в них информацию
Если вы опасаетесь, что ИИ может раскрыть информацию, которую вы в него загрузили, этот пост для вас.
Ярослав Шмулёв, сооснователь и технический директор агентства R77 AI объясняет, почему нейросети не раскрывают информацию, загруженную вами, в ответах другим пользователям, а Анастасия Попова, юрист фирмы Рунетлекс, рассказывает про пользовательские соглашения ИИ-сервисов и как можно защитить свои данные.
Как устроены нейросети/LLM с точки зрения хранения и работы с данными
Начнём с базы. Нейросеть — это комплекс формул и алгоритмов, которые «учатся» на загруженных в неё данных. Знакомые вам ChatGPT, Perplexity или DeepSeek — это сервисы на базе больших языковых моделей (LLM), использующие «обученную» нейросеть. В остальном — это такие же ИT-продукты, как, например, ВКонтакте или Телеграм.
Хранение пользовательских данных — запросов, диалогов, документов, изображений — обеспечивает именно сервис. Эти данные собираются в хранилище (датасете) для обучения нейросети.
Когда вы, например, отправляете информацию в ChatGPT, она попадает в общую базу, на которой нейросеть учится. Текст не запоминается как есть, а анализируется среди множества других данных, после чего нейросеть выделяет закономерности и выдаёт ответ на основе обобщённого знания.
Увидеть точную копию вашей информации в ответах другим пользователям практически невозможно.
Получается, можно загружать всё подряд?
Не совсем. Доступ к загруженным вами данным имеют владельцы и разработчики сервиса. Согласно большинству пользовательских соглашений, вы остаётесь правообладателем своих данных, но сервисы получают права на их хранение, обработку, использование для обучения и распространение.
Это значит, что конкуренты, пусть и косвенно, могут получить доступ к вашим данным, то есть выводам из них.
Кроме того, соглашения некоторых нейросетей — например Яндекс GPT, — позволяют им использовать загруженную вами информацию не только для обучения, но и в коммерческих целях — публиковать её в своих сервисах и рекламных материалах.
Не забудем и про взломы. Хакеры могут получить доступ к серверам и, соответственно, к вашему аккаунту и чату. А не взламываемых серверов не существует. Да, это случается редко, и хакеров редко интересуют данные отдельных пользователей нейросетей, но такой риск есть.
Как защитить свои данные при работе с нейросетями
Общее для всех и если пользуетесь сами:
1. Включайте режим конфиденциальности. Некоторые нейросети, например, ChatGPT, Google Gemini, Perplexity позволяют в настройках отказаться от использования ваших данных для обучения модели. Чат и загруженная информация не сохранятся в истории и не уйдут разработчикам.
2. Используйте корпоративную/локальную версию ИИ, которая работает без выхода в облако.
Если пользуются ваши сотрудники или подрядчики:
1. Изучите пользовательские соглашения сервисов — разделы о правах на загружаемую информацию и обработку данных — и выберите те, которые больше подходит под ваши требования к безопасности. Составьте список, какими нейросетями могут пользоваться ваши сотрудники и подрядчики, а какими нет.
2. Пропишите в политике безопасности и должностных инструкциях/договоре подряда и, что передача конфиденциальной, коммерческой или персональной информации в публичные нейросети без специального на то разрешения запрещена.
3. Проводите регулярное обучение по рискам использования нейросетей, включая вопросы авторского права и конфиденциальности. Это поможет сформировать культуру ответственного использования технологий.
Итого
Не бойтесь, что загруженные вами данные будут скопированы и выданы нейросетью другим пользователям как есть, но всё же лучше не загружать особо чувствительную информацию — например, пароли и коммерческие тайны.
Вы не контролируете данные после того, как они они попали в нейросеть, и такая осторожность необходима не только в работе с ИИ, но и с любыми цифровыми сервисами.
#ИИ #нейросети #конфиденциальность