Можно ли доверять конфиденциальные данные нейросетям и как защищать загруженную в них информацию

Если вы опасаетесь, что ИИ может раскрыть информацию, которую вы в него загрузили, этот материал для вас.

Можно ли доверять конфиденциальные данные нейросетям и как защищать загруженную в них информацию

Ярослав Шмулёв, сооснователь и технический директор агентства R77 AI объясняет, почему нейросети не раскрывают информацию, загруженную вами, в ответах другим пользователям, а Анастасия Попова, юрист фирмы Рунетлекс, рассказывает про пользовательские соглашения ИИ-сервисов и как можно защитить свои данные.

Как устроены нейросети/LLM с точки зрения хранения и работы с данными

Начнём с базы. Нейросеть — это комплекс формул и алгоритмов, которые «учатся» на загруженных в неё данных. Знакомые вам ChatGPT, Perplexity или DeepSeek — это сервисы на базе больших языковых моделей (LLM), использующие «обученную» нейросеть. В остальном — это такие же ИT-продукты, как, например, ВКонтакте или Телеграм.

Хранение пользовательских данных — запросов, диалогов, документов, изображений — обеспечивает именно сервис. Эти данные собираются в хранилище (датасете) для обучения нейросети.

Когда вы, например, отправляете информацию в ChatGPT, она попадает в общую базу, на которой нейросеть учится. Текст не запоминается как есть, а анализируется среди множества других данных, после чего нейросеть выделяет закономерности и выдаёт ответ на основе обобщённого знания.

Увидеть точную копию вашей информации в ответах другим пользователям практически невозможно.

Получается, можно загружать всё подряд?

Не совсем. Доступ к загруженным вами данным имеют владельцы и разработчики сервиса. Согласно большинству пользовательских соглашений, вы остаётесь правообладателем своих данных, но сервисы получают права на их хранение, обработку, использование для обучения и распространение.

Это значит, что конкуренты, пусть и косвенно, могут получить доступ к вашим данным, то есть выводам из них.

Кроме того, соглашения некоторых нейросетей — например Яндекс GPT, — позволяют им использовать загруженную вами информацию не только для обучения, но и в коммерческих целях — публиковать её в своих сервисах и рекламных материалах.

Не забудем и про взломы. Хакеры могут получить доступ к серверам и, соответственно, к вашему аккаунту и чату. А не взламываемых серверов не существует. Да, это случается редко, и хакеров редко интересуют данные отдельных пользователей нейросетей, но такой риск есть.

Как защитить свои данные при работе с нейросетями

Общее для всех и если пользуетесь сами:

1. Включайте режим конфиденциальности. Некоторые нейросети, например, ChatGPT, Google Gemini, Perplexity позволяют в настройках отказаться от использования ваших данных для обучения модели. Чат и загруженная информация не сохранятся в истории и не уйдут разработчикам.

2. Используйте корпоративную/локальную версию ИИ, которая работает без выхода в облако.

Если пользуются ваши сотрудники или подрядчики:

1. Изучите пользовательские соглашения сервисов — разделы о правах на загружаемую информацию и обработку данных — и выберите те, которые больше подходит под ваши требования к безопасности. Составьте список, какими нейросетями могут пользоваться ваши сотрудники и подрядчики, а какими нет.

2. Пропишите в политике безопасности и должностных инструкциях/договоре подряда и, что передача конфиденциальной, коммерческой или персональной информации в публичные нейросети без специального на то разрешения запрещена.

3. Проводите регулярное обучение по рискам использования нейросетей, включая вопросы авторского права и конфиденциальности. Это поможет сформировать культуру ответственного использования технологий.

Итого

Не бойтесь, что загруженные вами данные будут скопированы и выданы нейросетью другим пользователям как есть, но всё же лучше не загружать особо чувствительную информацию — например, пароли и коммерческие тайны.

Вы не контролируете данные после того, как они они попали в нейросеть, и такая осторожность необходима не только в работе с ИИ, но и с любыми цифровыми сервисами.

Если вам нравится то, что мы делаем, подписывайтесь на нас в Телеграме и Вконтакте.

1
Начать дискуссию