ИИ уже знает ваши секреты — конфиденциальность под угрозой?

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
32.875
Репутация
12.740
Реакции
64.548
RUB
150
Искусственный интеллект в 2025 году стал уже не чем-то фантастическим, а вполне обычным инструментом в жизни и бизнесе.

Однако вместе с удобством и эффективностью встаёт вопрос: а безопасны ли наши личные данные, которые мы доверяем нейросетям?

В Нидерландах регулятор по защите данных оштрафовал на 30,5 млн евро американскую компанию Clearview AI, которая, как утверждается, собрала незаконную базу данных с миллиардами фотографий людей. Власти Италии обнаружили возможную утечку данных пользователей GPT и даже временно заблокировали сервис.
Сравним, как популярные модели защищают ваши данные или данные ваших доверителей (работодателей), если вы юрист или адвокат.

сгенерировано GPT-4o

сгенерировано GPT-4o

GPT

OpenAI, известная моделью GPT, занимает лидирующие позиции на рынке ИИ. У корпоративных версий (API, Enterprise, Pro) всё строго: данные клиентов не используются по умолчанию. Ведь в случае утечки компании точно уйдут к конкурентам.

Как следует из политики конфиденциальности OpenAI, в бесплатной версии и подписке Plus компания собирает «Контент» и может использовать его для обучения, если не отключить опцию «Improve the model for everyone». Второй вариант защиты — работать только через временный чат.
OpenAI также заявляет, что личные данные пользователей в любом случае «анонимизируются».

Gemini

С Gemini схожая ситуация. В бесплатной версии Gemini данные используются для обучения, если не запретить сохранение активности. В платной версии данные не собирают по умолчанию. Корпоративный режим не передаёт информацию общедоступной модели.

Grok (от xAI) и Claude (от Anthropic)

В корпоративных и API-версиях всё точно так же.
В индивидуальных версиях Anthropic использует данные пользователей для обучения моделей только при явном согласии, например, при предоставлении обратной связи. В отличие от этого, xAI использует данные пользователей Grok по умолчанию, но с возможностью отказа.

DeepSeek

В отличие от других моделей, DeepSeek не предоставляет явной и легкодоступной опции для обычных пользователей веб-интерфейса отказаться от использования их данных для обучения моделей.

Это довольно важный стоп-фактор, принимая во внимание недавние скандалы, связанные с уязвимостями модели. В январе 2025 года была обнаружена публично доступная база данных DeepSeek, содержащая более миллиона записей, включая историю чатов, API-ключи и другие чувствительные данные.
Кроме того, данные пользователей хранятся на серверах в КНР, что сопряжено с юридическими рисками потенциального доступа к ним со стороны государственных органов. Это может обязывать ИИ-гиганта предоставлять доступ к данным государственным органам.

Загружать в эту модель персональные данные, ноу-хау или конфиденциальные данные доверителей категорически не рекомендуется.

Риски трансграничной передачи персональных данных

А будет ли являться нарушением российского закона загрузка в чат с ИИ документов с персональными данными физических лиц?
С 1 марта 2023 года в России вступило в силу требование об обязательном уведомлении Роскомнадзора при осуществлении трансграничной передачи персональных данных.

Передача допускается в случае, если государство, на территорию которого отправляются данные, обеспечивает адекватную защиту прав субъектов персональных данных. К числу таких стран относятся государства Европейского союза, Великобритания и некоторые другие. Однако, например, Соединённые Штаты Америки в данный перечень не входят.

С учётом того, что значительная часть серверов, обслуживающих ИИ-системы ChatGPT и Gemini, физически размещена на территории США, передача в такие сервисы документов, содержащих персональные данные, может квалифицироваться как трансграничная передача в страну, не обеспечивающую надлежащую защиту.

В таких случаях российские операторы персональных данных (включая как юридических, так и физлиц) обязаны:

– уведомить Роскомнадзор о предполагаемой трансграничной передаче (и дождаться принятия им решения),
– обеспечить наличие правовых оснований для обработки и передачи персональных данных (например, письменное согласие субъекта ПДн),
– оценить риски и принять меры по защите прав субъектов ПДн.
Ввиду отсутствия США в перечне стран с признанным уровнем защиты, сам по себе факт загрузки документа с персональными данными является нарушением закона о защите персональных данных.

Вывод

Искусственный интеллект — мощный инструмент, но, как мы видим, работа с ним требует осознанности, особенно когда речь идет о конфиденциальной информации. Чтобы минимизировать риски и сохранить контроль над своими данными в 2025 году, стоит придерживаться нескольких простых правил:
  1. Не доверяйте настройкам по умолчанию. Первым делом зайдите в настройки вашей модели и отключите опцию, разрешающую использовать ваши данные для обучения моделей. Не во всех, даже платных подписках, это сделали за вас.
  2. Чувствительное — только в платных версиях. Если вы работаете с действительно важной информацией (коммерческая тайна, адвокатская тайна), предпочтение стоит отдавать платным подпискам (Pro, Advanced, Enterprise) или доступу через API.
  3. Анонимизируйте и псевдонимизируйте. Прежде чем отправлять запрос или документ в ИИ, удалите или замените все личные идентификаторы.
  4. DeepSeek — с особой осторожностью. Учитывая отсутствие простого отказа от обучения, недавнюю утечку и хранение данных в КНР, не используйте DeepSeek для задач, где фигурирует ценная или секретная информация.
  5. Используйте временные чаты. Это хороший вариант для разовых чувствительных запросов.

 
  • Теги
    deepseek gemini gpt grok
  • Назад
    Сверху Снизу