Искусственный интеллект в 2025 году стал уже не чем-то фантастическим, а вполне обычным инструментом в жизни и бизнесе.
Однако вместе с удобством и эффективностью встаёт вопрос: а безопасны ли наши личные данные, которые мы доверяем нейросетям?
В Нидерландах регулятор по защите данных оштрафовал на 30,5 млн евро американскую компанию Clearview AI, которая, как утверждается, собрала незаконную базу данных с миллиардами фотографий людей. Власти Италии обнаружили возможную утечку данных пользователей GPT и даже временно заблокировали сервис.
Сравним, как популярные модели защищают ваши данные или данные ваших доверителей (работодателей), если вы юрист или адвокат.
сгенерировано GPT-4o
Как следует из политики конфиденциальности OpenAI, в бесплатной версии и подписке Plus компания собирает «Контент» и может использовать его для обучения, если не отключить опцию «Improve the model for everyone». Второй вариант защиты — работать только через временный чат.
OpenAI также заявляет, что личные данные пользователей в любом случае «анонимизируются».
В индивидуальных версиях Anthropic использует данные пользователей для обучения моделей только при явном согласии, например, при предоставлении обратной связи. В отличие от этого, xAI использует данные пользователей Grok по умолчанию, но с возможностью отказа.
Это довольно важный стоп-фактор, принимая во внимание недавние скандалы, связанные с уязвимостями модели. В январе 2025 года была обнаружена публично доступная база данных DeepSeek, содержащая более миллиона записей, включая историю чатов, API-ключи и другие чувствительные данные.
Кроме того, данные пользователей хранятся на серверах в КНР, что сопряжено с юридическими рисками потенциального доступа к ним со стороны государственных органов. Это может обязывать ИИ-гиганта предоставлять доступ к данным государственным органам.
Загружать в эту модель персональные данные, ноу-хау или конфиденциальные данные доверителей категорически не рекомендуется.
С 1 марта 2023 года в России вступило в силу требование об обязательном уведомлении Роскомнадзора при осуществлении трансграничной передачи персональных данных.
Передача допускается в случае, если государство, на территорию которого отправляются данные, обеспечивает адекватную защиту прав субъектов персональных данных. К числу таких стран относятся государства Европейского союза, Великобритания и некоторые другие. Однако, например, Соединённые Штаты Америки в данный перечень не входят.
С учётом того, что значительная часть серверов, обслуживающих ИИ-системы ChatGPT и Gemini, физически размещена на территории США, передача в такие сервисы документов, содержащих персональные данные, может квалифицироваться как трансграничная передача в страну, не обеспечивающую надлежащую защиту.
В таких случаях российские операторы персональных данных (включая как юридических, так и физлиц) обязаны:
– уведомить Роскомнадзор о предполагаемой трансграничной передаче (и дождаться принятия им решения),
– обеспечить наличие правовых оснований для обработки и передачи персональных данных (например, письменное согласие субъекта ПДн),
– оценить риски и принять меры по защите прав субъектов ПДн.
Ввиду отсутствия США в перечне стран с признанным уровнем защиты, сам по себе факт загрузки документа с персональными данными является нарушением закона о защите персональных данных.
Однако вместе с удобством и эффективностью встаёт вопрос: а безопасны ли наши личные данные, которые мы доверяем нейросетям?
В Нидерландах регулятор по защите данных оштрафовал на 30,5 млн евро американскую компанию Clearview AI, которая, как утверждается, собрала незаконную базу данных с миллиардами фотографий людей. Власти Италии обнаружили возможную утечку данных пользователей GPT и даже временно заблокировали сервис.
Сравним, как популярные модели защищают ваши данные или данные ваших доверителей (работодателей), если вы юрист или адвокат.
сгенерировано GPT-4o
GPT
OpenAI, известная моделью GPT, занимает лидирующие позиции на рынке ИИ. У корпоративных версий (API, Enterprise, Pro) всё строго: данные клиентов не используются по умолчанию. Ведь в случае утечки компании точно уйдут к конкурентам.Как следует из политики конфиденциальности OpenAI, в бесплатной версии и подписке Plus компания собирает «Контент» и может использовать его для обучения, если не отключить опцию «Improve the model for everyone». Второй вариант защиты — работать только через временный чат.
OpenAI также заявляет, что личные данные пользователей в любом случае «анонимизируются».
Gemini
С Gemini схожая ситуация. В бесплатной версии Gemini данные используются для обучения, если не запретить сохранение активности. В платной версии данные не собирают по умолчанию. Корпоративный режим не передаёт информацию общедоступной модели.Grok (от xAI) и Claude (от Anthropic)
В корпоративных и API-версиях всё точно так же.В индивидуальных версиях Anthropic использует данные пользователей для обучения моделей только при явном согласии, например, при предоставлении обратной связи. В отличие от этого, xAI использует данные пользователей Grok по умолчанию, но с возможностью отказа.
DeepSeek
В отличие от других моделей, DeepSeek не предоставляет явной и легкодоступной опции для обычных пользователей веб-интерфейса отказаться от использования их данных для обучения моделей.Это довольно важный стоп-фактор, принимая во внимание недавние скандалы, связанные с уязвимостями модели. В январе 2025 года была обнаружена публично доступная база данных DeepSeek, содержащая более миллиона записей, включая историю чатов, API-ключи и другие чувствительные данные.
Кроме того, данные пользователей хранятся на серверах в КНР, что сопряжено с юридическими рисками потенциального доступа к ним со стороны государственных органов. Это может обязывать ИИ-гиганта предоставлять доступ к данным государственным органам.
Загружать в эту модель персональные данные, ноу-хау или конфиденциальные данные доверителей категорически не рекомендуется.
Риски трансграничной передачи персональных данных
А будет ли являться нарушением российского закона загрузка в чат с ИИ документов с персональными данными физических лиц?С 1 марта 2023 года в России вступило в силу требование об обязательном уведомлении Роскомнадзора при осуществлении трансграничной передачи персональных данных.
Передача допускается в случае, если государство, на территорию которого отправляются данные, обеспечивает адекватную защиту прав субъектов персональных данных. К числу таких стран относятся государства Европейского союза, Великобритания и некоторые другие. Однако, например, Соединённые Штаты Америки в данный перечень не входят.
С учётом того, что значительная часть серверов, обслуживающих ИИ-системы ChatGPT и Gemini, физически размещена на территории США, передача в такие сервисы документов, содержащих персональные данные, может квалифицироваться как трансграничная передача в страну, не обеспечивающую надлежащую защиту.
В таких случаях российские операторы персональных данных (включая как юридических, так и физлиц) обязаны:
– уведомить Роскомнадзор о предполагаемой трансграничной передаче (и дождаться принятия им решения),
– обеспечить наличие правовых оснований для обработки и передачи персональных данных (например, письменное согласие субъекта ПДн),
– оценить риски и принять меры по защите прав субъектов ПДн.
Ввиду отсутствия США в перечне стран с признанным уровнем защиты, сам по себе факт загрузки документа с персональными данными является нарушением закона о защите персональных данных.
Вывод
Искусственный интеллект — мощный инструмент, но, как мы видим, работа с ним требует осознанности, особенно когда речь идет о конфиденциальной информации. Чтобы минимизировать риски и сохранить контроль над своими данными в 2025 году, стоит придерживаться нескольких простых правил:- Не доверяйте настройкам по умолчанию. Первым делом зайдите в настройки вашей модели и отключите опцию, разрешающую использовать ваши данные для обучения моделей. Не во всех, даже платных подписках, это сделали за вас.
- Чувствительное — только в платных версиях. Если вы работаете с действительно важной информацией (коммерческая тайна, адвокатская тайна), предпочтение стоит отдавать платным подпискам (Pro, Advanced, Enterprise) или доступу через API.
- Анонимизируйте и псевдонимизируйте. Прежде чем отправлять запрос или документ в ИИ, удалите или замените все личные идентификаторы.
- DeepSeek — с особой осторожностью. Учитывая отсутствие простого отказа от обучения, недавнюю утечку и хранение данных в КНР, не используйте DeepSeek для задач, где фигурирует ценная или секретная информация.
- Используйте временные чаты. Это хороший вариант для разовых чувствительных запросов.
Для просмотра ссылки необходимо нажать
Вход или Регистрация