Назад к блогу

Как пользоваться ИИ-чатботами и не сливать свои данные

Практические настройки приватности для ChatGPT, Gemini, Claude и Copilot. Что никогда нельзя писать ИИ и как запускать модели локально.

Как пользоваться ИИ-чатботами и не сливать свои данные

Давайте честно - вы наверняка пользуетесь ChatGPT, Gemini или Copilot каждый день. Но вот что никто не читает в пользовательских соглашениях: всё, что вы пишете, могут прочитать живые люди, использовать для обучения моделей или слить при утечке данных. Да-да, по умолчанию большинство ИИ-чатботов спокойно собирают ваши переписки. Давайте это исправим.

Проблема

Вот что происходит, когда вы общаетесь с большинством ИИ: ваши разговоры сохраняются на серверах компании и могут использоваться для обучения будущих моделей. То есть ваши слова буквально могут повлиять на то, что ИИ скажет другим людям. Звучит странновато, правда?

И это не какая-то гипотетическая страшилка. В 2023 году сотрудники Samsung случайно слили конфиденциальный исходный код через ChatGPT. В 2025-м OpenAI подтвердили утечку данных, при которой были раскрыты переписки пользователей. А в начале 2026 года у популярного ИИ-компаньона произошла утечка - более 300 миллионов сообщений попали в сеть, включая очень личные. Ой.

И вот ещё интересный факт: живые модераторы в этих компаниях могут и действительно читают ваши переписки, чтобы улучшить качество ответов. Исследование 2024 года показало, что 77% сотрудников используют ИИ-инструменты на работе и часто вставляют туда конфиденциальные данные компании, не задумываясь. Представьте, если ваш начальник об этом узнает.

Хорошие новости? Каждый крупный ИИ-чатбот позволяет отказаться от сбора данных. Нужно просто знать, где искать.

Защищаем ChatGPT

OpenAI хранит ваши чаты и по умолчанию использует их для обучения. Не круто. Но исправить это можно за минуту - зайдите в настройки ChatGPT, найдите раздел приватности и управления данными, и обратите внимание на следующее:

  • Переключатель обучения модели - найдите опцию, которая контролирует, используются ли ваши переписки для улучшения моделей. Выключите её.
  • Временные чаты - у ChatGPT есть режим, в котором переписки не сохраняются надолго и не используются для обучения. Идеально для всего конфиденциального.
  • Память - ChatGPT может запоминать информацию о вас между разговорами. Удобно, конечно, но немного жутковато. Отключите, если не хотите, чтобы он вёл на вас досье.
  • История чатов - время от времени просматривайте старые переписки и удаляйте ненужные. Чем меньше чатов лежит на их серверах, тем спокойнее вам будет спать.

Имейте в виду: даже с отключенным обучением ваши чаты могут некоторое время храниться для мониторинга безопасности, прежде чем будут удалены.

Защищаем Google Gemini

Google может хранить ваши разговоры с Gemini очень долго по умолчанию, и да - живые модераторы могут их читать. Ваше главное оружие здесь - настройки активности Google. Зайдите в управление активностью вашего аккаунта Google, найдите всё, что связано с Gemini, и отключите. Заодно удалите всю сохранённую активность.

Вот подвох: за пределами Европы логирование активности обычно включено по умолчанию. И даже когда вы его отключаете, Google всё равно может ненадолго просматривать недавние переписки в целях безопасности. Это прописано в их политике, и с этим мало что можно сделать.

Если вы используете Gemini через платный аккаунт Google Workspace, вам повезло больше - ваши данные обычно лучше защищены и по умолчанию не используются для обучения.

Защищаем Claude

Anthropic изначально чуть дружелюбнее к приватности, но кое-что всё же стоит подкрутить. Зайдите в настройки Claude, найдите раздел приватности и переключатель, который контролирует, помогают ли ваши переписки улучшать модель. Выключите его.

Вот почему это важно: при включённом обучении ваши переписки могут храниться годами. При выключенном - срок хранения резко сокращается. Загляните в актуальную политику конфиденциальности Claude, чтобы узнать точные цифры - разница обычно огромная.

Классная деталь - Claude также позволяет отключить передачу геолокации. Некоторые ИИ-чатботы используют ваше приблизительное местоположение для персонализации ответов, и вы, возможно, даже не знали, что это происходит. Если заметите настройку геолокации или персонализации в любом ИИ-инструменте - отключайте. Всё больше чатботов со временем будут добавлять подобные штуки, так что будьте начеку.

Если вы используете Claude через API или платный план с отключённым обучением, ваши данные обычно не используются для улучшения моделей.

Защищаем Microsoft Copilot

Copilot по умолчанию собирает ваши переписки - неудивительно, это же Microsoft. Покопайтесь в настройках Copilot и найдите элементы управления приватностью, особенно всё, что касается обучения модели на ваших текстовых или голосовых данных. Выключите.

Не забудьте также заглянуть в панель конфиденциальности вашего аккаунта Microsoft на account.microsoft.com/privacy. Там можно найти и удалить историю Copilot. По умолчанию Microsoft может хранить эти данные много месяцев.

Используете Copilot через рабочий или корпоративный аккаунт Microsoft 365? Ваши данные обычно обрабатываются в соответствии с политиками вашей организации и не используются для обучения моделей. Вот вам редкий случай, когда корпоративный IT-отдел действительно на вашей стороне.

Что никогда нельзя писать ни в один ИИ

Даже с правильными настройками относитесь ко всему, что вы пишете, так, будто это может оказаться на билборде. Никогда не вставляйте в ИИ-чатбот следующее:

  • Пароли или секретные ключи - даже чтобы спросить «этот пароль надёжный?». Просто не надо.
  • Документы, удостоверяющие личность - номера паспортов, ИНН, данные ID-карт
  • Медицинская информация - диагнозы, рецепты, медицинские записи
  • Финансовые данные - банковские счета, номера кредитных карт, налоговая информация
  • Проприетарный код или коммерческие тайны - конфиденциальные данные вашего работодателя. Не стоит терять работу из-за одного запроса в чатбот.
  • Персональные данные других людей - у вас просто нет права ими делиться

Также следите за разрешениями помимо текста. Некоторые ИИ-чатботы просят доступ к вашей геолокации, контактам или файлам. Просто откажите, если у вас нет действительно веской причины. Чем меньше данных о вас у ИИ-инструмента, тем меньше может утечь.

Простое правило: если вы не стали бы это публиковать на открытом форуме, не вставляйте это в ИИ-чатбот. Утечки случаются, а ваши переписки лежат на чужих серверах.

По-настоящему приватный вариант: локальный ИИ

Если приватность для вас на первом месте, вот идеальный ход - запустите ИИ-модели прямо на своём компьютере. Ничего не уходит за пределы вашей машины. Никаких серверов, никакого логирования, никакого обучения. После загрузки модели можно буквально выдернуть интернет-кабель и продолжать общаться.

Три достойных варианта:

  • Ollama - инструмент для командной строки, лёгкий и быстрый. Если вам комфортно работать с терминалом - это ваш выбор. Поддерживает кучу open-source моделей: Llama, Mistral, Gemma и другие.
  • LM Studio - лучший графический интерфейс на рынке. Скачивайте и запускайте модели в пару кликов, а интерфейс чата напоминает ChatGPT. Работает на Mac, Windows и Linux.
  • GPT4All - самый простой вариант, если хотите быстро начать. Установка в один клик, полностью работает офлайн и с первого дня создавался с упором на приватность.

Все три бесплатны. Честно говоря, качество моделей не совсем дотягивает до облачного ИИ, но для повседневных вопросов, помощи с текстами и кодом они на удивление хороши. А ваши данные? Остаются полностью, на 100% вашими.

Но есть нюанс: понадобится мощное железо. Локальный запуск ИИ - штука требовательная. Нужен достаточно современный компьютер с минимум 16 ГБ оперативной памяти (32 ГБ и больше, если хотите запускать крупные и умные модели). Главное узкое место - видеокарта: выделенный GPU с достаточным объёмом видеопамяти кардинально влияет на скорость. В некоторых новых ноутбуках и чипах есть встроенный NPU (Neural Processing Unit), специально предназначенный для ИИ-задач - он сильно помогает. Но если ваш компьютер еле тянет браузер с десятью вкладками, с локальным ИИ будет тяжко. Начните с маленьких моделей, посмотрите, что ваша машина потянет, и двигайтесь дальше.

Рейтинг приватности

Не все ИИ-чатботы относятся к вашим данным одинаково. Вот наш рейтинг от лучшего к худшему, основанный на поведении по умолчанию, возможностях отказа и сроках хранения данных:

МестоСервисЗаметки по приватности
1Local AIЗолотой стандарт. Ничего не покидает ваш компьютер. Не нужно никому доверять.
2ClaudeКороткие сроки хранения при отключённом обучении. Переключатель геолокации. Платные планы по умолчанию не обучают модель.
3ChatGPTХорошие настройки отказа и режим временного чата. Но по умолчанию обучается, а функция памяти собирает дополнительные данные.
4CopilotНеплохая корпоративная защита, но долгое хранение по умолчанию и глубокая привязка к аккаунту Microsoft.
5GeminiСамые долгие сроки хранения по умолчанию. Ручная проверка даже после отказа. Логирование активности включено по умолчанию за пределами Европы.

Этот рейтинг - наше личное мнение, основанное на публично доступных политиках конфиденциальности на момент написания. В вашем случае всё может быть иначе - зависит от региона, типа аккаунта и того, как вы пользуетесь этими инструментами. Компании постоянно обновляют свои политики, поэтому то, что верно сегодня, может измениться завтра. Разберитесь сами, прежде чем доверять любому сервису свои данные.

Итог

Каждый крупный ИИ-чатбот собирает ваши данные по умолчанию - но каждый из них также позволяет от этого отказаться. Потратьте 5 минут, пройдитесь по настройкам и закройте всё, что можно. Для по-настоящему конфиденциальных вещей держите всё подальше от облака и запускайте локальную модель.

И последнее, что стоит помнить: бесплатный сыр бывает только в мышеловке. Когда вы пользуетесь бесплатным ИИ-продуктом, вы платите своими данными. У бесплатных тарифов обычно слабее защита приватности, дольше хранятся данные, и ваши переписки с гораздо большей вероятностью попадут в обучающий датасет. Платные планы у всех крупных провайдеров, как правило, предлагают лучшие условия по работе с данными. Это не значит, что платная подписка автоматически вас защищает - но бесплатная версия почти всегда худший вариант для вашей приватности.

Теги: privacy security ai
×