Korzystaj z chatbotów AI bez ujawniania swoich danych
Praktyczne ustawienia prywatności dla ChatGPT, Gemini, Claude i Copilot. Dowiedz się, czego nigdy nie wpisywać w AI i jak uruchamiać modele lokalnie.

Praktyczne ustawienia prywatności dla ChatGPT, Gemini, Claude i Copilot. Dowiedz się, czego nigdy nie wpisywać w AI i jak uruchamiać modele lokalnie.

Bądźmy szczerzy - pewnie korzystasz z ChatGPT, Gemini albo Copilot praktycznie codziennie. Ale jest pewna rzecz, której nikt nie czyta w regulaminie: wszystko, co wpisujesz, może zostać przeczytane przez prawdziwych ludzi, użyte do trenowania modeli AI albo wycieknąć w wyniku naruszenia bezpieczeństwa. Tak, domyślnie większość chatbotów AI radośnie zbiera Twoje rozmowy. Czas to naprawić.
Oto co się dzieje, kiedy rozmawiasz z większością narzędzi AI: Twoje konwersacje są przechowywane na ich serwerach i mogą być wykorzystywane do trenowania przyszłych modeli. To oznacza, że Twoje słowa mogą dosłownie kształtować to, co AI mówi innym ludziom. Dziwne, prawda?
I to nie jest żaden hipotetyczny straszak. Pracownicy Samsunga przypadkowo wyciekli poufny kod źródłowy przez ChatGPT w 2023 roku. W 2025 OpenAI potwierdziło wyciek danych, w którym ujawnione zostały rozmowy użytkowników. A na początku 2026 roku włamano się do popularnej aplikacji AI do czatowania - wyciekło ponad 300 milionów wiadomości, w tym głęboko osobiste. No niewesoło.
A, i taki ciekawy fakt: ludzcy recenzenci w tych firmach mogą i faktycznie czytają Twoje rozmowy, żeby poprawić jakość odpowiedzi. Badanie z 2024 roku wykazało, że 77% pracowników korzystało z narzędzi AI w pracy, często wklejając firmowe dane bez zastanowienia. Wyobraź sobie, jakby Twój szef się o tym dowiedział.
Dobra wiadomość? Każdy duży chatbot AI pozwala Ci zrezygnować. Wystarczy wiedzieć, gdzie szukać.
OpenAI domyślnie przechowuje Twoje czaty i wykorzystuje je do trenowania. Niezbyt fajnie. Ale naprawienie tego zajmuje minutę - wejdź w ustawienia prywatności i kontroli danych w ChatGPT i poszukaj tych opcji:
Uwaga: nawet po wyłączeniu trenowania Twoje czaty mogą jeszcze przez chwilę wisieć na serwerach w ramach monitoringu bezpieczeństwa, zanim zostaną faktycznie usunięte.
Google może domyślnie przechowywać Twoje rozmowy z Gemini naprawdę długo, a tak - ludzcy recenzenci mogą je czytać. Twoja główna broń to ustawienia aktywności Google. Wejdź w kontrolę aktywności na swoim koncie Google, znajdź wszystko związane z Gemini i wyłącz to. Przy okazji usuń też zapisaną aktywność.
A tu jest podstęp: poza Europą to logowanie aktywności jest zazwyczaj włączone domyślnie. I nawet kiedy je wyłączysz, Google może nadal przez chwilę podglądać ostatnie rozmowy ze względów bezpieczeństwa. To jest wpisane w ich politykę i niewiele da się z tym zrobić.
Jeśli korzystasz z Gemini przez płatne konto Google Workspace, masz lepszą sytuację - Twoje dane zazwyczaj mają silniejszą ochronę i domyślnie nie są używane do trenowania.
Anthropic jest nieco bardziej przyjazny prywatności od samego początku, ale i tak trzeba parę rzeczy zmienić. Wejdź w ustawienia Claude, znajdź sekcję prywatności i poszukaj przełącznika kontrolującego, czy Twoje rozmowy pomagają ulepszać model. Wyłącz go.
Dlaczego to ważne: przy włączonym trenowaniu Twoje rozmowy mogą być przechowywane latami. Po wyłączeniu czas przechowywania danych znacznie się skraca. Sprawdź aktualną politykę prywatności Claude, żeby poznać dokładne dane - różnica jest zazwyczaj ogromna.
Fajna sprawa - Claude pozwala też wyłączyć udostępnianie lokalizacji. Niektóre chatboty AI używają Twojej przybliżonej lokalizacji do personalizowania odpowiedzi, o czym pewnie nawet nie wiedziałeś. Jeśli znajdziesz ustawienie lokalizacji lub personalizacji w jakimkolwiek narzędziu AI, wyłącz je. Coraz więcej chatbotów będzie prawdopodobnie dodawać takie funkcje, więc warto to obserwować.
Jeśli korzystasz z Claude przez API lub płatny plan z wyłączonym trenowaniem, Twoje dane zazwyczaj nie są wykorzystywane do ulepszania modeli.
Copilot domyślnie zbiera Twoje rozmowy - żadne zaskoczenie, to Microsoft. Wejdź w ustawienia Copilot i poszukaj kontroli prywatności, szczególnie wszystkiego dotyczącego trenowania modelu na Twoich tekstach lub danych głosowych. Wyłącz to.
Nie zapomnij też sprawdzić panelu prywatności konta Microsoft na account.microsoft.com/privacy. Tam możesz znaleźć i usunąć historię Copilot. Domyślnie Microsoft może trzymać te dane przez wiele miesięcy.
Korzystasz z Copilot przez konto firmowe Microsoft 365? Twoje dane są zazwyczaj obsługiwane zgodnie z polityką Twojej organizacji i nie są używane do trenowania modeli. To jeden z tych momentów, kiedy korporacyjne IT faktycznie działa na Twoją korzyść.
Nawet z idealnymi ustawieniami traktuj wszystko, co wpisujesz, jakby mogło wylądować na billboardzie. Nigdy nie wklejaj tego do chatbotów AI:
Uważaj też na uprawnienia wykraczające poza tekst. Niektóre chatboty AI proszą o dostęp do lokalizacji, kontaktów czy plików. Po prostu odmów, chyba że masz naprawdę dobry powód. Im mniej danych narzędzie AI ma o Tobie, tym mniej może wyciec.
Prosta zasada: jeśli nie opublikowałbyś czegoś na publicznym forum, nie wklejaj tego do chatbota AI. Wycieki się zdarzają, a Twoje rozmowy siedzą na czyichś serwerach.
Jeśli prywatność jest Twoim priorytetem, oto najlepsza opcja - uruchom modele AI bezpośrednio na swoim komputerze. Nic nie opuszcza Twojej maszyny. Żadnych serwerów, żadnego logowania, żadnego trenowania. Po pobraniu modelu możesz dosłownie wyciągnąć kabel internetowy i dalej rozmawiać.
Trzy solidne opcje warte sprawdzenia:
Wszystkie trzy są darmowe. Szczerze mówiąc, modele nie dorównają jakością AI w chmurze, ale do codziennych pytań, pomocy z pisaniem i kodowaniem są zaskakująco dobre. A Twoje dane? Pozostają całkowicie, w 100% Twoje.
Jedno zastrzeżenie: potrzebujesz trochę mocy obliczeniowej. Uruchamianie AI lokalnie jest wymagające. Mówimy o dość nowoczesnym komputerze z minimum 16 GB RAM (32 GB lub więcej, jeśli chcesz uruchamiać większe, mądrzejsze modele). Prawdziwym wąskim gardłem jest karta graficzna - dedykowany GPU z wystarczającą ilością pamięci wideo robi kolosalną różnicę w szybkości. Niektóre nowsze laptopy i procesory mają wbudowane NPU (Neural Processing Unit), czyli jednostkę zaprojektowaną specjalnie do obciążeń AI, co bardzo pomaga. Ale jeśli Twój komputer ma problemy z przeglądarką z dziesięcioma kartami, lokalne AI raczej nie będzie miało łatwo. Zacznij od mniejszych modeli, sprawdź, co Twoja maszyna jest w stanie udźwignąć, i stopniowo przechodź na większe.
Nie wszystkie chatboty AI traktują Twoje dane tak samo. Oto jak je oceniamy od najlepszych do najgorszych, na podstawie domyślnego zachowania, opcji rezygnacji i czasu przechowywania danych:
| Miejsce | Usługa | Uwagi dotyczące prywatności |
|---|---|---|
| 1 | Local AI | Złoty standard. Nic nie opuszcza Twojej maszyny. Zero wymaganego zaufania. |
| 2 | Claude | Krótszy czas retencji po wyłączeniu trenowania. Przełącznik lokalizacji. Płatne plany domyślnie nie trenują. |
| 3 | ChatGPT | Solidne opcje rezygnacji i tryb tymczasowego czatu. Ale domyślnie trenuje, a funkcja pamięci zbiera dodatkowe dane. |
| 4 | Copilot | Przyzwoite zabezpieczenia korporacyjne, ale długi domyślny czas retencji i głęboka integracja z kontem Microsoft. |
| 5 | Gemini | Najdłuższy domyślny czas retencji. Ludzki przegląd nawet po rezygnacji. Logowanie aktywności domyślnie włączone poza Europą. |
Ten ranking to nasza osobista opinia oparta na publicznie dostępnych politykach prywatności w momencie pisania. Twoja sytuacja może się różnić w zależności od regionu, typu konta lub sposobu korzystania z tych narzędzi. Firmy regularnie aktualizują swoje polityki, więc to, co jest prawdą dziś, może nią nie być jutro. Sam sprawdź aktualne informacje, zanim powierzysz jakiemukolwiek serwisowi wrażliwe dane.
Każdy duży chatbot AI domyślnie zbiera Twoje dane - ale każdy z nich pozwala też zrezygnować. Poświęć 5 minut, przejrzyj swoje ustawienia i wszystko pozamykaj. Do wszystkiego naprawdę wrażliwego trzymaj się z dala od chmury i uruchom lokalny model.
I jeszcze jedno na koniec: darmowy ser jest tylko w pułapce na myszy. Kiedy korzystasz z darmowego produktu AI, płacisz swoimi danymi. Darmowe plany mają zazwyczaj słabszą ochronę prywatności, dłuższy czas przechowywania danych, a Twoje rozmowy znacznie częściej trafiają do zbioru treningowego. Płatne plany u wszystkich głównych dostawców oferują zazwyczaj lepsze polityki dotyczące danych. To nie znaczy, że płacenie automatycznie Cię zabezpiecza - ale darmowa wersja to prawie zawsze najgorszy wybór dla Twojej prywatności.