OpenAI aktualizuje ChatGPT: nowe narzędzia, pamięć i ustawienia prywatności

0
1
Rate this post

Nawigacja:

Najważniejsze zmiany w ChatGPT po aktualizacjach OpenAI

Co realnie się zmieniło, a co jest głównie kosmetyką

Aktualizacje ChatGPT od OpenAI można rozdzielić na dwie kategorie: zmiany, które faktycznie wpływają na sposób pracy (pamięć, nowe narzędzia, ustawienia prywatności), oraz ulepszenia kosmetyczne (detale interfejsu, drobne podpowiedzi, kolorystyka). Dla użytkownika, który traktuje ChatGPT jako narzędzie do pracy, kluczowe są te pierwsze.

Po stronie realnych zmian funkcjonalnych pojawiły się przede wszystkim:

  • pamięć ChatGPT – możliwość zapisywania wybranych informacji o użytkowniku i jego preferencjach ponad pojedynczą sesję czatu;
  • nowe narzędzia – m.in. przeglądanie internetu, analiza plików, interpretacja kodu, praca z obrazami, integracje zewnętrzne (w zależności od planu);
  • bardziej granularne ustawienia prywatności – wyłączanie historii, oddzielne sterowanie trenowaniem modeli na danych użytkownika, eksport danych.

Elementy o charakterze głównie kosmetycznym to np. zmiany w wyglądzie panelu, inny układ przycisków, nowe ikony czy podpowiedzi skrótów. Mogą ułatwiać korzystanie, ale nie zwiększają zakresu tego, co ChatGPT potrafi zrobić z punktu widzenia biznesu, pracy czy nauki.

Aktualizacja „marketingowa” vs faktyczne zmiany możliwości pracy

Przy dużych ogłoszeniach OpenAI łatwo pomylić hasło marketingowe z realnym przełomem. Dobry filtr to zadanie sobie kilku pytań:

  • Czy dzięki tej funkcji mogę wykonać nowy typ zadania, którego wcześniej się nie dało?
  • Czy mogę wykonać stare zadanie istotnie szybciej lub z mniejszą liczbą ręcznych kroków?
  • Czy ta zmiana obniża lub podnosi ryzyko związane z danymi (np. firmowymi, osobistymi)?

W tym sensie:

  • pamięć jest zmianą jakościową – model może „kojarzyć” Twoje preferencje między sesjami, co w dłuższej perspektywie oszczędza czas;
  • moduł analizy plików zmienia sposób pracy np. z dokumentami, raportami, prezentacjami – można je wrzucić wprost zamiast kopiować fragmenty;
  • precyzyjne ustawienia prywatności pozwalają używać ChatGPT w scenariuszach, gdzie wcześniej firma z góry odrzucała to jako zbyt ryzykowne.

Z kolei zmiany typu „przemianowanie zakładki z Tools na Workspace” lub nowe ikony często są bardziej pod publiczkę niż pod produktywność. Dobrą praktyką jest czytanie nie tylko bloga OpenAI, ale także ustawień w panelu i komunikatów w interfejsie – tam zwykle widać, co faktycznie się zmieniło w Twojej wersji konta.

Funkcje domyślne i te wymagające aktywacji

Nie wszystkie nowe funkcje ChatGPT są włączone „z pudełka”. Część opcji wymaga świadomej aktywacji w ustawieniach lub przy pierwszym użyciu. W uproszczeniu:

  • pamięć – często wymaga zaakceptowania komunikatu i potwierdzenia, że chcesz korzystać z zapisywania informacji, a później możesz ją wyłączyć w ustawieniach;
  • historia czatu – bywa domyślnie włączona, ale można ją wyłączyć, co m.in. wpływa na trenowanie modeli;
  • narzędzia typu przeglądanie internetu, analiza plików – w nowszych planach są integrowane automatycznie i model sam decyduje, kiedy ich użyć; wcześniej wymagały ręcznego przełączania trybu („Browse with Bing”, „Code Interpreter” itd.);
  • dodatkowe integracje i pluginy – zwykle trzeba włączyć je w dedykowanej sekcji (np. Marketplace, Plugins) i potwierdzić uprawnienia.

To, co w panelu wygląda na dużą nowość, często jest tylko przełączeniem stanu domyślnego. Przykład: dla nowych użytkowników pamięć może być włączona od początku, a dotychczasowi widzą ją jako „nową funkcję” wymagającą zgody.

Darmowa wersja, płatne plany i ograniczenia regionalne

OpenAI dość wyraźnie różnicuje funkcje między wersją darmową a planami płatnymi (Plus, Team, Enterprise). W uproszczeniu:

  • wersja darmowa – zwykle ma dostęp do uproszczonego zestawu funkcji: ograniczone lub wolniejsze modele, mniejsza liczba narzędzi, ograniczenia ilościowe w korzystaniu z pamięci czy analizy plików;
  • plany płatne – szybciej otrzymują nowe funkcje (rolling release), szerzej dostępne narzędzia (przeglądanie sieci, pliki, obrazy), lepsze limity i często opcje zarządzania na poziomie organizacji.

Dodatkowo niektóre funkcje są wdrażane etapowo z ograniczeniami regionalnymi. Przykładowo, pamięć czy konkretne integracje mogą pojawić się najpierw w USA lub w wybranej grupie krajów, a dopiero później w pozostałych. Zdarza się też, że jedna organizacja (np. firma korzystająca z ChatGPT Enterprise) ma wcześniej dostęp do eksperymentalnych funkcji niż użytkownicy indywidualni.

Jedna z pułapek to założenie, że opis na blogu OpenAI dotyczy automatycznie każdej instancji ChatGPT. W praktyce warto zweryfikować:

  • czy dana funkcja już pojawiła się w Twoim koncie,
  • czy wymaga osobnej aktywacji (np. w panelu administratora organizacji),
  • czy nie jest zablokowana przez politykę firmy lub wymogi prawne w Twoim kraju.

Pamięć ChatGPT – koncepcja, mechanizm i realne ograniczenia

Czym pamięć różni się od historii rozmów i kontekstu czatu

Przed wprowadzeniem pamięci ChatGPT działał w uproszczeniu na dwóch poziomach:

  • kontekst bieżącego czatu – wszystko, co wpiszesz w danej rozmowie, jest brane pod uwagę, dopóki nie przekroczysz limitu „długości kontekstu” modelu, po czym starsze fragmenty są obcinane;
  • historia rozmów – lista wcześniejszych czatów widoczna z lewej strony, ale traktowana jak oddzielne sesje; stary czat nie wpływał na nowy (poza ręcznym kopiowaniem treści).

Pamięć to trzeci poziom, działający ponad tym wszystkim. To wybrane informacje, które model może przechowywać długoterminowo i z których może korzystać w różnych czatach, nawet jeśli zaczynasz zupełnie nową rozmowę. Różnice są kluczowe:

  • kontekst czatu znika, gdy zamkniesz rozmowę lub przekroczysz limit długości kontekstu – pamięć pozostaje;
  • historia rozmów to archiwum dla Ciebie – pamięć to skrót informacji dla modelu;
  • w pamięci znajdują się tylko streszczone, wybrane fakty, a nie całe rozmowy.

Przykład: jeśli w jednym czacie napiszesz, że jesteś właścicielem małego sklepu internetowego z książkami i poprosisz, by ChatGPT zawsze uwzględniał to w swoich sugestiach marketingowych, model może zaproponować zapisanie tego w pamięci. W przyszłych rozmowach może już nie pytać, czym się zajmujesz – od razu zakłada, że chodzi o mały e-commerce z książkami.

Jakie informacje typowo trafiają do pamięci

Najczęściej przydają się informacje ogólne, stabilne w czasie i niewrażliwe. Typowe przykłady:

  • preferencje stylu – np. „pisz do mnie po polsku, tonem formalnym”, „zawsze dodawaj sekcję z ryzykami i ograniczeniami”, „używaj HTML, bo wklejam tekst do WordPressa”;
  • profil użytkownika – np. „prowadzę małą firmę usługową B2B”, „pracuję jako programista w Pythonie”, „uczę się do matury z historii”;
  • powtarzalne zadania – np. „co tydzień tworzę newsletter dla klientów”, „często proszę o analizę umów pod konkretne elementy”;
  • ustalenia projektowe na wysokim poziomie – np. „tworzymy bloga o bezpieczeństwie danych dla małych firm, ton: rzeczowy, bez straszenia”.

Co do zasady w pamięci nie powinny lądować informacje typu:

  • konkretne dane osobowe (imię i nazwisko pracownika + PESEL + adres),
  • szczegółowe dane finansowe (marże, rentowność, tajne warunki umów),
  • tajemnice przedsiębiorstwa (strategia negocjacyjna, know-how bez NDA).

Jeśli użytkownik zaczyna „przekarmiać” pamięć takimi informacjami, rośnie zarówno ryzyko bezpieczeństwa, jak i ryzyko praktyczne – pamięć staje się chaotyczna, mniej przydatna i trudniejsza do zarządzania.

Wysokopoziomowy mechanizm zapisywania i aktualizowania pamięci

Z perspektywy użytkownika pamięć działa pozornie „magicznie”, ale w dużym uproszczeniu można ją opisać w kilku krokach:

  1. Model analizuje Twoją wypowiedź i sprawdza, czy pojawiają się w niej informacje, które mają długoterminową wartość (np. „prowadzę bloga o prawie pracy”).
  2. Jeśli tak, może wyświetlić komunikat typu „Czy chcesz, abym to zapamiętał?” – masz możliwość potwierdzenia lub odrzucenia.
  3. Po akceptacji system tworzy zwięzłą notatkę (rekord pamięci), np. „Użytkownik prowadzi blog o prawie pracy dla małych firm”.
  4. Przy kolejnych odpowiedziach model korzysta z pamięci jako dodatkowego źródła kontekstu: dołącza te notatki do wejścia, zanim wygeneruje odpowiedź.
  5. Jeśli w przyszłości zmienisz zdanie („już nie prowadzę bloga, tylko sklep kursów”), pamięć może zostać zastąpiona nową notatką, a starą można usunąć ręcznie.

Od strony technicznej to nie jest „magazyn wszystkich Twoich słów”, lecz wybór kilku–kilkunastu kluczowych faktów zapisanych w formie znormalizowanych wpisów. Dzięki temu pamięć nie puchnie do tysiąca pozycji, tylko stara się zostawać zwięzła i użyteczna.

Ograniczenia pamięci: rozmiar, selektywność, błędne zapamiętanie

Nie ma publicznie podanego twardego limitu „ile linii pamięci” może zapisać ChatGPT, ale praktyka pokazuje, że system:

  • próbuje ograniczać liczbę wpisów, by nie obniżać jakości odpowiedzi,
  • może łączyć lub nadpisywać pewne informacje (np. nowsze preferencje stylu zastępują starsze),
  • zachowuje się selektywnie – nie każda informacja trafia do pamięci, część jest pomijana.

Realne problemy zaczynają się, gdy:

  • model źle zinterpretuje to, co napisałeś, i zapisze pamięć sprzeczną z Twoją intencją;
  • Twoja sytuacja się zmienia, ale pamięć nie zostaje zaktualizowana – np. zmiana branży, zmiana roli w firmie;
  • pamięć zawiera przeterminowane dane, które zaczynają przeszkadzać w nowych zadaniach.

Dlatego kluczowa jest kontrola pamięci w panelu (o czym dalej) oraz świadome podejście do tego, co dopuszczasz do zapisu. Funkcja jest wygodna, ale nie jest nieomylna – szczególnie przy bardziej złożonych, zmiennych projektach.

Ryzyka przechowywania w pamięci danych osobistych i firmowych

Pamięć kusi, by „wrzucić tam wszystko”: dane klientów, schematy cenowe, szczegóły wewnętrznych procesów. To krótkoterminowo zwiększa wygodę, ale równocześnie zwiększa kilka rodzajów ryzyka:

  • ryzyko zgodności z RODO / privacy – jeśli utrwalisz w pamięci dane osobowe (imiona, adresy, numery telefonów), potem trzeba nimi zarządzać jako danymi przetwarzanymi w chmurze zewnętrznego dostawcy;
  • ryzyko biznesowe – utrwalenie w pamięci tajemnic przedsiębiorstwa oznacza, że w razie wycieku lub błędnej konfiguracji konsekwencje są poważniejsze;
  • ryzyko operacyjne – zbyt szczegółowe dane w pamięci mogą utrudnić pracę, bo model będzie uparcie odnosił się do starych realiów (np. dawnej oferty) zamiast do aktualnej sytuacji.

Bezpieczniejsza praktyka to używanie pamięci do zapisywania meta-informacji, a nie konkretnych danych. Zamiast „nasza marża na produkcie X to Y%”, lepiej „często rozmawiamy o optymalizacji marż i kosztów w modelu B2B”. Konkrety można wprowadzać ręcznie w danym czacie, zwłaszcza gdy pracujesz nad wrażliwym projektem.

Zbliżenie smartfona z interfejsem chatbota AI na ekranie
Źródło: Pexels | Autor: Matheus Bertelli

Konfiguracja pamięci – włączanie, wyłączanie i zarządzanie

Gdzie znaleźć ustawienia pamięci i jak je kontrolować

Pamięcią zarządza się z poziomu ustawień konta. Lokalizacja etykiet może się nieco różnić w zależności od wersji interfejsu, ale ogólny schemat jest podobny:

Przełącznik pamięci – jak włączyć i kiedy lepiej wyłączyć

W podstawowej wersji interfejsu pamięć ma globalny przełącznik. Zwykle znajdziesz go w ustawieniach konta, w sekcji związanej z personalizacją lub prywatnością. Po jego włączeniu:

  • model może proponować zapamiętywanie nowych informacji,
  • może korzystać z istniejących wpisów w pamięci przy nowych rozmowach,
  • masz dostęp do listy zapisanych notatek i do ich edycji.

Przełącznik wyłączasz jednym kliknięciem. Ważne: wyłączenie pamięci zwykle nie kasuje automatycznie zapisanych wpisów, tylko sprawia, że model z nich nie korzysta i nie dodaje nowych. To odpowiednik „uśpienia” funkcji, nie „formatowania dysku”. Jeśli zależy ci na pełnym wyczyszczeniu, trzeba dodatkowo usunąć wpisy ręcznie.

Są sytuacje, w których sensowniej jest mieć pamięć stale wyłączoną:

  • pracujesz w środowisku o wysokich wymaganiach compliance (np. kancelaria, instytucja finansowa),
  • na tym samym koncie obsługujesz bardzo różnych klientów i nie chcesz, by ustawienia jednego mieszały się z drugim,
  • testujesz zachowanie modelu i zależy ci na „czystym” kontekście bez wpływu historii relacji.

W praktyce częsty kompromis to: pamięć globalnie włączona, ale mocno „odchudzona” i regularnie przeglądana.

Ręczne dodawanie i edytowanie wpisów pamięci

Choć system potrafi sam proponować rzeczy do zapamiętania, w bardziej wymagających zastosowaniach lepsze efekty daje ręczne sterowanie. Typowy panel pamięci zawiera listę krótkich notatek – możesz je:

  • przeglądać w formie prostego tekstu,
  • edytować (zmieniając brzmienie, doprecyzowując zakres),
  • usuwać pojedynczo lub hurtowo.

Dobrym nawykiem jest samodzielne formułowanie wpisów zamiast pozostawiania surowych, długich opisów. Zamiast „w każdą środę o 10:00 robię raport sprzedaży, który wysyłam do zespołu handlowego, uwzględniając pięć ostatnich kampanii marketingowych”, lepiej zapisać: „Cyklicznie tworzę raporty sprzedażowe; preferuję tabelaryczne zestawienia i krótkie wnioski zarządcze”. Model będzie miał jaśniejszy, bardziej uniwersalny punkt odniesienia, a ty unikniesz utrwalania zbędnych szczegółów.

Wpisy można też „regułowo” porządkować. Kilka praktycznych kategorii, które ułatwiają życie:

  • Styl i format – język, ton, długość odpowiedzi, preferowane struktury (np. HTML, Markdown, listy punktowane);
  • Rola i kontekst zawodowy – w czym model ma cię „znać” (np. właściciel agencji, specjalista HR, student prawa);
  • Stałe projekty – dosłownie kilka zdań o jednym–dwóch kluczowych projektach, z którymi najczęściej wracasz.

Im bardziej wpis wygląda jak zwięzły „brief” dla asystenta, tym lepiej się sprawdzi w praktyce. Rozbudowane eseje w pamięci zwykle szkodzą bardziej niż pomagają.

Usuwanie pamięci – częściowe, pełne i „reset zaufania”

Kiedy pamięć zaczyna sprawiać kłopoty (np. ChatGPT uparcie zakłada, że nadal pracujesz w poprzedniej branży), nie ma sensu walczyć z nią w dialogu. Skuteczniejsze podejście to porządek w panelu:

  • usunięcie pojedynczych wpisów – gdy problem dotyczy konkretnej, przestarzałej informacji („pracuję w software house X”);
  • czyszczenie całej pamięci – gdy zmienił się profil działalności, a stary obraz użytkownika jest już całkowicie nietrafny;
  • czasowe wyłączenie pamięci – forma „resetu relacji”, kiedy chcesz sprawdzić, jak model zachowa się bez wpływu utrwalonych preferencji.

Po pełnym czyszczeniu dobrze jest przez kilka sesji „nauczyć” model od nowa, ale selektywnie. Zamiast od razu zgadzać się na wszystko, co proponuje zapamiętać, lepiej przez kilka dni traktować te sugestie krytycznie i ręcznie dopracowywać wpisy.

Pamięć a wiele przestrzeni roboczych i kont zespołowych

W ramach planów zespołowych i firmowych pojawia się dodatkowa warstwa: rozróżnienie między pamięcią indywidualną a potencjalnymi ustawieniami globalnymi organizacji. W aktualnych implementacjach pamięć jest zwykle powiązana z konkretnym użytkownikiem, ale administrator może ograniczyć jej działanie lub narzucić polityki.

W praktyce dochodzą jeszcze mniej oczywiste niuanse:

  • logując się tym samym kontem w przeglądarce służbowej i prywatnej, wnosisz tę samą pamięć do dwóch światów – co bywa problematyczne przy łączeniu tematów biznesowych i prywatnych;
  • przy pracy na wspólnym koncie (co często się zdarza, choć nie zawsze jest zgodne z regulaminem) pamięć miesza preferencje i projekty kilku osób;
  • w organizacjach z SSO (logowanie jednokrotne) część ustawień może być blokowana centralnie – wtedy pamięć po prostu „nie istnieje”, mimo że prywatnie ją znasz.

Bezpieczniejszy model to jasne rozdzielenie kont (prywatne vs służbowe) i separacja pamięci per środowisko. Łączenie wszystkiego w jedno konto może być wygodne, ale utrudnia kontrolę nad tym, które fakty „wyciekają” między kontekstami.

Nowe narzędzia i integracje – co faktycznie zmienia się dla użytkownika

Tryb wielonarzędziowy – mniej przełączania, więcej automatyki

Nowsze wersje ChatGPT integrują kilka funkcji w jednym interfejsie: standardowy model konwersacyjny, przeglądanie internetu, analizę plików, generowanie obrazów czy proste działania na kodzie. Z punktu widzenia użytkownika oznacza to, że nie musi już ręcznie wybierać „trybu” – model sam decyduje, które narzędzie uruchomić.

To wygodne, ale rodzi kilka praktycznych pytań:

  • czy każde zapytanie może wywołać połączenie z internetem (co ma znaczenie przy danych wrażliwych),
  • jak rozpoznać, kiedy model korzystał z przeglądarki, a kiedy odpowiadał wyłącznie z „wiedzy wbudowanej”,
  • co dokładnie dzieje się z przesłanymi plikami, gdy są analizowane jako „załącznik do czatu”.

W interfejsie można zwykle podejrzeć, że model użył konkretnego narzędzia (np. ikony, etykiety). Warto zwracać na to uwagę przy pracy na materiałach wewnętrznych: jeśli celem jest analiza wyłącznie lokalnych danych, a nie scrapowanie internetu, wyłączenie przeglądania lub użycie dedykowanego środowiska (np. ChatGPT w wariancie „enterprise”) bywa rozsądniejsze.

Analiza plików – wygoda kontra ryzyko przypadkowego udostępnienia

Możliwość wrzucenia pliku PDF, arkusza kalkulacyjnego czy prezentacji i poproszenia o streszczenie brzmi jak oczywisty zysk. Problem zaczyna się, gdy ten sam mechanizm używany jest bezrefleksyjnie do dokumentów zawierających:

  • dane osobowe klientów lub pracowników,
  • tajne warunki umów,
  • szczegółowe dane finansowe lub techniczne.

Domyślna konfiguracja kont konsumenckich i biznesowych potrafi się znacząco różnić. W wersjach stricte komercyjnych (np. Enterprise) dostawca deklaruje brak wykorzystywania danych do trenowania modeli i odseparowaną infrastrukturę. Tymczasem zwykłe konto indywidualne może podlegać innym zasadom, szczególnie jeśli użytkownik nie zmodyfikował ustawień „data controls”.

Bezpieczny schemat pracy z plikami bywa prostszy, niż się wydaje:

  1. Oddziel wersje dokumentów „do pracy z AI” od oryginałów – usuń zbędne identyfikatory, dane personalne, numeracje umów.
  2. Przed wysłaniem zadaj sobie pytanie, czy wrzucenie pliku do zewnętrznej usługi jest zgodne z polityką twojej firmy lub ustaleniami z klientem.
  3. Jeśli używasz wersji firmowej, skonfrontuj się z realnymi zapisami w umowie / DPA, a nie tylko z marketingowym opisem na stronie.

Dopiero na tym tle sensownie ocenia się nowe narzędzia analizy danych i kodu, które OpenAI dodaje w kolejnych aktualizacjach – nie jako magiczne pudełko, ale jako zewnętrzny podwykonawca, któremu powierzamy określony fragment informacji.

Integracje zewnętrzne i API – kiedy „ChatGPT” to już nie tylko aplikacja

Dla wielu firm ChatGPT w przeglądarce jest tylko wierzchołkiem góry lodowej. Coraz częściej kluczową rolę odgrywa API, integracje z własnymi systemami oraz gotowe wtyczki (plugins) czy „akcje” w asystentach. Różnice są znaczące:

  • korzystając z API, masz zwykle większą kontrolę nad tym, jakie dane wysyłasz i jak je przechowujesz po swojej stronie;
  • wtyczki i akcje potrafią łączyć ChatGPT z innymi usługami (CRM, kalendarz, system helpdesk), co z perspektywy bezpieczeństwa oznacza dodatkowy wektor ryzyka;
  • z punktu widzenia użytkownika końcowego granica „gdzie kończy się OpenAI, a zaczyna integracja partnera” bywa niewidoczna.

Dobrym przykładem jest automatyczne generowanie odpowiedzi na zgłoszenia klientów w systemie ticketowym. Jeśli integracja jest zbudowana byle jak, to każdy fragment korespondencji może lądować w chmurze dostawcy modelu, bez jasnych reguł retencji i anonimizacji. Z drugiej strony dobrze zaprojektowana integracja może wysyłać wyłącznie zanonimizowane treści, a identyfikatory klientów mapować lokalnie po stronie firmy.

Różnica między tymi dwoma podejściami nie wynika z „magii” OpenAI, tylko z decyzji architekta systemu i administratora. Aktualizacje po stronie ChatGPT (nowe modele, rozszerzony kontekst, lepsze narzędzia) to tylko jedna część układanki.

Narzędzia developerskie i „asystenci” – wygodny skrót czy nowa warstwa złożoności

OpenAI rozwija także narzędzia skierowane do twórców aplikacji: API asystentów, funkcje wywoływania narzędzi (tool calling), wbudowane pamięci per-asystent, a czasem także wewnętrzne „wektory” (embeddings). Pozwala to budować wyspecjalizowane boty i panele, które zachowują się inaczej niż ogólny ChatGPT w przeglądarce.

Z perspektywy bezpieczeństwa i prywatności pojawiają się nowe pytania:

  • kto odpowiada za konfigurację pamięci w takim asystencie – OpenAI czy zespół developerski w twojej firmie;
  • czy dane, które trafiają do asystenta, są dalej przetwarzane zgodnie z ogólnymi zasadami konta, czy mają osobną politykę;
  • jak wygląda proces usuwania danych, jeśli klient zażąda „prawa do bycia zapomnianym” w kontekście konkretnej aplikacji.

W wielu projektach IT powstaje obecnie niebezpieczne założenie: „skoro to działa na ChatGPT, to OpenAI na pewno rozwiązał za nas temat RODO”. To skrót myślowy. OpenAI udostępnia infrastrukturę i pewne domyślne zabezpieczenia, ale odpowiedzialność za to, jakie dane trafią do asystenta i jak długo będą przetwarzane, spoczywa w dużej mierze na twórcy rozwiązania i administratorze danych.

Osoba korzysta z aplikacji czatu AI na smartfonie
Źródło: Pexels | Autor: Abdelrahman Ahmed

Ustawienia prywatności i historii – realne możliwości kontroli

Historia czatów a trenowanie modeli – dwa różne przełączniki

Panel ustawień ChatGPT coraz częściej rozdziela dwie kwestie, które laikom zlewają się w jedno:

  • przechowywanie historii rozmów – czyli czy twoje czaty pojawiają się na liście po lewej i czy możesz do nich wrócić;
  • wykorzystanie danych do trenowania modeli – czyli czy treść tych rozmów może być później użyta do poprawiania systemu.

Wyłączenie historii czatów zwykle oznacza, że nowe rozmowy nie są zapisywane w panelu ani powiązane z twoim kontem w formie łatwej do przeglądania. Nie musi to jednak automatycznie oznaczać, że dane nie są tymczasowo przetwarzane w logach systemowych (np. na potrzeby bezpieczeństwa, debugowania, rozliczeń). Szczegóły zależą od konkretnej polityki i typu konta.

Osobny przełącznik – „do not train on my data” lub podobnie nazwany – wpływa na to, czy treści twoich rozmów mogą być wykorzystywane jako materiał treningowy. W planach biznesowych i Enterprise wyłączenie trenowania na danych klientów jest często domyślne, a w kontach indywidualnych bywa opcją do zaznaczenia.

Realna kontrola polega więc na kombinacji:

  • ustawień prywatności w samym panelu,
  • rodzaju konta/umowy (indywidualne, Team, Enterprise),
  • wewnętrznej polityki firmy dotyczącej korzystania z narzędzi zewnętrznych.

Czas przechowywania danych i „usuwanie na żądanie”

Dostawcy tacy jak OpenAI deklarują zwykle określony czas przechowywania danych w różnych systemach: jedna retencja dla historii użytkownika, inna dla logów bezpieczeństwa, jeszcze inna dla backupów. Szczegóły bywają aktualizowane, dlatego zamiast zapamiętywać konkretne liczby z prezentacji marketingowej, lepiej zaglądać do aktualnej dokumentacji prawnej i DPA.

Z punktu widzenia użytkownika końcowego liczą się trzy mechanizmy:

  • usuwanie pojedynczych rozmów – z poziomu interfejsu; kasuje je z widoku użytkownika i zwykle z głównej bazy historii;
  • Usuwanie danych w praktyce – co znika, a co może pozostać w systemach

    Drugi poziom to czyszczenie całej historii lub usunięcie konta. Dla użytkownika wygląda to jak „twardy reset”, ale od strony technicznej zwykle oznacza kilka równoległych procesów: usunięcie rekordów z głównej bazy, oznaczenie ich jako „do skasowania” w systemach pobocznych, wygaszenie powiązań z identyfikatorami konta.

    Najbardziej mylący bywa trzeci element – backupy i logi techniczne. Dane mogą tam przetrwać pewien czas, ale zwykle w formie trudniej dostępnej i objętej dodatkowymi ograniczeniami (np. dostęp tylko dla zespołu bezpieczeństwa, brak użycia do trenowania modeli). To kompromis między prawem do usunięcia danych a obowiązkami prawnymi dostawcy (np. rozliczenia, audyty, zapobieganie nadużyciom).

    Jeżeli prowadzisz działalność regulowaną (medyczną, finansową, prawniczą), sensowne bywa spisanie wewnętrznego standardu:

  • jakie typy danych mogą trafić do narzędzi takich jak ChatGPT,
  • jak długo dopuszczasz, by były przechowywane po stronie zewnętrznego dostawcy,
  • kto jest odpowiedzialny za realizację żądań usunięcia danych, gdy klient zapyta wprost o systemy AI.

Bez takiej mapy łatwo skończyć z sytuacją, w której oficjalne procedury mówią jedno, a realna praktyka – kopiuje wrażliwe fragmenty rozmów do „wygodnego” czatu bez jakiejkolwiek ewidencji.

Prywatność a wygoda – scenariusze, w których ustawienia mają znaczenie

Ustawienia historii i trenowania danych brzmią abstrakcyjnie, dopóki nie pojawi się konkretny scenariusz. Typowe przykłady to:

  • przygotowywanie dokumentu dla klienta – prawnik lub konsultant wkleja fragmenty umowy i prosi o sugestie zmian. Jeżeli korzysta z konta firmowego z wyłączonym trenowaniem i jasnym DPA, ryzyko jest inne niż przy prywatnym koncie z domyślną konfiguracją;
  • wewnętrzna burza mózgów – zespół marketingu wkleja szkice kampanii, nazwy produktów, strategie cenowe. Dla nich często kluczowe jest, by takie treści nie pojawiły się pośrednio w modelach publicznych ani w narzędziach używanych przez inne firmy.

Konfiguracja historii i trenowania danych nie rozwiąże wszystkich problemów prywatności, ale pozwala przynajmniej świadomie oddzielić sytuacje „robocze” (np. szukanie przepisu na ciasto) od sytuacji zawodowych, w których stawką jest tajemnica przedsiębiorstwa.

Bezpieczeństwo danych osobistych i firmowych – praktyczna ostrożność

Rozróżnianie klas danych – nie wszystko jest równie wrażliwe

Najczęstszy błąd to podejście binarne: albo całkowite zaufanie do narzędzi AI, albo całkowity zakaz korzystania z nich. Rozsądniejsza strategia opiera się na kategoryzacji danych. W uproszczeniu można wyróżnić kilka poziomów wrażliwości:

  • dane publiczne – treści, które i tak planujesz opublikować (blog, ogłoszenia, opisy produktów); tu ryzyko jest najmniejsze;
  • dane wewnętrzne o niskiej wrażliwości – procedury, prezentacje szkoleniowe, opisy procesów bez danych osobowych;
  • dane osobowe i handlowe – dane klientów, pracowników, szczegóły warunków umów, plany strategiczne;
  • dane szczególnie chronione – dane zdrowotne, dane dzieci, informacje objęte tajemnicą zawodową (adwokacką, lekarską, bankową), dokumenty z klauzulą poufności.

Dla każdej z tych kategorii można zdefiniować inne zasady pracy z ChatGPT: od pełnej swobody po całkowity zakaz użycia narzędzi zewnętrznych i wymóg korzystania z infrastruktury on-premise lub specjalnie zakontraktowanego środowiska.

Ryzyka operacyjne – gdzie przecieki zdarzają się najczęściej

Głośne nagłówki skupiają się na wizji „model wycieka dane użytkowników”, jednak w praktyce większość realnych incydentów ma bardziej przyziemne przyczyny:

  • nieuprawniony dostęp do konta – słabe hasło, brak 2FA, współdzielone konto zespołowe bez kontroli,
  • kopiowanie wrażliwych odpowiedzi do innych systemów (np. prywatnych notatników w chmurze) bez szyfrowania,
  • przesyłanie zrzutów ekranu lub plików z rozmowami dalej – mailowo, komunikatorami, do dostawców bez umów powierzenia.

Środowisko AI bywa tylko jednym z ogniw łańcucha. Model może być skonfigurowany poprawnie, ale incydent i tak wydarzy się w momencie, gdy pracownik zaciągnie wygenerowany raport na prywatny laptop lub wklei fragment rozmowy na publiczne forum, szukając „pomocy z błędem”.

Przy wdrażaniu ChatGPT w firmie większy efekt daje często przeszkolenie zespołu z prostych zasad higieny danych niż długie dyskusje o szczegółach architektury samego modelu.

Polityki firmowe a realne użycie – zderzenie teorii z praktyką

Coraz więcej organizacji publikuje „politykę korzystania z generatywnego AI”. Na papierze wygląda to dobrze: listy dozwolonych i zakazanych kategorii danych, wymóg stosowania wersji Enterprise, wzmianki o RODO. Problem zaczyna się, gdy te zasady nie mają pokrycia w narzędziach i procesach.

Typowy scenariusz:

  • oficjalnie wolno używać tylko „autoryzowanej” instancji ChatGPT,
  • ale zespół nie ma do niej wygodnego dostępu (brak licencji, skomplikowane logowanie, wolne VPN-y),
  • w efekcie pracownicy i tak korzystają z prywatnych kont w przeglądarce lub darmowych alternatyw.

Z punktu widzenia bezpieczeństwa to klasyczna „shadow IT”. Zamiast liczyć na samodyscyplinę, lepiej:

  1. udostępnić realnie wygodne konto firmowe (SSO, jasne granice odpowiedzialności, szkolenie z konfiguracji),
  2. jasno zakomunikować, do jakich zadań można go używać, a do jakich nie,
  3. monitorować wykorzystanie i reagować na typowe nadużycia (np. wklejanie pełnych baz klientów).

Im większa rozbieżność między teorią a praktyką, tym łatwiej o niekontrolowane przepływy danych – niezależnie od tego, jak zaawansowane ustawienia prywatności oferuje sam dostawca.

Ostrożne korzystanie z pamięci – kiedy pomaga, a kiedy szkodzi

Funkcja pamięci w ChatGPT (jeśli jest dostępna) działa atrakcyjnie: model „pamięta” preferencje użytkownika i kontekst poprzednich zadań. Z punktu widzenia prywatności i bezpieczeństwa generuje to jednak kilka nowych problemów.

Jeżeli w pamięci zapiszą się na przykład:

  • nazwy projektów klientów,
  • wewnętrzne skróty i identyfikatory,
  • informacje o strukturze organizacyjnej czy planowanych inicjatywach,

to każde kolejne zapytanie może nieświadomie „wyciągać” te dane na wierzch. W praktyce może dojść do sytuacji, w której użytkownik, przygotowując neutralny dokument, otrzymuje odpowiedzi zawierające poufne nazwy lub szczegóły, które hadzą trafić wyłącznie do wąskiego zespołu.

Rozsądne podejście do pamięci obejmuje kilka prostych reguł:

  • nie utrwalaj w niej pełnych nazw klientów ani danych osobowych – używaj etykiet („Klient A”, „Projekt X”),
  • regularnie przeglądaj zapisane informacje i usuwaj te, które nie są już potrzebne,
  • w środowisku firmowym rozważ wyłączenie pamięci dla kont, które pracują z najbardziej wrażliwymi danymi.

Mechanizm pamięci ma ograniczoną pojemność i z czasem nadpisuje stare informacje nowymi. To redukuje ryzyko, ale go nie eliminuje – szczególnie w sytuacji, gdy jedna osoba przez długi czas pracuje nad wieloma poufnymi projektami równolegle.

Relacja z dostawcą – kontrakty, DPA i realna weryfikacja

W przypadku danych firmowych kluczowe jest nie tylko to, co obiecuje panel ustawień, ale też co wynika z umowy. Plan biznesowy lub Enterprise zwykle obejmuje:

  • oddzielne zapisy dotyczące przetwarzania danych (DPA),
  • jasno zdefiniowane cele i zakres przetwarzania,
  • zobowiązania audytowe i zasady zgłaszania incydentów.

Marketing bywa skrótem myślowym: hasło „nie wykorzystujemy danych klientów do trenowania” może dotyczyć tylko wybranych planów lub konkretnych typów operacji. Przed wysłaniem krytycznych danych do ChatGPT poprzez aplikację, integrację lub API, wypada sprawdzić:

  1. czy istnieje aktualny, podpisany DPA obejmujący generatywne AI (a nie tylko „klasyczne” usługi chmurowe),
  2. których centrów danych dotyczy umowa (istotne przy transferze danych poza EOG),
  3. jak zdefiniowane są pojęcia „anonimizacji” i „pseudonimizacji” w dokumentacji dostawcy.

W wielu organizacjach to zadanie dla działu prawnego i bezpieczeństwa informacji, ale użytkownik końcowy ma prawo oczekiwać jasnej informacji: „Ten kanał jest zatwierdzony do pracy z takimi a takimi danymi, w takich granicach odpowiedzialności”. Brak takiej komunikacji zwykle kończy się spontanicznym, niespójnym użyciem narzędzi AI.

Bezpieczeństwo a psychosfera – między paniką a lekceważeniem

Wokół ChatGPT i podobnych narzędzi narosły dwie skrajne narracje: utopijna („wrzuć wszystko, AI zrobi resztę”) i katastroficzna („każde użycie to wyciek danych”). Ani jedna, ani druga nie opisuje realiów typowego wdrożenia.

Jeżeli narzędzie:

  • działa w ramach odpowiedniego planu (np. firmowego z wyłączonym trenowaniem),
  • ma skonfigurowane rozsądne ustawienia historii i pamięci,
  • jest używane według jasnych reguł dotyczących kategorii danych,

to ryzyko staje się porównywalne z innymi usługami SaaS, z których i tak korzysta większość firm (CRM, helpdesk, systemy billingowe). Problem pojawia się wtedy, gdy decyzje o tym, co „wolno wrzucić do AI”, zapadają ad hoc, na poziomie pojedynczych pracowników, bez świadomości, jakie zabezpieczenia faktycznie obowiązują.

Ostrożność nie musi oznaczać paraliżu. Oznacza raczej zaakceptowanie, że ChatGPT jest kolejnym podwykonawcą w łańcuchu przetwarzania danych – z własnymi mocnymi stronami, ograniczeniami i obowiązkami, które trzeba wpisać w istniejący porządek prawny i organizacyjny, zamiast liczyć na „magiczne” rozwiązanie wszystkich problemów lub całkowicie zakazywać narzędzia, z którego i tak większość zespołu będzie korzystać nieformalnie.

Najczęściej zadawane pytania (FAQ)

Co faktycznie zmieniło się w ChatGPT po ostatnich aktualizacjach OpenAI?

Największa zmiana to pojawienie się trwałej pamięci, nowych narzędzi (przeglądanie internetu, analiza plików, praca z obrazami, interpretacja kodu) oraz bardziej szczegółowych ustawień prywatności. To są elementy, które realnie wpływają na sposób pracy: można szybciej wracać do swoich preferencji, analizować dokumenty „w całości” zamiast kopiować fragmenty i lepiej kontrolować, co dzieje się z danymi.

Część aktualizacji ma charakter kosmetyczny: nowy wygląd panelu, inne nazwy zakładek, ikony czy drobne podpowiedzi. Mogą poprawiać wygodę, ale nie dodają nowych typów zadań, które model potrafi wykonać. Jeśli głównym celem jest praca lub biznes, to właśnie pamięć, narzędzia i prywatność są kluczowe, reszta to głównie „szlif interfejsu”.

Czym różni się pamięć ChatGPT od historii rozmów i kontekstu czatu?

Pamięć to trzeci „poziom” działania, niezależny od pojedynczej rozmowy. Kontekst czatu obejmuje tylko bieżącą konwersację i stopniowo się „ucina”, gdy przekraczasz limit długości; historia rozmów to archiwum dla użytkownika, ale każde nowe okno czatu jest dla modelu czymś osobnym.

Pamięć przechowuje wybrane, streszczone informacje o tobie i twoich preferencjach ponad wszystkimi rozmowami. Model może je wykorzystywać w nowych czatach, bez przypominania mu za każdym razem, kim jesteś i czego zazwyczaj potrzebujesz. W pamięci nie lądują całe logi konwersacji, tylko pojedyncze fakty uznane za przydatne na dłużej.

Jak włączyć lub wyłączyć pamięć ChatGPT i kto ją w ogóle dostaje?

Najczęściej pamięć pojawia się w formie komunikatu w interfejsie – trzeba świadomie potwierdzić, że chcesz z niej korzystać. W ustawieniach konta można ją później wyłączyć lub wyczyścić zapisane informacje. W planach firmowych dodatkowe ograniczenia może nałożyć administrator, więc nawet jeśli funkcja istnieje „globalnie”, konkretna organizacja może ją mieć zablokowaną.

Nie wszyscy użytkownicy dostają pamięć jednocześnie. OpenAI wdraża tę funkcję etapowo, często najpierw w wybranych regionach lub dla płatnych planów. Zdarza się też sytuacja odwrotna: nowi użytkownicy mają pamięć domyślnie włączoną, a starsi widzą ją jako „nowość”, którą trzeba ręcznie aktywować.

Jakie informacje warto (i czego lepiej nie) zapisywać w pamięci ChatGPT?

Najbardziej przydają się stabilne, ogólne dane: preferowany język i ton wypowiedzi, rola zawodowa, typowe zadania, kontekst projektów na wysokim poziomie. Przykład: przedsiębiorca może ustawić, że prowadzi małą firmę B2B i że zależy mu na komunikacji bez „marketingowego zadęcia” – wtedy model nie musi o to pytać przy każdym zapytaniu.

Dużo bardziej ryzykowne są szczegółowe dane osobowe, informacje finansowe czy wrażliwe elementy strategii firmy. Po pierwsze zwiększa się ryzyko naruszenia zasad bezpieczeństwa danych, po drugie pamięć staje się nieczytelna i trudna do zarządzania. Bezpieczna praktyka to traktowanie pamięci raczej jak „profil preferencji”, a nie magazynu poufnych informacji.

Jakie nowe narzędzia są dostępne w ChatGPT i czy trzeba je włączać ręcznie?

Kluczowe narzędzia to m.in. przeglądanie internetu, analiza plików (dokumenty, prezentacje, raporty), interpretacja kodu oraz praca z obrazami. W nowszych planach ChatGPT sam wybiera, kiedy z nich skorzystać, bez konieczności ręcznego przełączania trybów typu „Browse with Bing” czy „Code Interpreter”.

Część integracji i pluginów nadal wymaga osobnej aktywacji w dedykowanej sekcji (np. Marketplace/Plugins) i nadania uprawnień. Regulą jest, że im bardziej „zewnętrzna” funkcja (np. połączenie z innym serwisem), tym większa szansa, że trzeba ją osobno włączyć i świadomie zaakceptować zakres dostępu do danych.

Czym różni się darmowa wersja ChatGPT od planów Plus/Team/Enterprise po tych zmianach?

Darmowa wersja zwykle ma ograniczony zestaw: wolniejsze lub uproszczone modele, mniej narzędzi i niższe limity pracy z pamięcią czy plikami. To często wystarcza do prostych zadań, ale przy większym obciążeniu lub pracy zespołowej ograniczenia szybko stają się odczuwalne.

Płatne plany (Plus, Team, Enterprise) zazwyczaj jako pierwsze dostają nowe funkcje i szerszy dostęp do narzędzi. Dochodzą też wyższe limity, funkcje zarządzania na poziomie organizacji i bardziej rozbudowane ustawienia prywatności. Trzeba jednak brać pod uwagę ograniczenia regionalne – to, co jest opisane na blogu OpenAI, nie zawsze od razu działa w danym kraju lub w konkretnej firmie.

Jak sprawdzić, czy opisane aktualizacje ChatGPT są już dostępne na moim koncie?

Niezawodna metoda to nie opierać się wyłącznie na materiałach marketingowych, ale zajrzeć bezpośrednio w ustawienia oraz interfejs. W praktyce oznacza to sprawdzenie, czy w panelu widzisz sekcje związane z pamięcią, historią czatu, narzędziami (pliki, przeglądanie sieci) oraz ewentualnymi integracjami.

W środowisku firmowym dodatkowo trzeba uwzględnić politykę organizacji: administrator może wyłączyć niektóre opcje niezależnie od tego, co ogłasza OpenAI. Dlatego typowe kroki to: kontrola ustawień konta, ewentualnie kontakt z administratorem IT oraz weryfikacja, czy funkcja nie jest jeszcze w fazie stopniowego wdrażania w twoim regionie.

Poprzedni artykułWalidacja krzyżowa bez błędów: najczęstsze pułapki i jak ich unikać
Maria Kozłowski
Maria Kozłowski pisze o cyberbezpieczeństwie z perspektywy użytkownika i organizacji: od ochrony kont i danych po bezpieczne korzystanie z chmury. W materiałach stawia na edukację i odpowiedzialność: opisuje mechanizmy zagrożeń, ale przede wszystkim pokazuje, jak im zapobiegać, jakie ustawienia włączyć i jak ocenić wiarygodność narzędzi. Korzysta z raportów incydentów, zaleceń branżowych i testów konfiguracji. Na Styropiany24.pl dba o jasne definicje, aktualność porad i realne scenariusze, bez straszenia.