Dlaczego prawnicy muszą anonimizować treści przed użyciem ChatGPT?
Niedawno OpenAI ujawniło praktykę, która dodatkowo uzasadnia ostrożność prawników w korzystaniu z narzędzi AI. Firma przyznała, że aktywnie skanuje miliony rozmów ChatGPT w poszukiwaniu potencjalnie szkodliwych treści. Oczywiście trudno uwierzyć, że pozostali „gracze” na rynku AI nie robią tego samego.
Wielowarstwowy system inwigilacji?
To co wiemy na pewno to, że OpenAI wdrożyło system automatycznego filtrowania, który oznacza treści uznawane za „stwarzające bezpośrednie zagrożenie poważną szkodą fizyczną”. Podejrzane konwersacje trafiają do „wyspecjalizowanych potoków” – zespołu ludzkich recenzentów przeszkolonych w zakresie zasad użytkowania. Jeśli ci recenzenci określą, że przypadek „wiąże się z bezpośrednim zagrożeniem poważną szkodą fizyczną dla innych”, mogą przekazać sprawę organom ścigania.
Szczególnie niepokojące jest oświadczenie OpenAI, że „obecnie nie przekazujemy organom ścigania spraw samookaleczeń ze względu na poszanowanie prywatności” – co sugeruje, że inne kategorie treści mogą być raportowane.
Zagrożenie dla tajemnicy zawodowej
Dla prawników oznacza to fundamentalne ryzyko naruszenia tajemnicy zawodowej. Dokumenty prawne, strategie procesowe czy korespondencja z klientami mogą również przecież zostać:
- Automatycznie zeskanowane przez algorytmy OpenAI,
- Przeanalizowane przez zespół ludzkich recenzentów,
- Potencjalnie przekazane policji.
Brak jest transparentności dotyczącej wskaźników fałszywie dodatnich, procesów odwoławczych czy zasad przechowywania danych. Co oznacza, że nie mamy żadnej gwarancji, iż dane załadowane do chatu nie zostaną użyte w powyższy sposób.
Imperatyw bezwzględnej anonimizacji
W obliczu tego co już wiemy, jest to tylko dodatkowy argument za koniecznością zachowania daleko posuniętej ostrożności. Przy używaniu modeli językowych anonimizacja jest obowiązkiem zawodowym, nie opcją.
Prawnicy powinni zawsze:
- Usuwać wszystkie dane identyfikujące przed wprowadzeniem do ChatGPT,
- Zastępować nazwiska zmiennymi (np. „Klient A”, „Strona pozwana”),
- Eliminować unikalne okoliczności sprawy, które mogą prowadzić do identyfikacji
- Informować klientów o wykorzystaniu narzędzi AI.
CEO OpenAI Sam Altman wcześniej przyznał, że rozmowy z ChatGPT nie mają takich samych gwarancji poufności jak konsultacje z licencjonowanymi terapeutami czy prawnikami.
Dlatego nigdy nie za dużo przypominania: anonimizuj prawniku!
Marcin Szumlański
Adwokat, który od wielu lat prowadzi własną kancelarię prawną, wspierając klientów w rozwiązywaniu kompleksowych spraw z zakresu prawa gospodarczego i cywilnego. Jest ekspertem nie tylko w tradycyjnych obszarach prawa, ale także pasjonatem nowych technologii – szczególnie sztucznej inteligencji i jej praktycznych zastosowań w pracy prawnika. Prowadził szkolenie z zakresu inżynierii promptów dla prawników, dzieląc się wiedzą na temat skutecznego korzystania z AI w profesjonalnej praktyce adwokackiej.
Porozmawiajmy o AI w Twojej kancelarii
Jeśli prowadzisz kancelarię lub dział prawny i chcesz bezpiecznie wdrożyć AI oraz skuteczne praktyki prompt engineering (w tym procedury anonimizacji), warto opracować spójną, szytą na miarę politykę korzystania z narzędzi takich jak ChatGPT. Skontaktuj się, aby omówić audyt obecnych praktyk, zaprojektować wzorcowe prompty dla Twojego zespołu i zbudować procesy, które jednocześnie zwiększają efektywność pracy prawników i chronią tajemnicę zawodową oraz dane klientów.
FAQ – anonimizacja, AI i prawo
1. Czy korzystanie z ChatGPT bez anonimizacji może naruszać tajemnicę zawodową prawnika?
Tak, korzystanie z narzędzi takich jak ChatGPT bez uprzedniej, rzetelnej anonimizacji może realnie naruszać tajemnicę zawodową oraz standardy należytej staranności w wykonywaniu zawodu prawniczego. Każda treść przekazywana do zewnętrznego systemu AI jest co do zasady przetwarzana poza infrastrukturą kancelarii – często na serwerach podmiotów trzecich, nierzadko zlokalizowanych poza Europejskim Obszarem Gospodarczym. To oznacza, że dane mogą podlegać innym reżimom prawnym, jak np. prawu USA, a także regulaminom komercyjnej platformy, które przewidują m.in. automatyczne skanowanie rozmów i udział ludzkich recenzentów.
2. Jak prawidłowo anonimizować dane przed użyciem AI w kancelarii?
Prawidłowa anonimizacja w kontekście pracy prawnika to coś więcej niż proste „wymazanie nazwisk”. Chodzi o taki zakres przekształcenia danych, aby nie było możliwe zidentyfikowanie osoby ani sprawy, nawet przy użyciu dodatkowych informacji z zewnątrz. W praktyce oznacza to co najmniej kilka warstw działań.
Po pierwsze, należy usunąć wszystkie klasyczne dane osobowe: imiona, nazwiska, numery PESEL, NIP, adresy, e-maile, numery umów, sygnatury akt, nazwy spółek, a także dane wrażliwe (np. zdrowotne).
Po drugie, trzeba zredukować lub zmodyfikować „unikalne okoliczności” – bardzo charakterystyczne daty, miejsca, wysokości świadczeń czy opisy zdarzeń, które w połączeniu z ogólnie dostępnymi informacjami pozwoliłyby odgadnąć, o jaką sprawę chodzi.
Dobrą praktyką w prompt engineering dla prawników jest stosowanie neutralnych oznaczeń typu „Klient A”, „Pozwany B”, „Spółka X z branży IT”, „umowa licencyjna zawarta w 2023 r.” bez wskazywania konkretnego dnia, miasta czy bardzo szczegółowych parametrów.
Można także celowo zmieniać nieistotne elementy stanu faktycznego (np. kwoty, daty, lokalizacje), o ile nie zaburza to istoty problemu prawnego, który ma zostać przeanalizowany przez AI. Wreszcie, warto tworzyć w kancelarii wewnętrzne procedury i checklisty anonimizacji oraz szkolić zespół, aby proces był powtarzalny i nie zależał od uznaniowości pojedynczego prawnika. Tylko konsekwentna, systemowa anonimizacja minimalizuje ryzyko naruszenia tajemnicy zawodowej.
3. Czy istnieją bezpieczniejsze alternatywy dla publicznego ChatGPT w pracy prawnika?
Tak, rynek narzędzi AI dla prawników rozwija się dynamicznie i coraz częściej oferuje rozwiązania lepiej dostosowane do wymogów poufności niż ogólnodostępne, konsumenckie wersje ChatGPT.
Po pierwsze, część dostawców – w tym sam OpenAI – udostępnia warianty „enterprise” lub „business”, w których deklaruje się brak wykorzystywania danych klientów do trenowania modeli oraz zapewnia rozszerzone opcje kontroli i audytu. Jednak nawet wtedy należy dokładnie przeanalizować umowy powierzenia przetwarzania danych, jurysdykcję serwerów oraz zgodność z RODO i krajowymi regulacjami dotyczącymi wykonywania zawodu prawniczego.
Po drugie, na rynku LegalTech pojawiają się rozwiązania on‑premise lub hostowane w prywatnej chmurze kancelarii, gdzie model jest wdrażany w infrastrukturze kontrolowanej przez podmiot prawniczy lub zaufanego dostawcę z UE. Tego typu systemy – często budowane na bazie otwartych modeli – umożliwiają wprowadzenie dodatkowych zabezpieczeń: szyfrowania, rygorystycznych logów dostępu, integracji z DMS kancelarii czy ograniczeń uprawnień użytkowników.
Po trzecie, nawet korzystając z tych bezpieczniejszych opcji, nadal warto stosować anonimizację w ramach dobrego prompt engineering, szczególnie na etapie testów oraz w przypadku spraw o podwyższonym ryzyku (np. karnych, compliance, M&A o dużej wartości). Alternatywy istnieją, ale nie zdejmują z prawnika odpowiedzialności za ocenę ryzyk i wdrożenie polityki pracy z AI.
4. Jak połączyć efektywność prompt engineering z wymogami etyki zawodowej?
Efektywne korzystanie z AI w kancelarii nie polega na „wrzucaniu” do modelu całych akt, lecz na umiejętnym projektowaniu promptów w sposób, który pozwala wykorzystać moc narzędzia przy jednoczesnym uszanowaniu norm etycznych i prawnych. Kluczowe jest rozdzielenie dwóch warstw: warstwy problemu prawnego i warstwy danych klienta.
W dobrym prompt engineering prawnik opisuje modelowi strukturę problemu – np. „spór między wspólnikami spółki z o.o. dotyczący wyłączenia wspólnika z powodu rażącego naruszenia obowiązków” – zamiast przekazywać konkretne nazwiska, pełne fragmenty umów czy pisma procesowe z metadanymi.
Etyka zawodowa wymaga ponadto zachowania kontroli nad tym, jak wynik pracy AI jest używany. Oznacza to, że odpowiedzi modelu mogą służyć jako inspiracja, pomoc w researchu, wygenerowanie szkicu argumentacji czy listy zagadnień do dalszej analizy, ale nigdy nie powinny zastępować samodzielnej oceny prawnika.











