AI kłamie, żeby Cię zadowolić. Czym jest sykofancja i dlaczego jest niebezpieczna?
AI jako cyfrowy „klakier”. Czym jest sykofancja i dlaczego to ryzyko dla kancelarii?
W świecie technologii prawnych (LegalTech) często skupiamy się na halucynacjach jako błędach merytorycznych. Jednak opublikowane we wrześniu 2025 roku badanie „Simulating AI Psychosis, Delusion Reinforcement and Harm Enablement in Large Language Models” rzuca nowe światło na mechanizm, który może być znacznie groźniejszy dla praktyki prawniczej: sykofancję oraz zjawisko „AI Psychosis”.
Termin ten, choć brzmi medycznie, w kontekście pracy z Dużymi Modelami Językowymi (LLM) opisuje proces, w którym sztuczna inteligencja, zamiast korygować błędne założenia użytkownika, aktywnie je wzmacnia.
Dla prawnika korzystającego z inżynierii promptowania jest to sygnał alarmowy. Badacze zdefiniowali „AI Psychosis” jako wystąpienie lub zaostrzenie niekorzystnych objawów psychologicznych po intensywnej interakcji z generatywną sztuczną inteligencją. Kluczowym motorem tego zjawiska jest sykofancja – wbudowana w modele tendencja do bycia „ugodowym” i potwierdzania przekonań użytkownika, nawet jeśli są one fałszywe lub urojeniowe.
Wniosek jest prosty: Skoro AI potrafi utwierdzić chorego w urojeniach, z taką samą łatwością może utwierdzić prawnika w błędnej interpretacji przepisu, jeśli ten zasugeruje ją w pytaniu.
Mechanizm sykofancji: Gdy AI staje się niebezpiecznym „klakierem”
Sykofancja (ang. sycophancy) to techniczne określenie na zachowanie modelu, który priorytetyzuje zgodność z intencją użytkownika ponad faktyczną prawdę. W badaniu wykazano, że modele LLM mają silną tendencję do „mimikry fałszu” (falsehood mimicry). Oznacza to, że model woli udzielić odpowiedzi, która „podoba się” użytkownikowi, niż takiej, która jest obiektywnie prawdziwa.
W eksperymencie Psychosis-bench wykazano niemal automatyczną tendencję do utrwalania błędnych założeń zamiast ich kwestionowania.
Przenosząc to na grunt prawniczej inżynierii promptowania: zadanie pytania z tezą (np. „Znajdź orzecznictwo potwierdzające, że X jest legalne”, gdy w rzeczywistości nie jest) stwarza olbrzymie ryzyko, że AI „wymyśli” argumentację prawną tylko po to, by spełnić oczekiwania promptującego mecenasa.
4 fazy destabilizacji: Wnioski z raportu Psychosis-Bench
Autorzy badania zidentyfikowali cztery fazy interakcji, które prowadzą do utrwalenia błędnych przekonań. Choć model stworzono na potrzeby analizy psychologicznej, jego struktura idealnie obrazuje, jak prawnik może wpaść w pułapkę błędu poznawczego przy pracy z AI:
- Faza 1: Wstępne zaangażowanie (Initial Engagement). Użytkownik buduje zaufanie do narzędzia,zadając proste pytania i otrzymując poprawne odpowiedzi.
- Faza 2: Poszukiwanie wzorców (Pattern Seeking). Użytkownik zaczyna testować swoje hipotezy. To tutaj następuje „dwukierunkowe wzmocnienie przekonań” (bidirectional belief amplification) – AI zaczyna walidować błędne tezy.
- Faza 3: Utrwalenie (Solidification). AI staje się jedynym zaufanym źródłem, a użytkownik izoluje się od zewnętrznych weryfikatorów (np. kodeksu czy komentarza).
- Faza 4: Działanie (Behavioral Enactment). Użytkownik podejmuje działania w świecie rzeczywistym na podstawie halucynacji AI.
Dla kancelarii prawnych faza 3 i 4 są krytyczne. Oznaczają one moment, w którym prawnik przestaje weryfikować output modelu (np. draft pisma procesowego), uznając go za poprawny, ponieważ model był przekonujący w poprzednich turach konwersacji.
Zagrożenie w „ukrytych” promptach (Implicit Scenarios)
Niezwykle istotnym wnioskiem dla inżynierii promptowania jest różnica między zapytaniami jawnymi (explicit) a ukrytymi (implicit). Badanie wykazało, że modele radzą sobie znacznie gorzej z wyłapywaniem ryzyka, gdy użytkownik formułuje myśli w sposób niebezpośredni.
W scenariuszach „ukrytych” modele były znacznie bardziej skłonne do potwierdzania urojeń i rzadziej oferowały interwencje bezpieczeństwa. W praktyce oznacza to, że subtelnie sformułowany prompt, który zawiera błąd logiczny, ma większą szansę na wygenerowanie mylącej porady, którą systemy bezpieczeństwa AI przepuszczą bez ostrzeżenia.
Ciekawostka z badania: Najbezpieczniejszym modelem okazał się Claude-Sonnet-4, podczas gdy inne modele miały wyższe wskaźniki ulegania sugestiom
Jak bezpiecznie promptować? Implikacje dla prawników
Wyniki badania dowodzą, że „bezpieczeństwo nie jest emergentną cechą samej skali modelu” – większe modele nie zawsze są mądrzejsze w unikaniu sykofancji. Dlatego profesjonalne korzystanie z AI w prawie wymaga przyjęcia zasady ograniczonego zaufania.
Aby uniknąć opisanego ryzyka, stosuj techniki promptowania wymuszające obiektywizm:
- Promptowanie kontradyktoryjne: „Przedstaw argumenty za moją tezą, a następnie przeprowadź krytyczną analizę, dlaczego ta teza może być błędna w świetle orzecznictwa SN”.
- Weryfikacja krok-po-kroku (Chain of Thought): Zmuszaj model do wyjaśnienia logicznego ciągu przyczynowo-skutkowego – to często ujawnia halucynacje.
- Unikanie pytań sugerujących: Zamiast „Dlaczego ta umowa jest nieważna?”, zapytaj: „Przeanalizuj ważność tej umowy w świetle art. 58 KC”.
Pamiętajmy, że AI w obecnym kształcie ma tendencję do przedkładania komfortu użytkownika nad fakty. Zadaniem prawnika jest wymuszenie na modelu zmiany tego priorytetu.
Call-to-Action:
Zauważyłeś, że AI zbyt często „zgadza się” z Twoimi tezami, nawet gdy masz wątpliwości? Nie ryzykuj błędu w sztuce.
Uruchamiamy właśnie zamkniętą grupę testową. Oprócz bazy wiedzy, dostaniesz dostęp do naszej aplikacji szukającej właściwości sądowej (działa precyzyjniej niż wyszukiwarka).
Zasady są proste:
- Wchodzisz jako jeden z pierwszych „Foundersów”.
- Testujesz i dajesz mi znać, co myślisz.
- Płacisz 29,99 zł miesięcznie (i ta cena zostaje dla Ciebie zamrożona na zawsze).
To uczciwy deal – koszt jednej kawy, a zwraca Ci godziny pracy.
👉 [Chcę dołączyć do grupy założycielskiej za 29,99 zł]

Marcin Szumlański
Adwokat, który od wielu lat prowadzi własną kancelarię prawną, wspierając klientów w rozwiązywaniu kompleksowych spraw z zakresu prawa gospodarczego i cywilnego.
Jest ekspertem nie tylko w tradycyjnych obszarach prawa, ale także pasjonatem nowych technologii – szczególnie sztucznej inteligencji i jej praktycznych zastosowań w pracy prawnika.
Prowadził szkolenie z zakresu inżynierii promptów dla prawników, dzieląc się wiedzą na temat skutecznego korzystania z AI w profesjonalnej praktyce adwokackiej.
FAQ: AI Psychosis i bezpieczeństwo pracy z LLM
1. Czym dokładnie jest sykofancja w modelach językowych i jak wpływa na rzetelność odpowiedzi prawnych?
Sykofancja (ang. sycophancy) w kontekście Dużych Modeli Językowych (LLM) to tendencja algorytmu do dostosowywania swoich odpowiedzi do poglądów, przekonań lub oczekiwań użytkownika, nawet kosztem prawdy obiektywnej. Jak wskazują badania z września 2025 roku, modele są trenowane m.in. metodą RLHF (Reinforcement Learning from Human Feedback), co premiuje odpowiedzi, które są „pomocne” i „przyjemne” dla oceniających, ale niekoniecznie faktograficzne.
2. Czy istnieją modele AI, które są bezpieczniejsze dla prawników?
Tak, badania wykazują istotne różnice w poziomie bezpieczeństwa poszczególnych modeli, co ma kluczowe znaczenie przy wyborze narzędzi do kancelarii. W testach przeprowadzonych na potrzeby raportu najlepiej wypadł model Claude-Sonnet-4, który uzyskał najniższe wskaźniki potwierdzania urojeń (DCS) i umożliwiania szkody (HES), oferując jednocześnie najwięcej interwencji bezpieczeństwa (średnio 4,56 na scenariusz). Dla porównania, model Gemini-2.5-flash wypadł najgorzej, często walidując błędne przekonania użytkowników.
Wniosek dla prawników jest jasny: nie każdy model nadaje się do profesjonalnych zastosowań. Przy wyborze silnika AI do analizy umów czy researchu prawnego należy kierować się nie tylko szybkością czy ceną.









