Kontekst, głupcze!
Tytułem niniejszego artykułu absolutnie nie zamierzam nikogo obrazić. Ale liczę na to, że uda się kogoś zaciekawić.
Jest to nawiązanie do słynnej frazy: „Gospodarka, głupcze!” stworzonej przez Jamesa Carville’a w 1992 roku, kiedy doradzał Billowi Clintonowi w jego udanej kampanii w wyborach prezydenckich w USA.
Tak jak oryginalna fraza miała zwrócić uwagę na to jak ważna w życiu publicznym jest silna gospodarka, tak parafraza podkreśla istotność dobrze sprecyzowanego kontekstu przy korzystaniu ze sztucznej inteligencji.
Dlaczego kontekst jest kluczowy?
Zacznijmy od podstaw.
Wyobraź sobie, że rozmawiasz z człowiekiem, którego spotkałeś pierwszy raz w życiu. Ty nie wiesz o nim nic, a on nie wie nic o tobie. Nie rozmawiasz z nim jak z bliskim współpracownikiem, z którym często możesz rozmawiać półsłówkami, a i tak doskonale się zrozumiecie.
Zwykle w pierwszej rozmowie budujesz jakiś swój obraz: przedstawiasz się, mówisz kim jesteś, gdzie pracujesz, czym się zajmujesz, interesujesz, na czym się znasz, ewentualnie kogo znasz itp. itd.
Jeśli jest to rozmowa na poziomie profesjonalnym (np. z potencjalnym klientem), to być może musisz opowiedzieć o swoim doświadczeniu, wiedzy, sukcesach.
Sztuczna inteligencja jest właśnie takim człowiekiem, który cię nie zna. Ma duży potencjał, aby zrozumieć, czego od niej oczekujesz, ale jeśli dostanie zapytanie bez odpowiedniej ilości informacji, to z prawdopodobieństwem graniczącym z pewnością, nie udzieli dobrej odpowiedzi.
Rozmowa prawnika z AI – analogia do rozmowy z człowiekiem.
Teraz wyobraź sobie zatem, że rozmawiasz z innym prawnikiem, którego pomocy szukasz. Analizujesz od kilku godzin, skomplikowaną sprawę i zabrnąłeś w ślepy zaułek. Rozmawiając z innym prawnikiem, z pewnością nie zaczniesz od pozbawionego kontekstu pytania. Zapewne najpierw opowiesz istotne okoliczności sprawy, odniesiesz to do przepisów, które analizujesz, wskażesz na dylemat, z którym się mierzysz, on zapewne zada do tego pytania, aby lepiej zrozumieć sytuację i dopiero po dłuższej dyskusji, gdy uzna, że ma pełny obraz, spróbuje udzielić odpowiedzi.
Jest to znakomita analogia do rozmowy z modelem AI.
Jak precyzyjnie formułować zapytania do AI?
Rozmowa ze sztuczną inteligencją wymaga bowiem bardzo konkretnego wskazania danych, na przykład: kim jesteśmy (np. prawnik, pełnomocnik w sprawie gospodarczej), czego potrzebujemy (orzeczenia Sądu Najwyższego wydanego po 2018 r. o wadliwym wypowiedzeniu umowy agencyjnej) i w jakim kontekście (wniosek o zabezpieczenie, apelacja). Bez tego nawet kompetentny rozmówca (tu mam na myśli człowieka) domyśli się tylko części sensu.
Z AI jest identycznie: bez rzetelnego kontekstu model „dopowie” luki stereotypem i zwróci orzeczenia jedynie podobne albo pozornie podobne.
Skuteczność wyszukiwania przez AI a zagrożenie halucynacjami.
Zatem skuteczność wyszukiwania orzeczeń czy rozwiązania problemu przez sztuczną inteligencję zależy wprost od jakości kontekstu podanego w zapytaniu: im precyzyjniej opisany zostanie stan faktyczny i problem prawny, tym większa szansa na trafne wyniki. W praktyce prawniczej brak tych detali zwiększa ryzyko „halucynacji”, czyli zmyślonych lub niewspieranych źródłami twierdzeń.
Można z tego wywieść wniosek, że modele AI są wymarzonym narzędziem dla rzeczowego humanisty, który może samodzielnie stworzyć skuteczny prompt, jeśli tylko oczywiście nie zatraci się w przekazywaniu informacji nieistotnych.
Rady praktyczne.
Pozwolę sobie na kilka rad w tym zakresie:
- Określ jurysdykcję, szczebel i publikację: „opublikowane orzeczenia SN 2019–2024” ogranicza zbiór i poprawia precyzję.
- Dodaj informację procesową: „w kontekście apelacji/wniosku o zabezpieczenie/zarzutów kasacyjnych” ułatwia dopasowanie linii orzeczniczej do etapu i naszych potrzeb.
- Wskaż istotne fakty: typ sprawy i okoliczności (np. „odpowiedzialność za produkt niebezpieczny, wada instrukcji, obrażenia użytkownika”) kierują wyszukiwanie do rzeczywiście zbieżnych stanów faktycznych.
- Używaj terminów prawnych/prawniczych i słów kluczowych: precyzja, brak kolokwializmów, minimalizują ryzyko mylenia instytucji.
- Testuj alternatywne ujęcia: zmiana brzmienia i rozbicie zapytania na węższe „podproblemy” pozwala wykryć niespójności i wychwycić halucynacje,
- Jeśli danego orzeczenia nie ma w źródłach odpowiedzi, poproś o link – taki brak sugeruję halucynację, a ty nie stracisz czasu na szukanie nieistniejącego orzeczenia.
- Wymagaj podania pełnych danych orzeczenia (sygnatura, data, sąd, publikacja) i krótkiego uzasadnienia z cytatem z uzasadnienia; brak tych elementów traktuj jako sygnał ostrzegawczy.
- Stosuj „stress-test” promptów: pytaj o przeciwną linię orzeczniczą, wyjątki oraz odróżnienia; niespójności sugerują błąd.
Dlaczego to ma znaczenie?
Należy pamiętać, że jako prawnicy operujemy na subtelnych różnicach: jedna okoliczność faktyczna lub inny etap postępowania potrafią zmienić wynik analizy i adekwatność wyniku. Modele generatywne mają tendencję do nadmiernej pewności i syntetyzowania „prawdopodobnych” odpowiedzi, co wymaga po stronie prawnika rygorystycznego podawania kontekstu i nawyku falsyfikacji wyników.
Nie zmienia to faktu, że sztuczna inteligencja, jeśli stosowana mądrze jest skutecznie narzędziem wspierającym i ułatwiającym pracę prawnika.
W skrócie — do zapamiętania:
- Bądź konkretny i dokładny.
- Podaj wszystkie istotne okoliczności sprawy.
- Używaj precyzyjnych, prawnych terminów i ograniczaj zbiór wyszukiwań.
- Weryfikuj źródła i uzasadnienia decyzji AI.
- Nie zadowalaj się tylko podobieństwem – doprecyzuj oczekiwania.

Marcin Szumlański
Adwokat, który od wielu lat prowadzi własną kancelarię prawną, wspierając klientów w rozwiązywaniu kompleksowych spraw z zakresu prawa gospodarczego i cywilnego. Jest ekspertem nie tylko w tradycyjnych obszarach prawa, ale także pasjonatem nowych technologii – szczególnie sztucznej inteligencji i jej praktycznych zastosowań w pracy prawnika. Prowadził szkolenie z zakresu inżynierii promptów dla prawników, dzieląc się wiedzą na temat skutecznego korzystania z AI w profesjonalnej praktyce adwokackiej.
Sekcja FAQ
Dlaczego kontekst jest tak ważny w komunikacji z AI dla prawników?
Kontekst w komunikacji z systemami sztucznej inteligencji pełni kluczową rolę w uzyskiwaniu precyzyjnych i użytecznych odpowiedzi, szczególnie w pracy prawniczej. Modele AI, w przeciwieństwie do ludzi, nie posiadają wcześniejszej wiedzy o użytkowniku, jego specjalizacji czy konkretnej sprawie, nad którą pracuje. Bez odpowiedniego kontekstu AI działa jak osoba spotykana po raz pierwszy – nie zna Twoich oczekiwań, roli zawodowej ani specyfiki zagadnienia. W praktyce prawniczej oznacza to konieczność precyzyjnego określenia: kim jesteśmy (np. pełnomocnik w sprawie gospodarczej), czego szukamy (np. orzeczenia Sądu Najwyższego z lat 2019-2024 dotyczące wadliwego wypowiedzenia umowy agencyjnej) oraz w jakim kontekście procesowym to potrzebujemy (apelacja, wniosek o zabezpieczenie). Brak takiego kontekstu prowadzi do odpowiedzi ogólnych, nieprecyzyjnych lub – co gorsza – do „halucynacji”, czyli generowania przez AI informacji pozornie prawdopodobnych, ale faktycznie błędnych lub nieistniejących. Jak pokazują badania Thomson Reuters, 79% prawników przewiduje transformacyjny wpływ AI na swoją pracę w ciągu najbliższych pięciu lat, jednak wielu z nich wciąż nie potrafi skutecznie formułować zapytań. Dlatego umiejętność budowania kontekstu w promptach – określana jako prompt engineering – staje się kluczową kompetencją współczesnego prawnika.
Jak unikać halucynacji AI przy wyszukiwaniu orzeczeń sądowych?
Halucynacje AI to jedno z największych zagrożeń w wykorzystywaniu sztucznej inteligencji w pracy prawniczej – model może generować informacje, które brzmią wiarygodnie, ale są zmyślone lub nie mają oparcia w rzeczywistych źródłach. Aby skutecznie minimalizować ryzyko halucynacji przy wyszukiwaniu orzeczeń, prawnik musi zastosować kilka kluczowych strategii weryfikacyjnych. Po pierwsze, należy zawsze wymagać pełnych danych orzeczenia: sygnatury akt, daty wydania, nazwy sądu oraz informacji o publikacji (np. numer w OSNC, LEX). Brak któregokolwiek z tych elementów powinien być traktowany jako sygnał ostrzegawczy. Po drugie, warto prosić o bezpośredni link do orzeczenia – jeśli AI nie może go podać lub link prowadzi donikąd, prawdopodobnie mamy do czynienia z halucynacją. Po trzecie, należy testować alternatywne sformułowania zapytań i rozbijać je na węższe „podproblemy” – niespójności w odpowiedziach AI na różne wersje tego samego pytania mogą ujawnić błędy. Czwarta strategia to „stress-test” promptów: należy pytać o przeciwną linię orzeczniczą, wyjątki od reguły oraz rozróżnienia między podobnymi stanami faktycznymi. Niespójności w odpowiedziach sugerują, że model generuje treść bez solidnego oparcia w faktach. Wreszcie, zawsze warto wymagać krótkiego uzasadnienia z cytatem z rzeczywistego uzasadnienia orzeczenia – autentyczne orzeczenia będą miały konkretne fragmenty tekstu, które można zweryfikować. Pamiętajmy, że modele generatywne mają tendencję do syntetyzowania „prawdopodobnych” odpowiedzi tam, gdzie brakuje im pewności, co w kontekście prawnym może prowadzić do poważnych konsekwencji.
W jaki sposób kontekst wpływa na jakość odpowiedzi AI w analizie spraw prawnych?
Kontekst ma bezpośredni i zasadniczy wpływ na jakość odpowiedzi generowanych przez systemy AI w analizie spraw prawnych. Prawo charakteryzuje się tym, że subtelne różnice w stanie faktycznym lub etapie postępowania mogą całkowicie zmienić zastosowanie norm prawnych i wynik sprawy. Model AI pozbawiony odpowiedniego kontekstu będzie operował na stereotypach i uogólnieniach, co w praktyce prawniczej prowadzi do odpowiedzi jedynie „podobnych” lub „pozornie podobnych”, ale ostatecznie nieadekwatnych. Na przykład, różnica między analizą na potrzeby wniosku o zabezpieczenie a przygotowaniem skargi kasacyjnej do Sądu Najwyższego wymaga zupełnie innego podejścia do linii orzeczniczej i argumentacji prawnej. Bez wskazania tego kontekstu, AI może zwrócić orzeczenia formalnie dotyczące podobnej materii, ale procesowo nieadekwatne. Podobnie, precyzyjne określenie ram czasowych (np. orzecznictwo po 2018 roku) jest kluczowe, ponieważ linia orzecznicza ewoluuje, a opieranie się na przestarzałych interpretacjach może zaszkodzić sprawie. Badania pokazują, że im bardziej szczegółowy i strukturalny kontekst zostanie dostarczony w prompcie, tym wyższa jakość i trafność odpowiedzi AI. Warto też pamiętać, że modele AI mają tendencję do wykazywania „nadmiernej pewności” w swoich odpowiedziach, nawet gdy operują na niepełnych danych. Dlatego prawnik musi zawsze stosować nawyk falsyfikacji wyników – krytycznie weryfikować informacje zwrócone przez AI, sprawdzać źródła i nie zadowalać się pierwszą odpowiedzią. Tylko połączenie eksperckiej wiedzy prawniczej z umiejętnością precyzyjnego budowania kontekstu w promptach pozwala w pełni wykorzystać potencjał AI jako narzędzia wspierającego pracę kancelarii.
Chcesz dowiedzieć się więcej o skutecznym wykorzystaniu AI w pracy prawniczej?
Zapraszamy do konsultacji i wymiany doświadczeń na temat prompt engineering oraz nowoczesnych technologii w kancelarii. Śledź nasz blog prawniczy MLex, aby być na bieżąco z najnowszymi trendami w digitalizacji prawa i praktycznymi wskazówkami dla prawników. Niedługo uruchamiamy dedykowane forum, dlatego warto być na bieżąco!








