Kontekst, głupcze!

Tytułem niniejszego artykułu absolutnie nie zamierzam nikogo obrazić. Ale liczę na to, że uda się kogoś zaciekawić. 

Jest to nawiązanie do słynnej frazy: „Gospodarka, głupcze!” stworzonej przez Jamesa Carville’a w 1992 roku, kiedy doradzał Billowi Clintonowi w jego udanej kampanii w wyborach prezydenckich w USA.

Tak jak oryginalna fraza miała zwrócić uwagę na to jak ważna w życiu publicznym jest silna gospodarka, tak parafraza podkreśla istotność dobrze sprecyzowanego kontekstu przy korzystaniu ze sztucznej inteligencji.

Dlaczego kontekst jest kluczowy?

Zacznijmy od podstaw. 

Wyobraź sobie, że rozmawiasz z człowiekiem, którego spotkałeś pierwszy raz w życiu. Ty nie wiesz o nim nic, a on nie wie nic o tobie. Nie rozmawiasz z nim jak z bliskim współpracownikiem, z którym często możesz rozmawiać półsłówkami, a i tak doskonale się zrozumiecie.

Zwykle w pierwszej rozmowie budujesz jakiś swój obraz: przedstawiasz się, mówisz kim jesteś, gdzie pracujesz, czym się zajmujesz, interesujesz, na czym się znasz, ewentualnie kogo znasz itp. itd.

Jeśli jest to rozmowa na poziomie profesjonalnym (np. z potencjalnym klientem), to być może musisz opowiedzieć o swoim doświadczeniu, wiedzy, sukcesach. 

Sztuczna inteligencja jest właśnie takim człowiekiem, który cię nie zna. Ma duży potencjał, aby zrozumieć, czego od niej oczekujesz, ale jeśli dostanie zapytanie bez odpowiedniej ilości informacji, to z prawdopodobieństwem graniczącym z pewnością, nie udzieli dobrej odpowiedzi.

Rozmowa prawnika z AI – analogia do rozmowy z człowiekiem.

Teraz wyobraź sobie zatem, że rozmawiasz z innym prawnikiem, którego pomocy szukasz. Analizujesz od kilku godzin, skomplikowaną sprawę i zabrnąłeś w ślepy zaułek. Rozmawiając z innym prawnikiem, z pewnością nie zaczniesz od pozbawionego kontekstu pytania. Zapewne najpierw opowiesz istotne okoliczności sprawy, odniesiesz to do przepisów, które analizujesz, wskażesz na dylemat, z którym się mierzysz, on zapewne zada do tego pytania, aby lepiej zrozumieć sytuację i dopiero po dłuższej dyskusji, gdy uzna, że ma pełny obraz, spróbuje udzielić odpowiedzi.

Jest to znakomita analogia do rozmowy z modelem AI.

Jak precyzyjnie formułować zapytania do AI?

Rozmowa ze sztuczną inteligencją wymaga bowiem bardzo konkretnego wskazania danych, na przykład: kim jesteśmy (np. prawnik, pełnomocnik w sprawie gospodarczej), czego potrzebujemy (orzeczenia Sądu Najwyższego wydanego po 2018 r. o wadliwym wypowiedzeniu umowy agencyjnej) i w jakim kontekście (wniosek o zabezpieczenie, apelacja). Bez tego nawet kompetentny rozmówca (tu mam na myśli człowieka) domyśli się tylko części sensu. 

Z AI jest identycznie: bez rzetelnego kontekstu model „dopowie” luki stereotypem i zwróci orzeczenia jedynie podobne albo pozornie podobne.

Skuteczność wyszukiwania przez AI a zagrożenie halucynacjami.

Zatem skuteczność wyszukiwania orzeczeń czy rozwiązania problemu przez sztuczną inteligencję zależy wprost od jakości kontekstu podanego w zapytaniu: im precyzyjniej opisany zostanie stan faktyczny i problem prawny, tym większa szansa na trafne wyniki. W praktyce prawniczej brak tych detali zwiększa ryzyko „halucynacji”, czyli zmyślonych lub niewspieranych źródłami twierdzeń.

Można z tego wywieść wniosek, że modele AI są wymarzonym narzędziem dla rzeczowego humanisty, który może samodzielnie stworzyć skuteczny prompt, jeśli tylko oczywiście nie zatraci się w przekazywaniu informacji nieistotnych.

Rady praktyczne.

Pozwolę sobie na kilka rad w tym zakresie:

  • Określ jurysdykcję, szczebel i publikację: „opublikowane orzeczenia SN 2019–2024” ogranicza zbiór i poprawia precyzję.  
  • Dodaj informację procesową: „w kontekście apelacji/wniosku o zabezpieczenie/zarzutów kasacyjnych” ułatwia dopasowanie linii orzeczniczej do etapu i naszych potrzeb.  
  • Wskaż istotne fakty: typ sprawy i okoliczności (np. „odpowiedzialność za produkt niebezpieczny, wada instrukcji, obrażenia użytkownika”) kierują wyszukiwanie do rzeczywiście zbieżnych stanów faktycznych.  
  • Używaj terminów prawnych/prawniczych i słów kluczowych: precyzja, brak kolokwializmów, minimalizują ryzyko mylenia instytucji.  
  • Testuj alternatywne ujęcia: zmiana brzmienia i rozbicie zapytania na węższe „podproblemy” pozwala wykryć niespójności i wychwycić halucynacje,
  • Jeśli danego orzeczenia nie ma w źródłach odpowiedzi, poproś o link – taki brak sugeruję halucynację, a ty nie stracisz czasu na szukanie nieistniejącego orzeczenia.
  • Wymagaj podania pełnych danych orzeczenia (sygnatura, data, sąd, publikacja) i krótkiego uzasadnienia z cytatem z uzasadnienia; brak tych elementów traktuj jako sygnał ostrzegawczy.  
  • Stosuj „stress-test” promptów: pytaj o przeciwną linię orzeczniczą, wyjątki oraz odróżnienia; niespójności sugerują błąd.  

Dlaczego to ma znaczenie?

Należy pamiętać, że jako prawnicy operujemy na subtelnych różnicach: jedna okoliczność faktyczna lub inny etap postępowania potrafią zmienić wynik analizy i adekwatność wyniku. Modele generatywne mają tendencję do nadmiernej pewności i syntetyzowania „prawdopodobnych” odpowiedzi, co wymaga po stronie prawnika rygorystycznego podawania kontekstu i nawyku falsyfikacji wyników. 

Nie zmienia to faktu, że sztuczna inteligencja, jeśli stosowana mądrze jest skutecznie narzędziem wspierającym i ułatwiającym pracę prawnika.

W skrócie — do zapamiętania:

  • Bądź konkretny i dokładny.
  • Podaj wszystkie istotne okoliczności sprawy.
  • Używaj precyzyjnych, prawnych terminów i ograniczaj zbiór wyszukiwań.
  • Weryfikuj źródła i uzasadnienia decyzji AI.
  • Nie zadowalaj się tylko podobieństwem – doprecyzuj oczekiwania.

Marcin Szumlański