Nie warto być uprzejmym, ale… warto się powtarzać. Dobre promptowanie to kraina paradoksów.
Pamiętacie, jak niedawno na łamach mLex.pl burzyliśmy mit o tym, że sztuczna inteligencja wymaga „kindersztuby”? Pisaliśmy wtedy wprost: uprzejmość wobec AI szkodzi skuteczności. Okazuje się, że świat Prompt Engineeringu ma dla nas kolejną niespodziankę, która brzmi jak żart, ale jest poparta twardymi danymi z Google Research.
Jeśli myśleliście, że inżynieria promptów to skomplikowana magia dostępna tylko dla programistów, mam dla Was dobrą wiadomość. Najnowsze odkrycie naukowców jest tak banalne, że aż trudno w nie uwierzyć. Sekret lepszych odpowiedzi brzmi: powtórz to. Dosłownie.
Prompt Repetition – metoda „kopiuj-wklej”, która zawstydza skomplikowane techniki
W opublikowanym w grudniu 2025 roku artykule naukowym „Prompt Repetition Improves Non-Reasoning LLMs”, badacze z Google Research (Yaniv Leviathan, Matan Kalman i Yossi Matias) wykazali coś fascynującego. Okazuje się, że proste powtórzenie całego promptu wejściowego znacząco poprawia wyniki popularnych modeli językowych, takich jak Gemini, GPT-4o czy Claude 3.5 Sonnet.
Nie chodzi tu o parafrazowanie czy dodawanie kontekstu. Chodzi o absolutnie ordynarne, „bezmyślne” sklejenie tego samego polecenia dwa razy.
W testach przeprowadzonych na 7 popularnych modelach i 7 benchmarkach, ta technika, nazwana Prompt Repetition, wygrała w 47 na 70 przypadków, nie przegrywając ani razu. Co więcej, w zadaniach wymagających precyzji, jak wyciąganie danych z listy (np. „podaj 25. nazwisko z listy”), skuteczność Gemini 2.0 Flash-Lite wzrosła z mizernych 21,33% do imponujących 97,33%.
Dlaczego to w ogóle działa? Mechanika atencji w pigułce
Dla prawnika może to brzmieć nielogicznie. Przecież jeśli powiem do asystenta dwa razy „przynieś mi akta”, nie stanie się on przez to mądrzejszy. Modele językowe działają jednak inaczej. Są to modele przyczynowe (causal language models). Oznacza to, że generując odpowiedź, „patrzą” wstecz na to, co już przeczytały.
Kiedy powtarzamy prompt, dajemy modelowi drugą szansę na „zrozumienie” relacji między słowami. Każdy token (część słowa) w drugiej kopii promptu może „zwracać uwagę” (attend) na tokeny z pierwszej kopii. To trochę tak, jakbyśmy czytali trudny paragraf w umowie dwa razy, żeby upewnić się, że dobrze rozumiemy kontekst, zanim zaczniemy pisać opinię prawną.
Co to oznacza dla prawników korzystających z AI?
To odkrycie idealnie wpisuje się w naszą tezę, że AI w kancelarii nie potrzebuje kurtuazji, ale precyzyjnych, technicznych instrukcji.
Zastosowanie w analizie dokumentów:
Wyobraź sobie, że wklejasz do modelu długą umowę i prosisz o znalezienie klauzuli waloryzacyjnej. Zgodnie z badaniami, jeśli wkleisz treść umowy i pytanie, a potem… zrobisz to jeszcze raz w tym samym okienku czatu, szansa na poprawną, „halucynacjo-odporną” odpowiedź drastycznie rośnie.
Efektywność kosztowa:
Mogłoby się wydawać, że dwa razy dłuższy prompt to dwa razy wyższy koszt i dłuższy czas oczekiwania. I tu kolejny paradoks! Badacze wykazali, że Prompt Repetition nie zwiększa opóźnień (latency) ani liczby generowanych tokenów wyjściowych. Wydłuża się jedynie czas przetwarzania wstępnego (prefill), który w nowoczesnych modelach jest realizowany równolegle i jest bardzo tani.
Kiedy NIE stosować tej metody?
Artykuł z Google Research wskazuje jeden ważny wyjątek: modele „rozumujące” (reasoning models), takie jak seria o1 od OpenAI czy modele wykorzystujące Chain of Thought („pomyśl krok po kroku”). Te modele same w sobie wykonują proces „wewnętrznego powtarzania i analizy”, więc dublowanie promptu przez użytkownika daje tam wyniki neutralne lub tylko nieznacznie lepsze.
Jeśli więc korzystasz z szybszych, standardowych modeli (GPT-4o, Claude 3.5 Sonnet, Gemini Flash) do szybkiej analizy orzecznictwa lub wyszukiwania danych – powtarzaj się. Jeśli używasz modeli „myślących” do skomplikowanej strategii procesowej – możesz sobie darować.
Podsumowując:
1. Nie bądź miły (szkoda tokenów).
2. Bądź „papugą” (powtórz polecenie dwa razy).
3. Ciesz się lepszymi wynikami bez dodatkowych kosztów.
Prompt Engineering w 2026 roku to doprawdy kraina paradoksów!
Źródło naukowe: Prompt Repetition Improves Non-Reasoning LLMs, arXiv:2512.14982
Nie trać czasu na wymyślanie promptów. Weź moje.
Artykuł pokazał Ci jeden prosty hack. W naszej zamkniętej grupie mlex.pl mamy ich znacznie więcej – w tym gotowe szablony promptów, które testowaliśmy na setkach spraw.
Uruchamiamy właśnie zamkniętą grupę testową. Oprócz bazy wiedzy, dostaniesz dostęp do naszej aplikacji szukającej właściwości sądowej (działa precyzyjniej niż wyszukiwarka).
Zasady są proste:
- Wchodzisz jako jeden z pierwszych „Foundersów”.
- Testujesz i dajesz mi znać, co myślisz.
- Płacisz 29,99 zł miesięcznie (i ta cena zostaje dla Ciebie zamrożona na zawsze).
To uczciwy deal – koszt jednej kawy, a zwraca Ci godziny pracy.
👉 [Chcę dołączyć do grupy założycielskiej za 29,99 zł]

Marcin Szumlański
Adwokat, który od wielu lat prowadzi własną kancelarię prawną, wspierając klientów w rozwiązywaniu kompleksowych spraw z zakresu prawa gospodarczego i cywilnego.
Jest ekspertem nie tylko w tradycyjnych obszarach prawa, ale także pasjonatem nowych technologii – szczególnie sztucznej inteligencji i jej praktycznych zastosowań w pracy prawnika.
Prowadził szkolenie z zakresu inżynierii promptów dla prawników, dzieląc się wiedzą na temat skutecznego korzystania z AI w profesjonalnej praktyce adwokackiej.









