Co to jest okno kontekstowe? Jak wpływa na prompty

Kacper Sieradziński
Kacper Sieradziński
21 marca 2026Prompt Engineering3 min czytania

Rozmawiasz z AI i w połowie długiej rozmowy zauważasz że model "zapomniał" o czymś co powiedziałeś na początku. Albo wklejasz długi dokument i AI odpowiada na podstawie jego fragmentu. To nie błąd — to fizyczne ograniczenie zwane oknem kontekstowym. Zrozumienie go zmienia sposób w jaki piszesz prompty.

Obraz główny Co to jest okno kontekstowe? Jak wpływa na prompty

Co to jest okno kontekstowe?

Okno kontekstowe (ang. context window) to maksymalna ilość tekstu którą model może "widzieć" w jednym momencie. Wszystko co jest poza tym oknem — model po prostu nie widzi.

Myśl o tym jak o kartce papieru na biurku. Możesz na niej zmieścić określoną ilość tekstu. Gdy kartka się zapełni — nowe treści zacierają stare, albo po prostu nie mieszczą się.

Jednostka miary: tokeny (nie słowa). Jeden token ≈ 0,75 słowa po angielsku, po polsku trochę więcej ze względu na dłuższe formy wyrazów.

Przykładowe rozmiary okien kontekstowych (2025):

ModelOkno kontekstowe
GPT-4o128 000 tokenów (~95 000 słów)
Claude 3.5 Sonnet200 000 tokenów (~150 000 słów)
Gemini 1.5 Pro1 000 000 tokenów (~750 000 słów)
GPT-3.516 000 tokenów (~12 000 słów)

Dla porównania — ta strona ma około 700 słów, czyli ~930 tokenów.

Co "wchodzi" do okna kontekstowego?

W jednej rozmowie okno kontekstowe zawiera:

  • <b>System prompt</b> — instrukcje bazowe modelu (jeśli używasz API)
  • <b>Całą historię rozmowy</b> — Twoje wiadomości + odpowiedzi AI
  • <b>Wklejone dokumenty i dane</b>
  • <b>Bieżące zapytanie</b>

Suma tego wszystkiego musi się zmieścić w limicie. Gdy zbliżasz się do limitu — starsze części rozmowy mogą być obcinane.

Twój zespół płaci za Copilota i go nie używa?

Pomagamy firmom wycisnąć realne efekty z Microsoft 365 i Copilota. 30-minutowy bezpłatny audyt bez zobowiązań.

Praktyczne konsekwencje dla promptów

Problem 1: "Amnezja" w długich rozmowach

W długiej sesji AI przestaje pamiętać co mówiłeś na początku. To nie jest błąd inteligencji — to fizyka okna.

JavaScript
1 2 3 4 5 6 Przypomnij mi co ustaliliśmy do tej pory: - Cel projektu - Podjęte decyzje - Następny krok Kontynuujemy od punktu X.

Rozwiązanie: Przy długich projektach regularnie podsumowuj kontekst:

Problem 2: Analiza długich dokumentów

Wklejasz 50-stronicowy raport i prosisz o analizę. AI analizuje — ale może nie "widzieć" całości jeśli dokument jest bardzo długi.

JavaScript
1 2 Analizuję raport w częściach. Część 1 z 4: [tekst] Zanotuj kluczowe informacje — będziemy je łączyć w kolejnych krokach.

Rozwiązanie A: Podziel dokument na sekcje, analizuj po kawałku:

Rozwiązanie B: Wstępnie przefiltruj — wyciągnij tylko relevantne sekcje przed wklejeniem.

Problem 3: Zbyt długi system prompt

Jeśli używasz AI z bardzo rozbudowanym system promptem — zajmuje on część okna kontekstowego zanim jeszcze zaczniesz rozmowę.

Rozwiązanie: Trzymaj system prompt zwięzły. Dodatkowe instrukcje wstrzykuj w rozmowie gdy są potrzebne.

Jak sprawdzić ile kontekstu używasz?

W ChatGPT i Claude nie ma wbudowanego licznika tokenów. Możesz:

  • Użyć zewnętrznych tokenizatorów (np. <a href="https://platform.openai.com/tokenizer">platform.openai.com/tokenizer</a>)
  • Szacować: 1 strona A4 tekstu ≈ 500-700 tokenów
  • Obserwować: gdy AI zaczyna "zapominać" — jesteś blisko limitu

Okno kontekstowe a jakość odpowiedzi

Ważna rzecz: więcej kontekstu nie zawsze = lepsze odpowiedzi. Badania pokazują że modele radzą sobie gorzej gdy kluczowa informacja jest "zakopana" w środku bardzo długiego kontekstu — łatwiej ją "przeoczą" niż gdy jest na początku lub końcu.

Praktyczna zasada: Ważne instrukcje i kluczowe informacje umieszczaj na początku lub końcu promptu — nie zakopuj ich w środku długiego tekstu.

Kiedy długi kontekst pomaga?

  • Analiza długich dokumentów prawnych, umów, raportów
  • Sesje programowania gdzie AI widzi cały kod projektu
  • Rozmowy z wieloma iteracjami gdzie wcześniejszy kontekst jest kluczowy
  • Few-shot prompting z wieloma przykładami

Dalej w tym przewodniku

← Wróć do przewodnika: Prompt Engineering

  • <a href="/blog/prompt-engineering/zaawansowane-techniki">Zaawansowany prompt engineering — chain-of-thought i few-shot</a>
  • <a href="/blog/prompt-engineering/bledy-w-promptach">Najczęstsze błędy w promptach i jak ich unikać</a>
  • <a href="/blog/prompt-engineering/jak-pisac-prompty">Jak pisać prompty do AI — praktyczny poradnik</a>

Chcesz żeby Twój zespół rozumiał jak działa AI od środka i pisał skuteczniejsze prompty? Prowadzimy szkolenia z prompt engineeringu dla firm. Sprawdź ofertę →

Tagi

#prompt engineering#window context#okno kontekstowe