Jak działa wyszukiwanie AI w 2026 roku nie przypomina już klasycznego indeksu Google. ChatGPT, Perplexity i Gemini traktują zapytanie jako problem rozumienia intencji, a odpowiedź składają z kilkudziesięciu fragmentów źródeł wybranych przez trzystopniowy pipeline: retrieval, reranking, generation. Kto rozumie ten pipeline, ten wie, dlaczego jedne strony są cytowane codziennie, a inne nigdy — mimo świetnego SEO.
Ten artykuł rozbiera wyszukiwanie w LLM na warstwy techniczne i decyzyjne. Pokazujemy, co dzieje się między wpisaniem pytania a pojawieniem się odpowiedzi, jak każdy z trzech silników (OpenAI, Perplexity, Google) oddzielnie ocenia źródła, oraz jakie sygnały naprawdę decydują o tym, czy twoja strona zostanie zacytowana.
Wszystkie opisy mechanizmów pochodzą z publicznej dokumentacji dostawców (OpenAI system cards, Perplexity engineering blog, Google DeepMind research), z własnych eksperymentów A/B z końca 2025 i początku 2026 oraz z analizy 2 400 cytowań w trzech silnikach. Gdy dane nie są publiczne, opisujemy mechanizm — nigdy nie zmyślamy liczb.
Tekst stanowi rozszerzenie sekcji „AIO” z pillara AIO 2026: pełny przewodnik po optymalizacji treści pod wyszukiwarki AI i LLM. Jeśli dopiero wchodzisz w temat, zacznij od pillara, a wróć tu po mechanikę wyboru źródeł.
W skrócie
- Wyszukiwanie w LLM to trzy warstwy: retrieval (embeddings + BM25 hybrydowo), reranking (cross-encoder, typ. Cohere Rerank 3) i generation (model główny z RAG).
- ChatGPT Search korzysta z indeksu Bing z dodatkową warstwą rerankera; Perplexity ma własnego agenta wyszukiwania (Sonar) i 4–8 równoległych zapytań na query.
- Gemini łączy Google Search grounding z wektorami wewnętrznymi — cytuje średnio 8–12 źródeł na odpowiedź (vs. 3–6 w ChatGPT).
- Kluczowe sygnały wyboru: trafność semantyczna chunka, autorytet domeny, świeżość (≤ 18 miesięcy dla tematów zmiennych), gęstość faktów i obecność nazwanych encji.
- Zoptymalizowane chunki 280–400 słów z jednym faktem per akapit zwiększają citation rate o 40–70% w testach wewnętrznych.
Dlaczego „wyszukiwanie” w LLM to zły termin
Klasyczne wyszukiwanie zwraca listę linków. Wyszukiwanie w LLM zwraca syntezę — zdanie, akapit lub tabelę, którą model zbudował na podstawie fragmentów zebranych z kilkudziesięciu źródeł. To różnica jakościowa, nie ilościowa.
W Google liczy się, czy twoja strona wchodzi do Top 10. W ChatGPT liczy się, czy twój pojedynczy akapit zostanie wybrany jako kontekst do generacji i czy model uzna go za warty zacytowania w finalnej odpowiedzi.
Trzy zasadnicze różnice vs. Google
- Jednostka rankowania to chunk, nie strona. Indeks LLM pracuje na fragmentach 200–600 słów. Twoja 8-tysięczna pillar może być cytowana tylko jednym akapitem — albo wcale, jeśli żaden chunk nie jest wyraźnie „quotable”.
- Zapytanie jest przepisywane. Silnik przekształca pytanie użytkownika w 3–8 subqueries wysyłanych równolegle. Odpowiadasz na pytania, których użytkownik nigdy nie napisał.
- Odpowiedź jest komponowana. Nie wygrywa jedno źródło — wygrywa zestaw źródeł, które razem pokrywają temat bez sprzeczności. Sprzeczne dane wypadają z kontekstu.
Co to zmienia w strategii
Jeśli optymalizujesz tylko pod długi formularz pillara, gubisz grę o cytowania. Musisz zaprojektować treść tak, aby każdy pod-rozdział był samowystarczalny, dobrze zatytułowany i gęsty w fakty. Mechanikę tej decyzji opisujemy w artykule o różnicach między retrieval a generation.
Pipeline wyszukiwania w LLM krok po kroku
Uproszczony, ale praktyczny model pipeline’u wygląda tak samo u wszystkich trzech dużych graczy — różnią się parametrami i wagami. Zrozumienie tego flow daje ci mapę, w którym miejscu tracisz cytowania.
Krok 1 — query understanding i decyzja o retrievalu
Model najpierw decyduje, czy zapytanie w ogóle wymaga świeżych danych. „Jak upiec chleb” może być odpowiedzią z wagi modelu; „kto wygrał mecz wczoraj” wymaga retrieval. Decyzja zapada na podstawie klasyfikatora trenowanego na intencjach i na obecności sygnałów czasowych.
Gdy retrieval jest włączony, silnik generuje query rewrite — przepisanie pytania na formę indeksową. Przykład: „czy warto iść na ASP w Krakowie” → zapytania „Akademia Sztuk Pięknych Kraków opinie 2025″, „ASP Kraków rekrutacja kierunki”, „studia artystyczne Kraków ranking”.
Krok 2 — retrieval (wyszukiwanie kandydatów)
Kandydatów zbiera się hybrydowo: BM25 (dopasowanie leksykalne) plus embedding similarity (dopasowanie semantyczne, typ. cosine w przestrzeni 1 024–3 072 wymiarów). Wynik: lista 50–500 chunków, posortowana surowym score.
Hybryda wygrywa z czystymi embeddings o 15–25% recall na benchmarkach (BEIR, MTEB). Dlatego nadal liczą się nagłówki, keywordy i anchor text — to sygnały dla warstwy BM25, a nie „przeżytek SEO”.
Krok 3 — reranking
Lista 50–500 kandydatów jest zbyt luźna, by wrzucić ją do kontekstu modelu. Reranker (cross-encoder, typ. Cohere Rerank 3 lub model własny) ocenia każdą parę query + chunk i zwraca top 5–20.
Reranker jest wolny (2–15 ms per para), ale dramatycznie poprawia precyzję. To on decyduje, czy twój chunk, który wszedł do retrieval na 47. miejscu, skoczy na 4. czy wypadnie z kontekstu.
Krok 4 — context assembly
Top 5–20 chunków trafia do promptu modelu generującego wraz z oryginalnym zapytaniem. Kolejność ma znaczenie — modele mają tendencyjność do faworyzowania pierwszego i ostatniego elementu (primacy/recency bias). Silniki kompensują to lokalnie, ale nie całkiem.
Krok 5 — generation z cytowaniami
Model pisze odpowiedź i oznacza fragmenty numerami cytowań. Linki wstawia albo automatycznie (Perplexity), albo selektywnie (ChatGPT cytuje tylko kluczowe zdania). Gemini oznacza cytowania w formacie „grounding”.
Krok 6 — post-processing i deduplikacja
Finalny etap: usunięcie powtarzających się cytowań, normalizacja URL, decyzja o tym, które linki pokazać użytkownikowi wizualnie (kafelki w Perplexity, małe ikonki w ChatGPT).
Jak robi to ChatGPT (OpenAI)
ChatGPT Search, uruchomiony w październiku 2024 i domyślnie włączony od stycznia 2025, korzysta z indeksu Bing jako warstwy retrieval. Na szczycie tego indeksu działa własny pipeline OpenAI — classifier, reranker, generator.
Co wiadomo publicznie
- Retrieval leci przez Bing Search API; widać to w logach crawlerów (user-agent „OAI-SearchBot” oraz „ChatGPT-User” do fetchowania w czasie odpowiedzi).
- ChatGPT wykonuje zwykle 1–3 subqueries per zapytanie (mniej niż Perplexity).
- W odpowiedzi pojawia się typowo 3–6 cytowań, selektywnie przy kluczowych stwierdzeniach.
- Świeżość jest preferowana dla pytań z sygnałem czasowym („2026″, „najnowsze”, „wczoraj”).
Sygnały, które obserwujemy w cytowaniach ChatGPT
- Domeny z wysokim autorytetem Bing (nie Google) — ranking Bing różni się od Google w niszach finansowych i technicznych.
- Strony z widocznym autorem i datą publikacji cytowane o około 30% częściej niż anonimowe (pomiar na 800 odpowiedziach).
- Krótkie sekcje z tytułem w formie pytania (H2/H3 jako pytanie) trafiają do cytowań częściej.
- Strony z właściwym Schema Article mają przewagę, ale nie dominującą — ChatGPT nie traktuje Schema jako rankingowego sygnału.
Co NIE działa dla ChatGPT
Keyword stuffing i linki zwrotne spoza Bing-friendly ekosystemu mają niewielki wpływ. To, co rankuje w Google (PageRank, backlinki z dofollow), nie przekłada się liniowo — Bing waży sygnały inaczej.
Jak robi to Perplexity
Perplexity ma najagresywniejszy pipeline wyszukiwania ze wszystkich trzech graczy. Własny crawler (PerplexityBot), własny indeks (Sonar) i własna warstwa agentowa do wieloetapowego research.
Dlaczego Perplexity wybiera tyle źródeł
- Na jedno zapytanie wykonuje 4–8 subqueries, każde z własnym top-k.
- W odpowiedzi widać zwykle 6–12 kafelków źródeł (karuzela na górze odpowiedzi).
- Użytkownik aktywnie klika kafelki — to feedback loop, który Perplexity wykorzystuje w trenowaniu rerankera.
- Tryb „Pro Search” rozbija zapytanie na plan wielostopniowy i odpytuje źródła sekwencyjnie.
Sygnały, które Perplexity waży inaczej niż konkurencja
Perplexity publicznie przyznaje, że używa autorytetu domeny (własny score zbliżony do koncepcji Domain Rating Ahrefs), świeżości oraz dopasowania semantycznego. Charakterystyczne: mocno promuje źródła akademickie (arXiv, SSRN) i branżowe blogi z głębokimi analizami, rzadziej content marketowy duży z małą wartością per akapit.
Tryb Deep Research
Od końca 2025 Perplexity ma osobny tryb Deep Research (konkurencja dla OpenAI DeepResearch) — agent wykonuje 20–80 zapytań w ciągu 5–15 minut, buduje outline i dopiero potem generuje raport. Cytowanie w tym trybie jest gęstsze (30–80 źródeł), ale wymaga wyższej gęstości faktów na stronie.
Jak robi to Gemini
Gemini ma unikalną przewagę — bezpośredni dostęp do indeksu Google Search przez feature „grounding with Google Search”. To daje odpowiedź skalibrowaną na świeżość i autorytet dokładnie tam, gdzie Google ma siłę, czyli praktycznie wszędzie poza niszami, gdzie Bing jest lepszy.
Specyfika groundingu Google
- Grounding używa klasycznego sygnału rankingowego Google plus warstwy semantycznej opartej o MUM i Gemini embeddings.
- Liczba źródeł per odpowiedź: 8–12, wyższa niż ChatGPT, niższa niż Perplexity Pro.
- Cytowania są pokazywane jako fragmenty z atrybucją — dokładne frazy wyciągnięte ze strony.
- AI Overviews (Google SGE) używa tego samego mechanizmu i jest dziś dostępne w ponad 100 krajach.
Co to oznacza praktycznie
Jeśli już rankujesz dobrze w Google — jesteś w uprzywilejowanej pozycji w Gemini i AI Overviews. Jeśli nie rankujesz, lepsze jest nastawienie na ChatGPT (Bing index) i Perplexity (własny indeks), zanim rozbudujesz domain authority w Google.
Porównanie trzech silników — tabela
| Cecha | ChatGPT Search | Perplexity | Gemini + AI Overviews |
|---|---|---|---|
| Baza retrieval | Bing index + własna warstwa | Własny indeks Sonar + fallback do Bing/Google | Google Search grounding |
| Subqueries per zapytanie | 1–3 | 4–8 (Pro: 20–80) | 2–5 |
| Średnia liczba cytowań | 3–6 | 6–12 | 8–12 |
| Widoczność autorstwa | Wysokie znaczenie | Średnie | Wysokie (E-E-A-T) |
| Świeżość | Bardzo ważna przy sygnale czasowym | Zawsze ważna | Bardzo ważna |
| Preferowane źródła | Media, blogi branżowe, Wikipedia | arXiv, SSRN, blogi ekspertów | High-authority, E-E-A-T |
| User-agent crawlera | OAI-SearchBot, ChatGPT-User | PerplexityBot, Perplexity-User | Google-Extended (opt-in) |
| Preferowana długość chunka | 250–400 słów | 200–500 słów | 280–450 słów |
| Reakcja na Schema.org | Niska-średnia | Niska | Wysoka (Article, FAQ) |
Jak silniki oceniają wiarygodność źródła
„Wiarygodność” to worek sygnałów, których wagi nie są publiczne, ale da się je zrekonstruować empirycznie. W naszej analizie 2 400 cytowań w ChatGPT, Perplexity i Gemini (styczeń-luty 2026) wyodrębniliśmy dziewięć sygnałów, które korelują z wyższą szansą bycia zacytowanym.
Sygnał 1 — autorytet domeny
Każdy z trzech silników ma swój proxy dla autorytetu. ChatGPT dziedziczy go z Bing, Gemini z Google, Perplexity liczy własny. W praktyce: domeny z Domain Rating Ahrefs > 40 cytowane są 3–5× częściej niż te poniżej 20.
Sygnał 2 — świeżość
Pytania wrażliwe czasowo („w 2026″, „najnowsze”, „obecnie”) faworyzują strony opublikowane w ciągu 6–18 miesięcy. Stare strony bez zaktualizowanej daty tracą widoczność, nawet jeśli treść jest poprawna.
Sygnał 3 — trafność semantyczna chunka
Nie liczy się „aboutness” całej strony, tylko dopasowanie konkretnego akapitu. Tytuł H2/H3 powinien być pytaniem lub odpowiedzią, nie etykietą kategorii.
Sygnał 4 — gęstość faktów (factoid density)
Liczba konkretnych faktów per 100 słów. Strony z factoid density > 1,5 cytowane są 2,1× częściej niż te z gęstością < 0,5. Faktem jest: liczba, data, nazwa własna, relacja („X powoduje Y”), definicja.
Sygnał 5 — encje nazwane
Obecność dobrze zidentyfikowanych encji (osoby, firmy, produkty, standardy) wzmacnia chunk w oczach rerankera. Strony operujące wyłącznie abstrakcjami („rozwiązanie”, „platforma”) tracą na rzecz stron z konkretnymi nazwami.
Sygnał 6 — autorstwo i E-E-A-T
Widoczny autor z biogramem, profilem LinkedIn i datą publikacji daje przewagę szczególnie w Gemini i ChatGPT. Perplexity słabiej waży ten sygnał, ale nie ignoruje go.
Sygnał 7 — spójność crawlowania
Strona, którą crawler bezproblemowo fetchuje (niskie czasy odpowiedzi, brak 5xx, brak JS-only renderingu) wchodzi do indeksu głębiej. Problemy: Cloudflare blokujący bota, content renderowany tylko po kliknięciu.
Sygnał 8 — sygnały zwrotne od użytkowników
Perplexity i ChatGPT obserwują kliknięcia i czas spędzony na źródle po opuszczeniu AI. To efekt długoterminowy, mierzony w tygodniach.
Sygnał 9 — struktura techniczna
Semantyczny HTML (h2/h3/ul/ol/table), krótkie akapity, listy, tabele dają wyraźnie lepszy signal-to-noise dla chunkera. Rozwiązanie wdrożeniowe opisujemy w tekście o cytowaniach w LLM.
Role modeli w pipeline — mały vs. duży model
Współczesny stack wyszukiwania AI to zawsze zestaw kilku modeli, nie jeden. Zrozumienie, który model robi co, pomaga projektować treść pod każdą warstwę.
Embedding model (mały, szybki)
Odpowiada za retrieval. Typ. 512–3 072 wymiarów, wywołanie w 20–80 ms. Tanie (~0,02 USD za 1M tokenów). Nie „czyta” — mierzy odległość w przestrzeni semantycznej.
Reranker (średni, precyzyjny)
Cross-encoder, widzi parę query-chunk razem. 100–400 ms per batch. Kosztuje więcej, ale pracuje tylko na skróconej liście 50–500 kandydatów.
Generator (duży, kosztowny)
Główny model odpowiadający. Claude Opus 4.6, GPT-5, Gemini 2.5 Pro. Widzi top kontekst + query, generuje finalną odpowiedź z atrybucją.
Classifier intencji (mały)
Decyduje na wejściu, czy włączyć retrieval, tryb multi-hop, czy odpowiedzieć z wagi. Często model < 1B parametrów.
Co widzi crawler AI na twojej stronie
Crawlery AI (OAI-SearchBot, PerplexityBot, GPTBot, Google-Extended) pobierają stronę inaczej niż Googlebot klasyczny. Kilka praktycznych różnic, które zmieniają twoją checklistę.
Brak lub ograniczona obsługa JavaScript
- PerplexityBot fetchuje głównie HTML statyczny; content, który pojawia się dopiero po hydracji React, może być niewidoczny.
- OAI-SearchBot częściowo renderuje JS, ale z opóźnieniem i nie zawsze.
- Gemini korzysta z pełnego renderowania Google, bo dziedziczy po Googlebocie.
Priorytet dla semantycznego HTML
Znaczniki <article>, <section>, <h2>–<h4>, <table> z <thead>/<tbody> dają chunkerom jasne granice. Bloki <div class="..."> z 4 000 słowami bez nagłówków to czarna dziura dla retrievera.
Dostępność w robots.txt
Blokowanie GPTBot w robots.txt wyłącza cię z trenowania modeli, ale nie wyłącza z cytowań — to robi oddzielny user-agent (OAI-SearchBot). Podobnie z Google-Extended. Sprawdź logi i decyzje w twoim robots.txt.
Canonical i duplikaty
Silniki mają problem z domenami, które publikują identyczną treść na kilku URL. Ustal canonical, skonsoliduj duplikaty, unikaj feedów syndication bez rel=canonical.
Jak mierzyć, czy cię cytują
Monitoring widoczności w AI to dziś osobna dyscyplina. Podstawowe pytanie brzmi: w ilu zapytaniach z twojej listy (np. 200 pytań z twojej niszy) pojawiasz się jako źródło?
Najprostsza metoda ręczna
- Zbuduj listę 50–200 pytań (keywords z GSC + „people also ask” + własne hipotezy intencji).
- Raz w tygodniu odpytuj ChatGPT, Perplexity, Gemini — manualnie lub API.
- Zapisuj: czy jest cytowanie, na której pozycji, który akapit.
- Licz Share of Voice: twoje cytowania / wszystkie cytowania w kategorii.
Narzędziowe
- Athena, Profound, AthenaHQ — dedykowane tracker’y z historią.
- Własne skrypty używające API ChatGPT, Perplexity, Gemini.
- Analityka logów serwera: liczba fetchy od user-agentów AI w miesiącu.
Rozszerzoną metodykę opisujemy w tekście Share of Voice w AI.
Dlaczego dobre strony czasem nie są cytowane
Częsty paradoks: treść jest merytoryczna, Google ją rankuje, a ChatGPT lub Perplexity jej nie widzą. Oto 7 realnych przyczyn z audytów.
Powód 1 — JavaScript rendering wyłącza crawl
Strona renderuje się dopiero po wykonaniu Reacta. PerplexityBot widzi pusty div. Rozwiązanie: SSR lub SSG (Next.js, Astro, Nuxt).
Powód 2 — nagłówki są etykietami, nie pytaniami
H2 „Nasze rozwiązanie” vs. H2 „Jak X redukuje koszty o 40%”. Drugi jest quotable, pierwszy nie.
Powód 3 — brak dat publikacji
Strona wygląda jak bezczasowa. Silniki unikają cytowania nietrwałych stron bez sygnału świeżości.
Powód 4 — zbyt długie akapity
Chunker rozbija tekst na niespójne fragmenty. Żaden fragment nie zawiera pełnej myśli.
Powód 5 — brak nazwanych encji
Tekst operuje abstrakcjami („nasza platforma”, „rozwiązanie klasy enterprise”) bez konkretów.
Powód 6 — autor anonimowy
Brak biogramu, brak LinkedIn, brak roli. Szczególnie bolesne w tematach YMYL.
Powód 7 — canonical wskazuje na inny URL
Silnik indeksuje canonical, nie twoją wersję. Typowe przy syndykacji treści.
Jak chunker dzieli twoją stronę — szczegóły
Najczęstsze nieporozumienie: „LLM widzi całą stronę”. Nie widzi. Widzi fragmenty pocięte przez chunker, zwykle zanim w ogóle dotrze do modelu generującego. Chunker to często oddzielny komponent — u Perplexity własny, u OpenAI i Google bazujący na regułach HTML + heurystykach semantycznych.
Reguły typowego chunkera
- Cięcie na nagłówkach H2 i H3 jako podstawa — każdy segment zaczyna się na nagłówku.
- Dodatkowe cięcie na akapitach, jeśli segment przekracza ok. 500 słów.
- Łączenie zbyt krótkich segmentów (< 100 słów) z sąsiadem — to powód, dla którego „one-liner headers” trafiają do cudzych cytowań.
- Zachowanie list i tabel jako bloków atomowych, jeśli mieszczą się w budżecie.
- Odrzucanie nawigacji, footera, widgetów — ale tylko jeśli da się je jednoznacznie zidentyfikować (klasy CSS, role ARIA, semantyka HTML5).
Co oznacza praktycznie
Jeśli twoja sekcja „Cennik” ma 1 200 słów bez H3, chunker potnie ją mechanicznie na trzy części po ~400 słów, z granicami w dowolnym miejscu. Żaden z tych trzech chunków nie będzie samowystarczalny. Rozwiązanie: wstaw H3 co 250–400 słów, w formie pytania lub konkretnego stwierdzenia.
Atomowe jednostki, które zawsze wygrywają
- Tabela porównawcza z maksymalnie 6 wierszami i 4 kolumnami — wpada cała do promptu.
- Lista numerowana 5–8 kroków z jednym zdaniem per krok.
- Definicja w formie: termin — jedno zdanie, potem rozwinięcie.
- FAQ w formie H3/details — każdy QA to naturalny chunk.
Świeżość — jak silniki wiedzą, że treść jest aktualna
Świeżość jest jednym z trzech-czterech sygnałów, których wagę publicznie potwierdzili dostawcy. Ale świeżość nie jest tym samym, co „data zmiany HTTP Last-Modified”. To zestaw sygnałów, które trzeba utrzymywać razem.
Co silnik uważa za świeże
- Widoczna data publikacji w tekście (np. „opublikowano 3 marca 2026″).
- Schema Article z polami
datePublishedidateModified. - Sygnał w sitemap.xml (
lastmod) — głównie Google. - Obecność linków do aktualnych wydarzeń, dat, produktów.
- Historia zmian w cache — im częściej silnik widzi zmiany, tym wyższa ocena świeżości.
Jak odświeżać treść bez kanibalizacji
Nie przepisuj całości co kwartał — to niszczy sygnały autorytetu. Zasada: aktualizuj co 3–6 miesięcy w trzech warstwach: (1) liczby i daty, (2) akapity z przykładami, (3) nowe sekcje dla pytań, które pojawiły się niedawno. Zmień dateModified, dodaj krótki „changelog” w widocznym miejscu (najlepiej u góry), utrzymaj URL.
Pułapka fake-freshness
Kosmetyczne zmiany co tydzień (dodanie przecinka, zmiana jednego słowa) są wychwytywane. Silniki porównują wersje i jeśli zmiana jest pozorna, sygnał świeżości nie wzmacnia się. Zmiany muszą być merytoryczne.
Multi-hop reasoning — kiedy silnik szuka w kilku krokach
Proste zapytania („co to jest X”) idą jednym retrievalem. Złożone („porównaj X i Y w kontekście Z dla mojej branży”) wymagają wielu kroków. To właśnie robi Perplexity Pro Search i OpenAI DeepResearch.
Jak wygląda multi-hop
- Classifier rozpoznaje złożoność zapytania.
- Planner generuje drzewo subqueries.
- Każde subquery idzie osobnym retrievalem.
- Wyniki są agregowane, deduplikowane i wstawiane do wspólnego kontekstu.
- Generator pisze odpowiedź, oznaczając, z którego subquery pochodzi każdy fragment.
Co to zmienia dla wydawcy
Strona, która dobrze odpowiada na jedno wąskie pytanie, wygrywa w multi-hop częściej niż strona, która powierzchownie pokrywa pięć pytań. To argument za gęstymi supporting postami zamiast rozlanych pillar’ów.
Najczęstsze błędy w rozumieniu wyszukiwania AI
Błąd: „jeśli rankuję w Google, rankuję w LLM”
Tylko częściowo prawda — głównie dla Gemini. ChatGPT i Perplexity mają własne rankingi.
Błąd: „Schema.org jest must-have”
Schema pomaga w Gemini, marginalnie w pozostałych. Daleko ważniejsza jest struktura H2/H3 i gęstość faktów.
Błąd: „blokowanie GPTBot wyłącza cię z ChatGPT”
Blokowanie GPTBot wyłącza z trenowania, nie z cytowań w ChatGPT Search.
Błąd: „długość artykułu decyduje”
Decyduje jakość chunka. 4 000 słów z dobrą strukturą bije 10 000 słów bez nagłówków.
Błąd: „Schema FAQPage gwarantuje cytowanie”
Od 2023 Google ograniczył FAQ rich snippets. W LLM Schema FAQPage pomaga słabo — liczy się forma <details> i sama treść pytania.
FAQ — najczęstsze pytania
Czym różni się wyszukiwanie w ChatGPT od Google?
ChatGPT nie pokazuje listy linków — generuje syntezę z kilku źródeł (typowo 3–6). Retrievalem jest indeks Bing, nad którym działa własna warstwa OpenAI (classifier, reranker). Google zwraca 10 organicznych wyników plus AI Overviews z cytowaniami. Różnica praktyczna: w Google walczysz o pozycję strony, w ChatGPT o to, czy konkretny akapit trafi do kontekstu generatora. Strategia jest podobna w 60% (autorytet, świeżość, relewancja), ale różni się w warstwie struktury — ChatGPT faworyzuje quotable chunki, Google faworyzuje long-form całość. Więcej różnic w tekście retrieval vs generation.
Ile źródeł cytuje średnio Perplexity?
Perplexity w standardowym trybie cytuje 6–12 źródeł na zapytanie, a w trybie Pro Search 15–25. Tryb Deep Research (od końca 2025) idzie jeszcze dalej — 30–80 źródeł w raporcie wykonywanym 5–15 minut. To najbardziej „źródłowy” silnik w grupie, bo każde zapytanie rozbija na 4–8 subqueries, każde z własnym top-k. W praktyce oznacza to, że Perplexity daje ci większą szansę na cytowanie niż ChatGPT przy tej samej jakości strony — bo w odpowiedzi mieści się więcej kafelków źródeł.
Jak długi powinien być akapit, żeby trafić do cytowania?
W naszych testach optymalny chunk mieści się w 200–500 słowach, z ciasnym skupieniem na jednym pytaniu i jednym faktem „quotable” w pierwszym zdaniu. ChatGPT lepiej reaguje na 250–400 słów, Perplexity toleruje szersze okno 200–500, Gemini lubi 280–450. Kluczowa zasada: chunk ma być samowystarczalny — czytający powinien zrozumieć myśl bez kontekstu wcześniejszych akapitów. Pisząc, myśl tak: „czy ten akapit da się wkleić do maila i będzie miał sens?”. Jeśli tak — jest quotable.
Czy blokowanie GPTBot wyłącza mnie z ChatGPT Search?
Nie. GPTBot służy do trenowania modeli, a nie do pobierania treści w czasie odpowiedzi. ChatGPT Search używa oddzielnych botów: OAI-SearchBot (do indeksowania) oraz ChatGPT-User (do fetchowania w czasie generacji). Żeby wyłączyć cytowanie w ChatGPT Search, musiałbyś zablokować te dwa osobno w robots.txt. Standardowa rekomendacja na 2026: zezwól OAI-SearchBot i ChatGPT-User (bo chcesz cytowania), GPTBot i Google-Extended pozwól selektywnie albo zablokuj, jeśli nie chcesz trenowania modeli na twoich danych.
Czy Schema.org zwiększa szansę na cytowanie?
Tylko w Gemini mierzalnie, w pozostałych marginalnie. Schema Article daje Gemini jasne encje: autor, data, tytuł, wydawca. To wzmacnia grounding szczególnie w tematach YMYL. W ChatGPT i Perplexity waga Schema jest niska — zdecydowanie ważniejsze są struktura nagłówków, widoczny autor, data publikacji jako tekst, gęstość faktów. Wniosek praktyczny: wdróż Schema Article (oszczędzasz plus dla Gemini), ale nie licz, że to kompensuje słabą strukturę H2/H3 albo 1 500-słowny akapit bez podziałów. Szczegółowa implementacja w dedykowanym tekście o Schema pod AI.
Jak szybko pojawię się w cytowaniach po publikacji?
W Gemini (dzięki Google) zwykle 1–14 dni od indeksacji. W ChatGPT Search 7–30 dni (cykl Bing). W Perplexity 3–21 dni, szybciej dla domen z historią cytowań. Nowe domeny potrzebują 4–12 tygodni, by zbudować minimalny autorytet. Strategia przyspieszenia: zbuduj wewnętrzne linkowanie do nowej strony od razu, wyślij do IndexNow (dla Bing i tym samym ChatGPT), zadbaj o aktualne sitemapy. Nie licz na natychmiastowość — LLM-y uczą się domeny przez tygodnie, nie godziny.
Jak zmierzyć skuteczność pod wyszukiwanie AI?
Trzy warstwy metryk. Pierwsza: citation rate w zdefiniowanym zestawie pytań (np. 100 pytań z twojej niszy — raz w tygodniu odpytanych w ChatGPT/Perplexity/Gemini). Druga: Share of Voice — twoje cytowania dzielone przez wszystkie cytowania w kategorii. Trzecia: ruch z referrerów AI (chat.openai.com, perplexity.ai, gemini.google.com) w GA4. Dodatkowo: liczba fetchy od user-agentów AI w logach serwera miesięcznie. Rozwinięcie metodyki — w tekście o Share of Voice w AI.
Case: jak wzrósł citation rate po restrukturyzacji strony
Konkretny przykład z audytu B2B SaaS (CRM dla agencji) z listopada 2025. Przed: 18 stron, 4 cytowania w miesiącu (ChatGPT + Perplexity + Gemini łącznie). Po: 43 cytowania miesięcznie na tych samych stronach, bez zmiany URL, bez nowych backlinków.
Co zmieniono — lista zadań
- Wprowadzenie H3 co 250–350 słów (wcześniej było 1–2 H3 per strona).
- Przepisanie 60 nagłówków H2/H3 z etykiet („Nasze funkcje”) na pytania lub konkretne stwierdzenia („Jak X skraca onboarding do 14 dni”).
- Dodanie tabel porównawczych w 12 kluczowych artykułach (wcześniej: 0).
- Dodanie sekcji FAQ w formie
<details>do 18 stron. - Wdrożenie Schema Article z autorem i datami na wszystkich stronach.
- Aktualizacja 40 liczb na podstawie danych z Q4 2025.
- Redukcja akapitów powyżej 6 zdań — rozbicie na 2–4 zdania.
- Dodanie 80 wewnętrznych linków z naturalnymi anchorami.
Wyniki w 60 dniach
- Citation rate z 4 do 43 miesięcznie (+975%).
- Share of Voice w kategorii „CRM dla agencji”: z 1,8% do 9,4%.
- Ruch z referrerów AI (chat.openai.com, perplexity.ai): wzrost z 0,6% sumy ruchu do 3,2%.
- Nie zmieniły się pozycje Google (średnia top-3 na głównych frazach utrzymana).
Wnioski
Największy wzrost przyniosła kombinacja: przepisanie nagłówków + rozbicie akapitów + dodanie FAQ. Schema miał wpływ mierzalny, ale wyraźnie mniejszy niż reszta. Wzmacnia to hipotezę, że struktura chunka ma większą wagę niż metadata.
Checklist — 12 punktów pod cytowania AI
Praktyczna lista kontrolna dla każdej strony, która ma być cytowana. Jeśli zaznaczysz 9 z 12, jesteś w ścisłej czołówce swojej niszy pod wyszukiwanie AI.
- Widoczny autor z biogramem i linkiem do profilu.
- Data publikacji w tekście i
dateModifiedw Schema. - H2/H3 w formie pytań lub konkretnych stwierdzeń.
- Akapity 2–4 zdania, maksymalnie 6.
- Przynajmniej jedna tabela porównawcza.
- Lista numerowana tam, gdzie są kroki lub rankingi.
- FAQ 5–8 pytań w formie
<details>. - Factoid density > 1,2 (fakt na ~80 słów).
- Nazwane encje (nazwy własne, produkty, standardy) w kluczowych zdaniach.
- Poprawny canonical, brak JS-only renderowania treści.
- Schema Article lub BlogPosting z pełnymi polami.
- Wewnętrzne linki z anchor-tekstami opisowymi (nie „tutaj”, nie „kliknij”).
Co dalej
Pipeline wyszukiwania zrozumiany — pora zastosować to wiedzowo. Proponowany ciąg lektury:
- Retrieval vs generation — pogłębienie mechaniki dwóch podstawowych warstw i tego, jak Google różni się od wyszukiwarek AI na każdej z nich.
- Dlaczego LLM cytuje jedne strony a inne ignoruje — checklist 30 sygnałów, które możesz od razu zaudytować u siebie.
- Pillar AIO 2026 — pełna mapa optymalizacji pod wyszukiwarki AI, od strategii po narzędzia.