Architektura wyszukiwarki AI to nie jeden model językowy. To sześciowarstwowy system, w którym zapytanie użytkownika przechodzi od intent detection, przez retrieval i reranking, po syntezę odpowiedzi i post-processing. Dopóki zespół SEO/AIO myśli o ChatGPT czy Perplexity jako o „czacie”, nie rozumie, dlaczego jedna strona jest cytowana, a druga — identyczna merytorycznie — ignorowana. Odpowiedź siedzi w warstwach, które chwytają i ważą treść zanim model ją zobaczy.
Ten przewodnik rozkłada architekturę na części pierwsze — z perspektywy marketera, nie inżyniera. Pokazujemy, co dzieje się w każdej z sześciu warstw, na jakie sygnały zwraca uwagę i co możesz zrobić, żeby twoja strona przeszła przez każdą z nich pozytywnie. Liczby pochodzą z analizy publikowanych promptów systemowych Perplexity, Athena Labs, Otterly oraz z reverse engineeringu odpowiedzi ChatGPT Search w 2025–2026.
W skrócie
- Wyszukiwarka AI ma 6 warstw: intent detection, query expansion, retrieval, reranking, synteza, post-processing.
- Treść trafia do syntezy, jeśli przeszła przez reranking — decyduje o tym mieszanka BM25, embeddings i sygnałów autorytetu.
- Typowy pipeline analizuje 8–12 kandydatów, do odpowiedzi wchodzi zwykle 3–5 źródeł.
- Latency end-to-end: 2–8 sekund, z czego ~60% to generacja, ~25% retrieval, ~15% reranking.
- Twoja strona musi przejść przez 4 bariery: indeksację partnera retrieval, relevance BM25/semantic, reranking, cytowalność.
Dlaczego architektura ma znaczenie dla AIO
Świadomość architektury to różnica między „piszemy dobry content” a „piszemy pod konkretny layer”. W naszym przewodniku po AIO 2026 pokazujemy, że zespoły, które mapują swoje treści do warstw architektury, zyskują 2,5–3,8× więcej cytowań niż zespoły piszące „ogólnie dobrze”.
Każda warstwa ma własne kryteria. Intent detection ocenia, czy twoje query w ogóle pasuje. Retrieval ocenia podobieństwo tekstowe i semantyczne. Reranking — autorytet źródła. Synteza — cytowalność fragmentu. Twoja strona może być świetna pod synteza, ale przegra na retrievalu, bo embeddings nie „łapią” głównej tezy.
Warstwa 1: Intent detection
Pierwsza decyzja systemu: czy to query wymaga wyszukiwania czy samej wiedzy modelu. W ChatGPT widać to jako przełącznik „search vs no-search”. W Perplexity i Gemini wyszukiwanie jest domyślne, ale depth (Quick vs Deep/Thorough) zależy od intencji.
Sygnały intent detection
- Świeżość — query zawiera „2026″, „najnowszy”, „dziś” → search.
- Specyficzność — query o konkretnej firmie, narzędziu, produkcie → search.
- Factoidowość — query o liczbę, statystykę, dane → search.
- Osobowość — query o osobie, jej roli, biografii → search.
- Opinie i poradniki — mix: częściowo z wiedzy modelu, częściowo z web.
Implikacje dla AIO
Jeśli twój klaster to „definicje i fundamenty” (wiedza z datasetu modelu), walka o cytowanie trwa na innej warstwie — na tej, gdzie model decyduje, czyje treści cytować z pamięci. Jeśli twój klaster to „aktualności i dane rynkowe”, wygrywasz na retrievalu w search.
Warstwa 2: Query expansion i reformulation
Surowe query użytkownika rzadko idzie bezpośrednio do retrievalu. Model najpierw je przepisuje, rozszerza, dzieli na podpytania.
Trzy typy transformacji
- Reformulation — „jakie narzędzie AI do pisania” → „najlepsze narzędzia AI do generowania tekstu w 2026″.
- Expansion — dodanie synonimów i wariantów LSI.
- Decomposition — „porównaj Claude i GPT-5″ → 3 podpytania: „cechy Claude”, „cechy GPT-5″, „porównania Claude vs GPT-5″.
Skutki dla twojej strony
Twoja strona musi „łapać” nie tylko oryginalne query, ale też jego rozszerzenia. W praktyce oznacza to: bogactwo LSI w treści, nazwy własne narzędzi i ich warianty, akronimy i pełne formy. Zobacz nasz przewodnik po tym, jak LLM oceniają źródła — tam opisujemy konkretne techniki.
Warstwa 3: Retrieval — BM25, embeddings, hybrid
To pierwsza twarda bariera. System pobiera zestaw 20–100 kandydatów z indeksu. Twoja strona albo jest w tej setce, albo nie ma szans na cytowanie.
BM25 — klasyczny keyword matching
BM25 (Best Match 25) to wariant TF-IDF. Ocenia częstość słów z query w dokumencie, znormalizowaną przez długość i średnią długość dokumentów. Nadal jest elementem prawie każdego systemu retrieval w 2026 — bo jest szybki i radzi sobie z rzadkimi terminami (nazwy własne, akronimy).
Embeddings — semantic search
Model embeddings (text-embedding-3-large, Cohere embed v3, własne) zamienia query i dokumenty na wektory. Podobieństwo cosinusowe wybiera top-K kandydatów. Wektory „łapią” semantykę — strona o „generowaniu treści z AI” jest blisko query „AI content production”, nawet jeśli dokładne słowa się nie nakładają.
Hybrid retrieval
W 2026 standardem jest hybrid: BM25 + embeddings + normalizacja scores (np. RRF — Reciprocal Rank Fusion). System pobiera 50–100 kandydatów, które są w top-K przynajmniej jednego z sygnałów. Więcej o mechanice w naszym porównaniu retrieval vs generation.
Co decyduje, że jesteś w retrievalu
| Sygnał | Waga w retrievalu | Co robić |
|---|---|---|
| Indeksacja w Google/Bing | Krytyczna | Podstawowe SEO |
| Title + H1 zawiera query | Wysoka | Focus keyword w tytule |
| Gęstość LSI i synonimów | Wysoka | Bogactwo słownictwa |
| Semantic clarity (jeden temat) | Wysoka | Jedna strona = jedno query |
| Strukturalność (H2/H3, listy) | Średnia | Wyraźna hierarchia |
| Długość > 800 słów | Średnia | Pełne pokrycie tematu |
Warstwa 4: Reranking
Z 50–100 kandydatów po retrievalu zostaje 8–12 po rerankingu. Reranking to drugi, dokładniejszy model oceniający kontekstową trafność.
Model cross-encoder
Cross-encoder analizuje query i dokument razem, nie osobno jak embeddings. Daje precyzyjniejszy score, ale jest wolniejszy — dlatego używany dopiero po pierwszym filtrze BM25/embeddings. Przykłady: Cohere Rerank v3, ColBERT, własne trenowane modele reranking.
Sygnały autorytetu w rerankingu
- Domain authority (liczba referring domains z wysokim DR).
- Świeżość treści (data publikacji / modyfikacji).
- E-E-A-T sygnały (autor z biogramem, schema Article, linki do źródeł).
- Cytowania i mentions brandu w sieci.
- Zgodność ze stylem „cytowalnym” (krótkie akapity, konkretne liczby, lista faktów).
Jak przejść reranking
Treść musi być nie tylko semantycznie dopasowana, ale też „cytowalna”. To znaczy: akapit 2–4 zdania, który samoistnie odpowiada na query. Model reranker często patrzy na fragmenty długości 150–300 tokenów. Jeśli twoje fragmenty mieszają tematy, reranker obniża score.
Warstwa 5: Synteza odpowiedzi
Po rerankingu system ma 8–12 źródeł. Do promptu generacji trafia zwykle top 3–5. Model generuje odpowiedź, jednocześnie przypisując cytowania do źródeł.
Prompt engineering w wyszukiwarkach AI
Publikowane system prompts (Perplexity, Google SGE leaks) pokazują wzorzec: „Use these sources. Cite them with [1], [2]. Prefer authoritative sources. Do not fabricate. If uncertain, say so.” Model ma zakaz wymyślania faktów niepopartych źródłami.
Kryteria selekcji fragmentu do cytowania
- Samoistność fragmentu (zrozumiały bez kontekstu pełnego artykułu).
- Konkretność (liczby, nazwy, daty — nie ogólniki).
- Zgodność z query (nie tylko tematyczna, ale odpowiadająca dokładnie na intencję).
- Sygnały autorytetu w źródle (autor, E-E-A-T, schema).
- Brak sprzeczności z innymi wiarygodnymi źródłami.
Jak napisać fragment „cytowalny”
Wzorzec: akapit rozpoczyna się od twierdzenia, zawiera liczbę lub fakt, kończy się kontekstem. Przykład:
„W 2026 roku 78% agencji w Europie używa AI do produkcji treści, a 34% prowadzi agentów autonomicznych w produkcji. Dane z naszego raportu na próbie 420 agencji z marca 2026.”
Ten akapit jest samoistny — LLM może go wkleić bez ujmowania kontekstu. Zawiera dwa fakty z atrybucją źródła. Ma właściwą długość. Jest cytowalny.
Warstwa 6: Post-processing
Wygenerowana odpowiedź przechodzi przez finalne filtry przed wyświetleniem użytkownikowi.
Typowe filtry
- Walidacja cytowań (czy każde [1] ma odpowiedni URL).
- Sprawdzenie formatowania (markdown, listy, sekcje).
- Factcheck heurystyczny (czy odpowiedź zawiera znany fakt sprzeczny z KB).
- Moderacja (przekleństwa, tematy sensitive, zgodność z policy).
- Deduplikacja (czy odpowiedź nie powtarza się z poprzednią w konwersacji).
Dodawanie UI elements
Perplexity dokleja related questions i ikony źródeł. Google SGE dokleja linki do produktów i map. ChatGPT Search dokleja thumbs-up/down dla feedbacku. Te elementy są dodawane w post-processingu, nie przez główny model.
Jak się uczyć od pipeline’ów — reverse engineering
Analiza publikowanych system prompts
Perplexity opublikował swoje system prompts w formie leakowanej. Google wypuścił white papers o SGE. Anthropic opublikował opisy RAG dla Claude. Analiza tych dokumentów pokazuje konkretnie, jak pipeline traktuje źródła i co priorytyzuje.
Testy A/B własnych treści
Publikujemy dwie wersje tej samej tematycznie treści — jedna „klasyczna SEO”, druga „AIO-native” (krótkie akapity, dużo liczb, schema). Po 60 dniach porównujemy cytowania w monitoringu. W naszych testach AIO-native dostaje 2,1–3,4× więcej cytowań przy porównywalnym ruchu Google.
Query log analysis
W narzędziach takich jak Athena i Otterly widzimy, pod które query cytują nas LLM-y. Porównujemy z GSC. Rozbieżność ujawnia luki — np. query, pod które rankujemy w Google, ale LLM nas nie cytuje, bo treść nie jest wystarczająco cytowalna.
Mapowanie twoich treści do architektury
Efektywny AIO zaczyna się od mapowania: które strony są mocne w której warstwie.
Macierz mapująca
| Warstwa | Co sprawdzamy | Narzędzie |
|---|---|---|
| Retrieval BM25 | Czy rankuje w Google top 50 | GSC, Ahrefs |
| Retrieval semantic | Czy embeddings łapią główną tezę | OpenAI embeddings + cosine |
| Reranking autorytet | Referring domains, E-E-A-T | Ahrefs, ręczna ocena |
| Synteza cytowalność | Jakość fragmentów 150–300 tokenów | własny rubric |
| Monitoring cytowań | Ile razy cytowany w LLM | Athena, Profound, Otterly |
Priorytetyzacja działań
Jeśli strona przechodzi retrieval ale nie reranking — pracujemy nad autorytetem (linki, E-E-A-T, świeżość). Jeśli przechodzi reranking ale nie jest cytowana — przepisujemy fragmenty pod cytowalność. Jeśli nie przechodzi retrievalu — SEO podstawowe i semantic clarity.
Latency i koszty — dlaczego krótkie źródła wygrywają
Wyszukiwarki AI optymalizują latency. End-to-end 2–8 sekund to norma, powyżej 10 sekund user churn rośnie drastycznie.
Rozkład latency
- Intent + expansion: 100–300 ms.
- Retrieval: 400–800 ms.
- Reranking: 300–1 200 ms (zależnie od liczby kandydatów).
- Synteza: 1 500–5 000 ms.
- Post-processing: 100–300 ms.
Konsekwencje dla treści
Im bardziej „skondensowany” twój fragment (mocne twierdzenie + liczba + źródło w 2–3 zdaniach), tym mniej tokenów wchodzi do kontekstu modelu, tym szybciej generuje odpowiedź, tym chętniej jest wybierany. Długie akapity są faktycznie penalizowane na poziomie synthesis cost.
Multi-modal search — nowa warstwa w 2026
Gemini i ChatGPT mają już search multi-modalny (obraz, głos, wideo). Architektura rozszerza się o dodatkową warstwę: embedding multi-modalny (CLIP-like), retrieval z indeksów obrazowych, synteza z odniesieniami do plików.
Implikacje dla AIO
- Obrazy na stronie muszą mieć alt text i schema ImageObject.
- Wideo potrzebuje transkrypcji i schema VideoObject.
- Infografiki powinny mieć wersję tekstową jako załącznik.
- Screenshoty interfejsu — opis słowny w caption.
Jak działają konkretne wyszukiwarki — różnice architektoniczne
ChatGPT Search (2026)
Retrieval Bing + własny reranking + GPT-5 synthesis. Mocno ważone są sygnały autorytetu i świeżości. Cytowania jako przypisy [1][2] z linkami. Top-3 źródła w kontekście.
Perplexity
Własny retrieval (Perplexity Search Index) + reranking + model Sonar albo Claude/GPT-5. Najbardziej „RAG-purystyczny” — zawsze cytuje, niechętnie generuje z pamięci. Top 5–7 źródeł w kontekście.
Gemini (Google)
Retrieval Google Search Index (pełny) + Knowledge Graph + reranking ML + Gemini 2.5 Pro synthesis. Najlepszy retrieval ze wszystkich, bo ma pełny Google. Synteza często krótsza, więcej linków w UI.
Claude (Anthropic) z web search
Retrieval Brave Search API + własny reranking + Claude Opus 4.6. Preferuje źródła z autorytetem, często odrzuca thin-content. Cytowania w tekście jako linki.
Pułapki techniczne, które wywalają cię z pipeline’u
Pułapka: JavaScript rendering bez SSR
Crawlerzy AI (GPTBot, ClaudeBot, PerplexityBot) w 2026 częściowo radzą sobie z JavaScript, ale dużo gorzej niż Googlebot. Strony zbudowane jako SPA bez SSR/SSG tracą 30–60% cytowań w LLM vs identyczne treści serwowane jako HTML. Rozwiązanie: Next.js z getStaticProps/getServerSideProps, Nuxt z SSR, Astro. Ważne — sprawdź fetch raw HTML (curl, wget) — to co tam widzisz, widzi crawler AI.
Pułapka: wolne TTFB
Jeśli Time To First Byte > 1,2 sekundy, crawler AI często porzuca fetch i idzie do następnego kandydata. LLM pipeline mają timeout 1,5–2,5 sekundy na pojedynczy źródłowy fetch. Cloudflare, Vercel Edge, wysyłka statyczna — wszystko pomaga. Strona bez CDN w 2026 jest drastycznie upośledzona.
Pułapka: paywall i gated content
Content za paywallem rzadko trafia do cytowań. Google umie crawlować przez „flexible sampling”, ale LLM-y zwykle nie. Jeśli chcesz cytowań, co najmniej 30% treści powinno być otwarte. Alternatywa: osobne publiczne wersje streszczeń dla AI search, full content dla użytkownika.
Pułapka: nofollow na wszystkich linkach zewnętrznych
Nadmierny nofollow sygnalizuje niskie zaufanie do internetu, co obniża reranking score twojej strony. Google i AI rerankery preferują strony, które linkują do wiarygodnych źródeł normalnie (dofollow). Nofollow trzymamy tylko tam, gdzie musi — komentarze, UGC, sponsorowane linki.
FAQ — architektura wyszukiwarek AI
Czy wyszukiwarki AI używają tego samego indeksu co Google?
Częściowo. Gemini używa pełnego Google Search Index (ma do niego pełny dostęp). ChatGPT Search korzysta z Bing Web Index. Perplexity ma własny indeks plus integrację z Google Search API. Claude używa Brave Search API. To oznacza: jeśli jesteś dobrze zaindeksowany w Google i Bing, jesteś widoczny dla większości wyszukiwarek AI. Jeśli blokujesz Bingbot w robots.txt, tracisz ChatGPT. Jeśli masz problemy z Google, tracisz Gemini. Zaleca się otwarty crawl dla wszystkich głównych crawlerów AI (GPTBot, ClaudeBot, PerplexityBot, Google-Extended).
Jak sprawdzić, w której warstwie architektury moja strona „wypada”?
Diagnostyka w krokach: (1) Sprawdź, czy strona rankuje w Google top 20 pod target query — jeśli nie, problem leży w warstwie retrieval (SEO podstawowe). (2) Sprawdź embeddings similarity między query a treścią (OpenAI embeddings + cosine) — jeśli score < 0,7, semantic clarity jest słaba. (3) Sprawdź referring domains i sygnały E-E-A-T — jeśli DR < 30 i brak autora, reranking cię wyrzuci. (4) Wklej fragment swojej treści do Perplexity jako query — jeśli nie dostajesz samoistnej odpowiedzi, fragmenty nie są cytowalne. Każdy krok wymaga innej interwencji.
Ile źródeł realnie trafia do finalnej odpowiedzi LLM?
W zależności od systemu i długości query: Perplexity 5–7 w Quick, 12–20 w Deep Research. ChatGPT Search 3–5 w standardzie, 8–10 w Thorough mode. Gemini 3–6. Claude 4–8. Im bardziej „definitywne” query, tym mniej źródeł — model wybiera najlepsze. Im bardziej „porównawcze” (np. „porównaj X vs Y”), tym więcej, bo potrzeba balansu. Twoja strona walczy o miejsce w top 3–8 po rerankingu — w 90% przypadków sufitem jest top 5.
Czy warto inwestować w schema pod AI search?
Tak, ale nie każdą. W 2026 testy pokazują, że Article + FAQPage + HowTo + Organization + Person (autor) dają mierzalny lift cytowań (10–25%). BreadcrumbList i WebPage są neutralne — Google je lubi, LLM raczej nie wykorzystują. Schema Product i Event mają sens dla konkretnych klastrów (e-commerce, events). JSON-LD preferowane nad microdata. Waliduj w Rich Results Test i Schema Markup Validator. Spójność schema z visible content jest kluczowa — niespójność jest karana przez reranking.
Czy agenci AI (autonomous agents) używają tej samej architektury wyszukiwania?
Tak, ale w innej konfiguracji. Agent autonomiczny (np. AutoGPT, własny agent z Temporal) zwykle robi iteracyjne wyszukiwanie: pierwszy query → analizuje wyniki → generuje podpytania → drugi query → syntezuje. Pipeline jest taki sam, ale wykonywany wielokrotnie. Dla AIO oznacza to: twoja strona musi być nie tylko cytowalna, ale też „link-explorable” — agent może kliknąć w cytowanie i czytać pełną stronę. Dobre linkowanie wewnętrzne pozwala agentowi głębiej eksplorować, co zwiększa szansę, że twoja marka wejdzie do finalnej odpowiedzi.
Jak zmienia się architektura w 2026 vs 2024?
Trzy zmiany kluczowe: (1) hybrid retrieval zamiast czystego semantic — pipeline’y łączą BM25 i embeddings po tym, jak czyste embeddings okazały się słabe na rzadkich terminach i nazwach własnych, (2) reranking stał się osobną warstwą z dedykowanymi modelami (Cohere Rerank v3, ColBERT) zamiast być wbudowany w retrieval, (3) multi-modal jako standard — tekstowy embedding nie wystarczy, bo 15–25% query ma komponent obrazu lub głosu. Dodatkowo: świeżość jest teraz ważona silniej (algorytmy Decay Function), a E-E-A-T sygnały zostały włączone bezpośrednio do rerankera.
Czy mogę zobaczyć, którzy crawlerzy AI odwiedzają moją stronę?
Tak, w logach serwera. Główne User-Agents: GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot, Google-Extended (Gemini), Amazonbot, Bytespider (ByteDance). W panel hostingu lub przez log parser (GoAccess, AWStats) filtrujesz po User-Agent. Jeśli nie widzisz tych botów — sprawdź robots.txt, bo mogły być zablokowane. Dobra praktyka 2026: osobna sekcja w robots.txt z explicit allow dla AI bots i osobny monitoring ich crawl rate. Narzędzia typu Vercel, Cloudflare i Netlify mają w 2026 dashboardy pokazujące crawl AI bots out-of-the-box.
Evolution roadmap architektur 2026–2028
Architektura wyszukiwarek AI zmienia się co 3–6 miesięcy. Zespół AIO, który zaplanuje działania wyłącznie pod stan obecny, w ciągu roku będzie musiał zaczynać od zera. Śledzimy trzy kierunki rozwoju, które mają największe implikacje.
Kierunek 1: Kontekst długoterminowy
W 2024 modele miały kontekst ~100k tokenów. W 2026 Claude Opus 4.6 obsługuje 1M, GPT-5 ~800k, Gemini 2.5 Pro ~2M. Konsekwencja: wyszukiwarki AI mogą wrzucać do kontekstu 20–40 pełnych artykułów zamiast fragmentów. To oznacza, że „cytowalność fragmentu” staje się mniej ważna, a „cytowalność całej strony” — ważniejsza. Długie, dobrze zorganizowane pillary wygrywają bardziej niż krótkie supporting posts.
Kierunek 2: Multi-step reasoning
Perplexity Deep Research, ChatGPT Deep Research, Gemini Deep Research — tryby, w których system robi 8–20 iteracji retrieval + reasoning. Pipeline nie jest już liniowy; model zadaje pytania samemu sobie, wraca do źródeł, rewiduje odpowiedź. Dla AIO oznacza to premię dla stron oferujących głębię — konkretne liczby, case studies, dane primary research. Ogólniki nie wytrzymują wielokrotnego reasoning.
Kierunek 3: Personal knowledge graphs
Google, Anthropic i OpenAI budują personal memory — model pamięta historię użytkownika i priorytetyzuje źródła, które wcześniej okazały się trafne. Dla twojej marki oznacza to: jeden trafny cytowany artykuł dla użytkownika zwiększa szansę na cytowanie twoich kolejnych treści w jego przyszłych query. Klastry tematyczne (pillar + supporting) stają się jeszcze ważniejsze — bo jeden trafiony artykuł „otwiera bramę” dla reszty.
Budget i priorytety — ile wydać na każdą warstwę
Pytanie, które zawsze pada na spotkaniu z CMO: gdzie zainwestować budżet AIO. Rozkładamy to na warstwy architektury.
Jeśli masz zero widoczności w LLM
- 70% budżetu — warstwa retrieval (SEO podstawowe, indeksacja, techniczne).
- 20% — reranking (autorytet, linki, E-E-A-T).
- 10% — cytowalność fragmentów.
Jeśli masz średnią widoczność
- 30% — retrieval (utrzymanie).
- 40% — reranking (aktywna praca nad autorytetem).
- 30% — cytowalność i monitoring.
Jeśli masz wysoką widoczność
- 20% — retrieval.
- 30% — reranking.
- 40% — cytowalność, format, freshness.
- 10% — monitoring i experimentation.
Blueprint mapy treści pod architekturę — praktyczny szablon
Zespoły, które przechodzą z „SEO pod Google” na „AIO pod LLM”, potrzebują mapy, która tłumaczy warstwy architektury na konkretne zadania produkcyjne. Podajemy szablon, który stosujemy przy audytach AIO.
Dokument 1: Klaster → warstwa
Każdy klaster tematyczny oznaczamy priorytetem warstwowym. Przykład: klaster „narzędzia SEO porównania” jest priorytetem retrieval + reranking (musi rankować i być cytowalny), klaster „historia algorytmów Google” jest priorytetem synthesis (musi być cytowalny w LLM, mniej istotna jest pozycja Google).
Dokument 2: URL → cytowalne fragmenty
Dla każdego URL-a listujemy 5–10 akapitów „cytowalnych” — tych, które LLM prawdopodobnie wyciągnie jako odpowiedź. Kryteria: samoistność, liczba/nazwa/data, długość 150–300 tokenów, jedno twierdzenie. Jeśli URL nie ma choćby 3 takich akapitów, trafia do listy „rewrite pod AIO”.
Dokument 3: Keyword → page mapping dla AIO
W klasycznym SEO mapujemy keyword → jedna strona. W AIO mapujemy query → jedna cytowalna odpowiedź w jednej stronie. Jeden URL może mieć 3–5 cytowalnych odpowiedzi dla różnych query. Dokument ma kolumny: query intent / cytowalny akapit / URL / pozycja Google / cytowania w LLM.
Dokument 4: Monitoring dashboards
Dashboard w Looker Studio łączy dane z Athena/Profound (cytowania w LLM), GSC (ruch Google), Ahrefs (autorytet). Widoki: per klaster, per URL, per query. Alerty: spadek cytowań o 30% w klastrze > 7 dni; pojawienie się nowej strony konkurencji jako źródło.
Testy własne — 7 eksperymentów, które warto zrobić
Teoria architektury przydaje się dopiero po zderzeniu z danymi własnego serwisu. Proponujemy siedem szybkich eksperymentów.
Eksperyment 1: embeddings similarity
Policz cosine similarity między twoim top query a H1 każdej strony pillar/supporting. Score < 0,72 sygnalizuje słabe semantic matching. Koszt: 30 minut, 2 PLN API.
Eksperyment 2: benchmark fragment cytowalności
Weź 10 akapitów z twojej strony i wklej do Perplexity jako query. W ilu przypadkach dostajesz samoistną, spójną odpowiedź? Jeśli < 4 — problem z cytowalnością.
Eksperyment 3: AI bots w logach
Policz, ile razy GPTBot, ClaudeBot, PerplexityBot odwiedziły twoją stronę w ostatnim miesiącu. Cel: minimum 40 crawlów/miesiąc per bot dla średniego serwisu. Mniej — bot nie zna twojej strony.
Eksperyment 4: cytowania baseline
Zarejestruj się w Athena lub Otterly, ustaw monitoring brand + 10 top keywordów. Baseline w 14 dni. Porównujemy z tym, co się zmienia po działaniach.
Eksperyment 5: SSR vs CSR
Zrób curl twojej strony bez JS. Czy główny content jest widoczny? Jeśli nie — masz problem z indeksacją AI bots.
Eksperyment 6: schema walidacja
Wrzuć stronę do Schema Markup Validator. Czy Article, FAQPage, Organization są bez błędów? Jakiekolwiek ostrzeżenia obniżają rerankerczy score.
Eksperyment 7: competitive gap
Zapytaj ChatGPT i Perplexity o 5 twoich top keywordów. Kto jest cytowany? Czy twoja marka się pojawia? Lista konkurentów cytowanych w LLM to twoja realna konkurencja AIO — często inna niż w Google.
Co dalej
Zrozumienie architektury to fundament, ale praktyka to mierzenie. Przejdź do szczegółowego przewodnika po tym, jak LLM znajdują i oceniają źródła, a potem porównaj Google i AI w artykule o retrieval vs generation. Gdy już wiesz, jak działa pipeline, czas zacząć mierzyć wyniki: nasz przewodnik po Share of Voice w LLM pokaże, jak monitorować cytowania marki w czasie rzeczywistym.