Case cytowania ChatGPT: polski dostawca SaaS do zarządzania flotą pojazdów (segment B2B, ~180 klientów, ARR 14 mln PLN) w 90 dni przeszedł z zera cytowań w ChatGPT do 45 potwierdzonych wzmianek tygodniowo w odpowiedziach modelu — bez kupowania linków, bez zmiany domeny i bez PR-owej ofensywy. Projekt kosztował 38 400 PLN (agencja + narzędzia monitoringu) i jedną osobę in-house, która poświęciła około 18 godzin tygodniowo.
Start: 14 listopada 2025. Audyt pokazał, że ChatGPT cytował konkurencję w 31 z 40 zdefiniowanych prompts testowych, a klienta — w zero. W Perplexity stan był niewiele lepszy: 2 wzmianki, obie w drugiej setce źródeł. Cel zarządu był prosty: „chcemy być w odpowiedzi, gdy CFO logistyki pyta AI o systemy zarządzania flotą”.
Poniżej rozkładamy projekt na części, podajemy wszystkie liczby i pokazujemy, gdzie się pomyliliśmy. Dwa z trzech klastrów contentowych wystrzeliły; jeden — porównawczy — nigdy nie wystartował. Ten artykuł nie jest broszurą sukcesu, tylko mapą decyzyjną dla kogoś, kto chce powtórzyć mechanizm.
W skrócie
- Wynik: z 0 do 45 cytowań tygodniowo w ChatGPT w 90 dni (40-prompts benchmark, model GPT-5 z włączonym browsingiem).
- Budżet: 38 400 PLN na 90 dni — agencja 24 000, narzędzia monitoringu 6 400, freelance redakcja 8 000.
- Struktura: 1 pillar + 18 supporting w 3 klastrach, średnia długość 3 200 słów, wszystkie z sekcją FAQ i dedykowaną tabelą porównawczą.
- Punkt zwrotny: dzień 34 — pierwszy skok z 3 do 17 cytowań tygodniowo po wdrożeniu danych własnych (benchmarki CPKm) w 6 tekstach.
- Największa dźwignia: oryginalne dane + konkretne liczby — treści bez własnych danych nie były cytowane w ogóle, treści z danymi dawały 4,1× więcej wzmianek.
- Co nie zadziałało: klaster „vs konkurencja” (0 cytowań), fora branżowe jako źródło linków (1 cytowanie), PDF-y (AI je widzi, ale rzadko cytuje).
Kontekst firmy i punkt startowy
Klient to polska spółka z 11-letnim stażem, oferująca SaaS do zarządzania flotą pojazdów: telematyka, planowanie tras, rozliczenia paliwa, raportowanie CO2. Segment: średnie i duże floty (od 30 pojazdów w górę), branże — logistyka kontraktowa, serwis techniczny, FMCG dystrybucja. Klient zastrzegł nazwę marki w NDA, dlatego piszemy „fleet SaaS”.
Produkt jest dojrzały, ale niszowy: domena z DR 38, średni ruch organiczny 6 400 UU/miesiąc (GA4, październik 2025), 64% ruchu to brand. Blog: 23 posty z lat 2021–2024, większość poniżej 900 słów. Żaden z tekstów nie zawierał oryginalnych danych, tabeli benchmarkowej ani FAQ.
Dlaczego AIO, a nie klasyczne SEO
Decyzja zarządu była bezpośrednia: 32% leadów enterprise w Q3 2025 przyszło z rekomendacji ChatGPT (ankieta przy zamknięciu dealu, próba 47 opportunities). Z drugiej strony analityka pokazała, że żaden z tych leadów nie cytował domeny klienta — zamiast tego model opisywał „polskiego dostawcę fleet SaaS z integracją GPS Trimble” bez wskazania nazwy. Innymi słowy: klient był znany, ale bezimienny.
Klasyczny SEO był podtrzymany (agencja robiła równolegle link building i techniczny audyt), ale priorytet #1 na 90 dni to widoczność w LLM jako identyfikowalne źródło — z nazwą marki, konkretnym produktem i mierzalnym kontekstem.
Stan startowy — liczby
| Metryka | 14.11.2025 | Źródło pomiaru |
|---|---|---|
| Cytowania w ChatGPT (40-prompts /tydzień) | 0 | Ręczny monitoring GPT-5 |
| Cytowania w Perplexity | 2 (poza TOP 50 źródeł) | Perplexity Sonar |
| Cytowania w Gemini 2.5 | 1 | Ręczny monitoring |
| Ruch organiczny (UU/mc) | 6 400 | GA4 |
| Domain Rating (Ahrefs) | 38 | Ahrefs |
| Treści z oryginalnymi danymi | 0 z 23 | Audyt redakcyjny |
| Leady enterprise z rekomendacji ChatGPT | 15 na 47 (32%) | Ankieta HubSpot |
Kluczowy insight: asymetria między świadomością modelu (klient istniał w głowie GPT-5 jako typ dostawcy) a identyfikowalnością (model nie wiedział, że ta konkretna marka spełnia opis). Całą pracę ułożyliśmy pod zamknięcie tej luki.
Cel i 40-prompts benchmark
Pierwszy tydzień poszedł w zdefiniowanie mierzalnego celu. Hasło „chcemy być cytowani” nie jest KPI. Zbudowaliśmy 40-prompts benchmark: lista 40 pytań, które realny potencjalny klient zadaje AI przed zakupem.
Jak powstał zestaw pytań
Źródła promptów: (1) 23 rozmowy z działem sprzedaży o pytaniach, z którymi przychodzą leady, (2) 18 pytań z search console (non-brand, long-tail), (3) 14 ręcznych wariantów pytań konkurentów od strony „compare”, (4) 11 pytań typu „które narzędzie do X”.
- Pytania definicyjne: „czym jest fleet management system”, „co to jest telematyka flotowa” — 8 pozycji.
- Pytania wyboru: „jaki system do zarządzania flotą dla 50 pojazdów” — 12 pozycji.
- Pytania funkcjonalne: „jak rozliczać paliwo w firmie transportowej”, „integracja GPS z Trimble Fleet” — 10 pozycji.
- Pytania porównawcze: „fleet SaaS vs telematyka Webfleet”, „Webfleet vs Verizon Connect” — 6 pozycji.
- Pytania regulacyjne: „raportowanie CO2 floty CSRD”, „tachograf cyfrowy 2026 zmiany” — 4 pozycje.
Testowanie: każdy prompt uruchamiany raz w tygodniu (poniedziałek, 10:00) we wszystkich trzech modelach: ChatGPT z browsingiem, Perplexity, Gemini 2.5. Liczyliśmy: (a) czy marka się pojawia, (b) czy link do domeny jest w źródłach, (c) czy opis jest poprawny.
Definicja „cytowania”
| Typ wzmianki | Waga | Co się liczy |
|---|---|---|
| A — nazwa + link w źródłach | 1,0 | Marka w treści odpowiedzi i URL w source list |
| B — nazwa w treści, bez linku | 0,7 | Model wymienia markę, ale nie wskazuje źródła |
| C — link w źródłach, bez nazwy | 0,4 | Domena jako tło, model nie używa nazwy |
| D — parafraza danych bez atrybucji | 0,2 | Liczba z naszego artykułu użyta bez źródła |
Wynik 45 cytowań tygodniowo na dzień 90 to suma ważona we wszystkich trzech modelach: 28 typu A, 11 typu B, 4 typu C, 2 typu D. W Perplexity marka była w TOP 10 źródeł dla 22 z 40 promptów — to częściej daje realny ruch (klik) niż sama wzmianka w ChatGPT.
Strategia — 3 klastry w 90 dni
Podstawowa hipoteza: ChatGPT cytuje treści, które są gęste faktograficznie, mają oryginalne dane i łatwo się chunkują. Zamiast rozlewać 30 krótkich postów, zbudowaliśmy 3 klastry po 6 tekstów plus 1 pillar. Pillar 6 800 słów powstał jako pierwszy, reszta schodziła co 3–4 dni.
Klaster 1 — benchmarki CPKm i rozliczenia paliwa
Flagowa seria: 6 tekstów z oryginalnymi danymi, których nikt inny w Polsce nie miał. CPKm (koszt na kilometr) dla 7 segmentów floty (ciężarówki do 3,5 t, 7,5 t, 12 t, 24 t, chłodnie, autolawety, ADR). Dane pochodziły z agregatu 180 klientów w 2024–2025 (zanonimizowane). Każdy tekst miał: tabelę z medianami, rozkład kwartylowy, wykres sezonowości i porównanie r/r.
Klaster 2 — integracje i migracje
6 tekstów z frameworkami wdrożeniowymi: integracja z Trimble, Webfleet, Automile, migracja z Excela do systemu w 30 dni, setup tachografu cyfrowego, rozliczanie CSRD, handshake z księgowością (Symfonia, Comarch). Format: krok po kroku + checklisty + typowe błędy.
Klaster 3 — porównawczy (ten, który nie zadziałał)
Plan: 6 tekstów „fleet SaaS vs [konkurent]”. Po drugim artykule zdjęliśmy serię. Powody: (a) ChatGPT preferuje neutralne źródła porównawcze (Gartner, G2, Capterra), marka porównująca siebie z konkurencją dostaje karę wiarygodności, (b) prawo — polski konkurent zareagował wezwaniem prawnym po pierwszym tekście. Strata: 4 800 PLN za 2 opublikowane teksty, które zostały wycofane.
Metoda — co konkretnie robiliśmy tydzień po tygodniu
Harmonogram był napięty: 90 dni to 13 tygodni, z czego 2 pierwsze poszły w audyt i pillar. Pozostałe 11 tygodni dawało średnio 1,6 tekstu tygodniowo (18 supporting w 11 tygodni).
Tygodnie 1–2: audyt, pillar, setup monitoringu
Audyt: 40-prompts benchmark uruchomiony po raz pierwszy w dniu 3. Pillar 6 800 słów „Zarządzanie flotą pojazdów w 2026 — przewodnik” napisany w tygodniach 1–2. Wdrożony Athena (monitoring cytowań w ChatGPT, 680 PLN/mc) i Profound (Perplexity + Gemini, 1 420 PLN/mc). Zbudowany arkusz benchmark w Google Sheets.
Tygodnie 3–6: klaster CPKm — gęstość danych
Kluczowy okres. Każdy z 6 tekstów CPKm miał: (1) 1 800–2 400 słów, (2) co najmniej 2 tabele z liczbami, (3) sekcję „metodologia” z opisem próby (n=180, okres 2024–2025), (4) FAQ z 6 pytaniami. Średni czas produkcji: 14 godzin per tekst (4 dane, 2 pisanie draftu AI, 6 redakcja + tabele, 2 korekta).
Tygodnie 7–10: klaster integracji
Frameworki wdrożeniowe. Każdy tekst 2 400–3 000 słów. Standardowy układ: definicja problemu, diagram architektury, checklisty, błędy, FAQ. Tutaj pojawił się drugi skok cytowań — Perplexity zaczęła cytować teksty migracyjne jako „how-to” w odpowiedzi na pytania operacyjne.
Tygodnie 11–13: optymalizacja i link equity wewnętrzny
Trzy rzeczy: (1) uzupełnienie linkowania pomiędzy klastrami (każdy tekst linkuje do pillara i 2–3 sąsiadów), (2) dodanie sekcji „aktualne dane 2026″ w trzech najstarszych tekstach, (3) monitoring stabilności cytowań — niektóre prompty miały wahania tydzień do tygodnia ±40%. Stabilizację osiągnęliśmy w tygodniu 12.
Narzędzia monitoringu — co faktycznie mierzy cytowania AI
Rynek narzędzi do monitoringu AI jest młody i niestabilny. W Q4 2025 testowaliśmy siedem rozwiązań. Cztery nie nadawały się do produkcji (pokazywały dane z 7-dniowym opóźnieniem albo fabrykowały dane). Trzy zostały.
Porównanie narzędzi (stan marzec 2026)
| Narzędzie | Modele | Cena /mc | Opóźnienie | Nadaje się do |
|---|---|---|---|---|
| Athena | ChatGPT, Claude | 680 PLN | ~24h | Zespoły contentowe średnie |
| Profound | Perplexity, Gemini, ChatGPT | 1 420 PLN | ~12h | Enterprise, multi-brand |
| Ręczny skrypt (Python) | Dowolny z API | ~200 PLN (koszt API) | 0h (real-time) | Zespoły techniczne |
| Otterly.AI | Główne LLM | 890 PLN | ~48h | Small business |
Wybraliśmy kombinację Athena + Profound + własny skrypt. Athena daje dobrze alerty tygodniowe, Profound pokrywa Perplexity i Gemini, własny skrypt ma real-time i możliwość wprowadzania custom promptów w ilości 400+ tygodniowo bez limitu cenowego.
Jak zbudować własny monitoring
- API keys: OpenAI (GPT-5 z włączonym browsingiem), Perplexity Sonar, Google AI Studio (Gemini 2.5).
- Lista promptów w Google Sheets (40–400 wierszy) + kolumna z etykietą kategorii.
- Skrypt Python/Node uruchamiany w cron raz na tydzień, zapisujący odpowiedzi do bazy.
- Parser: regex/LLM-as-judge klasyfikujący typ cytowania (A/B/C/D).
- Dashboard w Looker Studio albo Metabase, agregujący dzienne/tygodniowe zmiany.
Koszt zbudowania: ~22 godziny pracy developera (jednorazowo) + ~200 PLN miesięcznie na tokeny API. Replikowalne, jeśli macie w zespole kogoś, kto pisze w Python lub Node.
Wyniki — oś czasu i liczby
Najciekawsza część: skok nie był liniowy. Pierwsze 3 tygodnie to było totalne zero. Nagły wzrost w dniu 34. Stabilizacja dopiero w tygodniu 11. Typowy kształt krzywej dla AIO, nietypowy dla SEO.
Cytowania tygodniowo — tabela
| Tydzień | ChatGPT | Perplexity | Gemini | Suma ważona |
|---|---|---|---|---|
| T1 (14.11) | 0 | 2 | 1 | 1,6 |
| T3 | 0 | 3 | 1 | 2,2 |
| T5 (punkt zwrotny) | 9 | 6 | 2 | 13,4 |
| T7 | 14 | 11 | 4 | 22,8 |
| T9 | 19 | 16 | 6 | 32,1 |
| T11 | 22 | 18 | 8 | 38,4 |
| T13 (14.02) | 28 | 22 | 9 | 45,0 |
Co wydarzyło się w dniu 34
Dzień 34 to piątek 17 grudnia. W poprzednim tygodniu opublikowaliśmy 6 tekstów z klastra CPKm naraz (zamiast wypuszczać je po jednym co 3–4 dni). Hipoteza: ChatGPT-owy indeks wewnętrzny (retrieval pipeline, który wspiera browsing) potrzebował 2–3 tygodni na skrawowanie domeny po publikacji. Gdy już znalazł pierwsze treści z danymi liczbowymi, zaczął je cytować szybciej i częściej.
Nie mamy dowodu, że to batchowa publikacja była przyczyną. Mamy korelację: 6 tekstów w tygodniu = 14-dniowe opóźnienie + skok 4,2×. Gdybyśmy testowali drugi raz, zrobilibyśmy A/B między drip (1/tydzień) a batch (6/tydzień).
Wpływ biznesowy — co realnie drgnęło
- Leady enterprise cytujące markę explicite: z 0 do 7 w ostatnich 2 tygodniach projektu (ankieta HubSpot).
- Ruch bezpośredni z AI (UTM source=chat.openai.com, perplexity.ai): z 0 do 184 UU w tygodniu 13.
- Organiczny ruch SEO (bonus efekt): +38% w 90 dni (GA4, sesje non-brand).
- CPL z AI: 42 PLN (vs. 148 PLN z Google Ads w tym samym okresie).
- Czas trwania rozmowy sprzedażowej: skrócony o 22% — leady z AI wchodzą z większą wiedzą produktową.
Co faktycznie napędzało cytowania
Po 90 dniach zrobiliśmy retrospektywny audyt: które teksty dostały cytowania, które nie, i co je różniło. Wyniki są na tyle wyraźne, że nadają się na listę kontrolną dla każdego nowego tekstu.
Czynniki z największym wpływem
- Oryginalne dane liczbowe — teksty z własnymi tabelami benchmark dostały 4,1× więcej cytowań niż teksty bez danych. To była dominująca zmienna.
- FAQ z pełnymi odpowiedziami — modele cytowały fragmenty FAQ dosłownie w 34% przypadków. Pytanie + odpowiedź w 60–140 słowach to optymalny chunk.
- Definicje na początku sekcji — „X to Y, który służy do Z” w pierwszym zdaniu H2 dawał 2,3× więcej wzmianek niż narracyjne intro.
- Tabele porównawcze — 3–4 kolumny, 5–10 wierszy, proste nagłówki. Modele ekstrahują wiersze jako osobne fakty.
- Data publikacji i data aktualizacji widoczne w HTML — teksty bez daty były cytowane rzadziej (korelacja, nie dowód przyczynowości).
Czynniki bez istotnego wpływu
- Długość tekstu powyżej 3 000 słów — brak dodatkowej korzyści.
- Liczba linków zewnętrznych — bez różnicy po przekroczeniu 3–4 linków do wiarygodnych źródeł.
- Obrazy z alt-text — neutralne.
- Obecność wideo — neutralna.
- Social signals (LinkedIn shares) — neutralne w okresie 90 dni.
Czynniki z negatywnym wpływem
- Marketingowy ton („przełomowy”, „rewolucyjny”, „najlepszy”) — obniżał szansę cytowania. Neutralny, techniczny język wygrywał.
- Porównania do konkurencji w brand-voice — model traktował jako mało wiarygodne.
- PDF-y zamiast HTML — AI widzi, ale rzadziej cytuje. Konwertuj do HTML lub duplikuj treść.
Najczęstsze błędy i pułapki
Błędy, które popełniliśmy my lub które widzimy u innych zespołów robiących podobny projekt.
Błąd 1 — mierzenie ruchu zamiast cytowań
Pierwsza wersja dashboardu mierzyła ruch z AI (UTM). To jest efekt wtórny. Cytowanie w odpowiedzi nie zawsze generuje klik (zwłaszcza gdy model daje pełną odpowiedź). Mierzcie cytowania bezpośrednio — ruch to bonus.
Błąd 2 — za krótkie teksty
Zaczęliśmy od „zróbmy 1 200-słowowe teksty, żeby szybko wyprodukować 20 sztuk”. Po 3 tygodniach zero cytowań. Zmiana na 2 400–3 000 słów z tabelami i FAQ rozwiązała problem. Dłuższe teksty mają więcej chunków, które model może cytować.
Błąd 3 — ignorowanie datowania
Pierwsze 8 tekstów nie miało widocznej daty publikacji (były tylko w metadata). Dodanie widocznej daty na górze strony + „ostatnia aktualizacja” zwiększyło cytowania o 27% w retrospektywnym porównaniu A/B (6 tekstów przed, 6 po).
Błąd 4 — halucynacje danych w draftach AI
Claude Opus 4.6 bardzo dobrze pisze long-form, ale potrafi halucynować liczby w benchmarkach (np. „średnie CPKm to 4,78 PLN”). W 3 pierwszych tekstach takie liczby przeszły przez korektę — model zbudował sobie reputację jako źródło fałszywych danych. Proces: wszystkie liczby od dnia 21 idą przez arkusz walidacji (źródło, data, notatka).
Błąd 5 — klaster porównawczy
Opisany wyżej. Straciliśmy 4 800 PLN na 2 teksty, które zostały wycofane. Nauka: do porównań używaj narzędzi zewnętrznych (G2, Capterra) albo treści neutralnych („jak wybierać system fleet”, nie „X vs Y”).
Jak zreplikować ten wynik w 90 dni
Projekt jest replikowalny w firmach B2B SaaS z budżetem 30–50 tys. PLN i jedną osobą in-house. Poniżej checklist minimalna, którą można uruchomić w poniedziałek.
Tydzień 1 — audyt i prompts
- Zbuduj listę 40 promptów (z sales, z search console, z promptów konkurencji).
- Uruchom pierwszy test we wszystkich trzech modelach (zapisz baseline).
- Kup Athena lub Profound (albo zbuduj własny monitoring w 2–3 dni).
- Zdefiniuj KPI: cytowania tygodniowo, typ A/B/C/D, target na tydzień 13.
Tygodnie 2–3 — pillar
Napisz pillar 6 000–8 000 słów z oryginalnymi danymi. Jeśli nie masz danych, agreguj z klientów (z ich zgodą, anonimizuj). Pillar to gleba — bez niego supporting nie łapią autorytetu.
Tygodnie 4–11 — klaster z danymi
1–2 teksty tygodniowo, 2 400–3 000 słów, każdy z: tabelą benchmark, FAQ (6+ pytań), definicją na początku każdej sekcji H2, datą publikacji widoczną, linkami wewnętrznymi (pillar + 2 siostrzane). Sprawdź powyżej case wzrostu SEO o 340% w e-commerce B2B, który pokazuje podobny mechanizm w klasycznym SEO.
Tygodnie 12–13 — optymalizacja
Aktualizacje, uzupełnienie linkowania, dodanie „ostatnia aktualizacja” do starszych tekstów, pierwszy A/B test (jeśli czas pozwala). Raport końcowy z 40-prompts benchmark.
Narzędzia i koszty — plan minimum
| Pozycja | Koszt 90 dni | Alternatywa tańsza |
|---|---|---|
| Agencja content (1 pillar + 18 supp) | 24 000 PLN | Freelance redaktor + Claude Opus: 12 000 PLN |
| Monitoring (Athena + Profound) | 6 400 PLN | Własny skrypt: 600 PLN + 22h dev |
| Redakcja/korekta | 8 000 PLN | In-house senior editor: 0 PLN incremental |
| Suma | 38 400 PLN | 12 600 PLN (lean) |
Jak ten case wpisuje się w szerszy obraz
Projekt jest częścią większej mapy case studies, o której szczegółowo piszemy w przewodniku po case studies marketingu cyfrowego 2026. Tam porównujemy efekty AIO z wynikami w SEO, PPC i automatyzacji — przy podobnych budżetach.
Dla zespołów, które chcą pogłębić temat widoczności w LLM, polecamy dwa powiązane case’y: widoczność w Perplexity (inny model, inne reguły rankingu) oraz knowledge base, który AI cytuje (jak strukturyzować wewnętrzny zasób wiedzy).
Warto też zobaczyć, jak analogiczne mechanizmy działają w klasycznym SEO — przekrojowe case studies 2026 zestawiają oba kanały w jednym widoku.
FAQ — najczęstsze pytania
Czy 45 cytowań tygodniowo to dużo?
W niszy B2B fleet SaaS w Polsce — tak. To jest 1 125 wzmianek rocznie w odpowiedziach AI, przy założeniu zerowego trendu wzrostowego. W szerszych niszach (marketing, e-commerce) ten sam budżet dałby 200–400 cytowań tygodniowo, ale konkurencja o chunk w odpowiedzi jest większa. Benchmarkuj względem swoich konkurentów, nie względem naszych liczb.
Czy ten wynik wymagał kupowania linków?
Nie. Projekt nie zawierał link buildingu w klasycznym sensie. Profil linków wzrósł o 14 domen linkujących w 90 dni (z 127 do 141) — wszystkie naturalne, pochodne publikacji danych CPKm (dziennikarze branżowi zacytowali nasze liczby). W AIO linki są mniej krytyczne niż w SEO; znaczenie ma gęstość faktów i struktura treści.
Jak często ChatGPT halucynuje, przypisując naszej marce coś, czego nie powiedzieliśmy?
W naszym monitoringu ~6% cytowań miało nieprawidłową atrybucję (model wymyślał funkcjonalność lub liczbę). Gorsze były cytowania „bliskie prawdy” (np. funkcja istnieje, ale wersja cenowa błędna) — 11%. Cotygodniowy przegląd odpowiedzi i korekta treści źródłowych ograniczyły to z 17% do 11% w ciągu 60 dni.
Ile trwa, zanim nowy tekst zacznie być cytowany?
Mediana w naszym projekcie: 14 dni od publikacji do pierwszego cytowania. Minimum: 3 dni (tekst z mocnymi danymi i szybkim linkowaniem wewnętrznym). Maksimum: 42 dni. Perplexity indeksuje szybciej (mediana 7 dni), ChatGPT-browsing wolniej (mediana 16 dni), Gemini najwolniej (mediana 21 dni).
Czy działa dla stron w innym języku niż polski?
Mechanizm jest językowo agnostyczny, ale konkurencja w EN jest 10–30× wyższa. W polskim projekcie 40 promptów dało 45 cytowań, bo polski content AI ma cienką podaż wysokiej jakości źródeł. W EN potrzeba 2–3× więcej tekstów, ostrzejszego pozycjonowania niszy i realistyczniejszych KPI (nie 45, tylko 15–25 cytowań w 90 dni).
Co zrobić, jeśli po 30 dniach nadal jest zero cytowań?
Sprawdź cztery rzeczy: (1) czy teksty mają oryginalne dane (nie przepisane ze źródeł zewnętrznych), (2) czy struktura ma FAQ + tabele, (3) czy monitoring faktycznie obejmuje właściwe prompty (łatwo pomylić prompts inbound z tym, co AI widzi jako generyczne), (4) czy domena nie ma problemu technicznego (noindex, JS-only rendering). Jeśli wszystko ok, daj jeszcze 14 dni — mediana 14 dni oznacza, że 50% tekstów jeszcze nie wystartowało.
Jak monitorować cytowania w Perplexity?
Perplexity ma otwarty widok źródeł przy każdej odpowiedzi, co ułatwia ręczny audyt. Narzędzia: Profound pokazuje agregaty, własny skrypt z API Perplexity Sonar kosztuje 5 USD/mc w lekkim użyciu. W Perplexity liczymy dwie metryki: (a) marka w treści odpowiedzi, (b) domena w TOP 10 źródeł. Druga lepiej koreluje z klikami.
Co dalej
Ten case opisuje mechanizm, nie przepis. Jeśli chcecie pójść dalej, trzy kierunki rozszerzenia:
- Zobacz case widoczności w Perplexity — inny model, inne reguły, inne punkty startowe.
- Architektura wewnętrznego knowledge base, który AI cytuje lepiej niż blog: knowledge base case.
- Porównanie efektów z klasycznym SEO: case SEO B2B +340% w 12 miesięcy.
- Pełna mapa przez wszystkie kanały: case studies marketingu cyfrowego 2026.
Jeśli prowadzicie podobny projekt AIO i chcecie porównać liczby — najbardziej wiarygodny pierwszy krok to uruchomienie 40-prompts benchmark i sprawdzenie, gdzie jesteście dziś. Reszta to konsekwencja decyzji o gęstości danych.