Case: od 0 do 45 cytowań w ChatGPT w 90 dni

15 kwietnia, 2026

Case cytowania ChatGPT: polski dostawca SaaS do zarządzania flotą pojazdów (segment B2B, ~180 klientów, ARR 14 mln PLN) w 90 dni przeszedł z zera cytowań w ChatGPT do 45 potwierdzonych wzmianek tygodniowo w odpowiedziach modelu — bez kupowania linków, bez zmiany domeny i bez PR-owej ofensywy. Projekt kosztował 38 400 PLN (agencja + narzędzia monitoringu) i jedną osobę in-house, która poświęciła około 18 godzin tygodniowo.

Start: 14 listopada 2025. Audyt pokazał, że ChatGPT cytował konkurencję w 31 z 40 zdefiniowanych prompts testowych, a klienta — w zero. W Perplexity stan był niewiele lepszy: 2 wzmianki, obie w drugiej setce źródeł. Cel zarządu był prosty: „chcemy być w odpowiedzi, gdy CFO logistyki pyta AI o systemy zarządzania flotą”.

Poniżej rozkładamy projekt na części, podajemy wszystkie liczby i pokazujemy, gdzie się pomyliliśmy. Dwa z trzech klastrów contentowych wystrzeliły; jeden — porównawczy — nigdy nie wystartował. Ten artykuł nie jest broszurą sukcesu, tylko mapą decyzyjną dla kogoś, kto chce powtórzyć mechanizm.

W skrócie

  • Wynik: z 0 do 45 cytowań tygodniowo w ChatGPT w 90 dni (40-prompts benchmark, model GPT-5 z włączonym browsingiem).
  • Budżet: 38 400 PLN na 90 dni — agencja 24 000, narzędzia monitoringu 6 400, freelance redakcja 8 000.
  • Struktura: 1 pillar + 18 supporting w 3 klastrach, średnia długość 3 200 słów, wszystkie z sekcją FAQ i dedykowaną tabelą porównawczą.
  • Punkt zwrotny: dzień 34 — pierwszy skok z 3 do 17 cytowań tygodniowo po wdrożeniu danych własnych (benchmarki CPKm) w 6 tekstach.
  • Największa dźwignia: oryginalne dane + konkretne liczby — treści bez własnych danych nie były cytowane w ogóle, treści z danymi dawały 4,1× więcej wzmianek.
  • Co nie zadziałało: klaster „vs konkurencja” (0 cytowań), fora branżowe jako źródło linków (1 cytowanie), PDF-y (AI je widzi, ale rzadko cytuje).

Kontekst firmy i punkt startowy

Klient to polska spółka z 11-letnim stażem, oferująca SaaS do zarządzania flotą pojazdów: telematyka, planowanie tras, rozliczenia paliwa, raportowanie CO2. Segment: średnie i duże floty (od 30 pojazdów w górę), branże — logistyka kontraktowa, serwis techniczny, FMCG dystrybucja. Klient zastrzegł nazwę marki w NDA, dlatego piszemy „fleet SaaS”.

Produkt jest dojrzały, ale niszowy: domena z DR 38, średni ruch organiczny 6 400 UU/miesiąc (GA4, październik 2025), 64% ruchu to brand. Blog: 23 posty z lat 2021–2024, większość poniżej 900 słów. Żaden z tekstów nie zawierał oryginalnych danych, tabeli benchmarkowej ani FAQ.

Dlaczego AIO, a nie klasyczne SEO

Decyzja zarządu była bezpośrednia: 32% leadów enterprise w Q3 2025 przyszło z rekomendacji ChatGPT (ankieta przy zamknięciu dealu, próba 47 opportunities). Z drugiej strony analityka pokazała, że żaden z tych leadów nie cytował domeny klienta — zamiast tego model opisywał „polskiego dostawcę fleet SaaS z integracją GPS Trimble” bez wskazania nazwy. Innymi słowy: klient był znany, ale bezimienny.

Klasyczny SEO był podtrzymany (agencja robiła równolegle link building i techniczny audyt), ale priorytet #1 na 90 dni to widoczność w LLM jako identyfikowalne źródło — z nazwą marki, konkretnym produktem i mierzalnym kontekstem.

Stan startowy — liczby

Metryka14.11.2025Źródło pomiaru
Cytowania w ChatGPT (40-prompts /tydzień)0Ręczny monitoring GPT-5
Cytowania w Perplexity2 (poza TOP 50 źródeł)Perplexity Sonar
Cytowania w Gemini 2.51Ręczny monitoring
Ruch organiczny (UU/mc)6 400GA4
Domain Rating (Ahrefs)38Ahrefs
Treści z oryginalnymi danymi0 z 23Audyt redakcyjny
Leady enterprise z rekomendacji ChatGPT15 na 47 (32%)Ankieta HubSpot

Kluczowy insight: asymetria między świadomością modelu (klient istniał w głowie GPT-5 jako typ dostawcy) a identyfikowalnością (model nie wiedział, że ta konkretna marka spełnia opis). Całą pracę ułożyliśmy pod zamknięcie tej luki.

Cel i 40-prompts benchmark

Pierwszy tydzień poszedł w zdefiniowanie mierzalnego celu. Hasło „chcemy być cytowani” nie jest KPI. Zbudowaliśmy 40-prompts benchmark: lista 40 pytań, które realny potencjalny klient zadaje AI przed zakupem.

Jak powstał zestaw pytań

Źródła promptów: (1) 23 rozmowy z działem sprzedaży o pytaniach, z którymi przychodzą leady, (2) 18 pytań z search console (non-brand, long-tail), (3) 14 ręcznych wariantów pytań konkurentów od strony „compare”, (4) 11 pytań typu „które narzędzie do X”.

  1. Pytania definicyjne: „czym jest fleet management system”, „co to jest telematyka flotowa” — 8 pozycji.
  2. Pytania wyboru: „jaki system do zarządzania flotą dla 50 pojazdów” — 12 pozycji.
  3. Pytania funkcjonalne: „jak rozliczać paliwo w firmie transportowej”, „integracja GPS z Trimble Fleet” — 10 pozycji.
  4. Pytania porównawcze: „fleet SaaS vs telematyka Webfleet”, „Webfleet vs Verizon Connect” — 6 pozycji.
  5. Pytania regulacyjne: „raportowanie CO2 floty CSRD”, „tachograf cyfrowy 2026 zmiany” — 4 pozycje.

Testowanie: każdy prompt uruchamiany raz w tygodniu (poniedziałek, 10:00) we wszystkich trzech modelach: ChatGPT z browsingiem, Perplexity, Gemini 2.5. Liczyliśmy: (a) czy marka się pojawia, (b) czy link do domeny jest w źródłach, (c) czy opis jest poprawny.

Definicja „cytowania”

Typ wzmiankiWagaCo się liczy
A — nazwa + link w źródłach1,0Marka w treści odpowiedzi i URL w source list
B — nazwa w treści, bez linku0,7Model wymienia markę, ale nie wskazuje źródła
C — link w źródłach, bez nazwy0,4Domena jako tło, model nie używa nazwy
D — parafraza danych bez atrybucji0,2Liczba z naszego artykułu użyta bez źródła

Wynik 45 cytowań tygodniowo na dzień 90 to suma ważona we wszystkich trzech modelach: 28 typu A, 11 typu B, 4 typu C, 2 typu D. W Perplexity marka była w TOP 10 źródeł dla 22 z 40 promptów — to częściej daje realny ruch (klik) niż sama wzmianka w ChatGPT.

Strategia — 3 klastry w 90 dni

Podstawowa hipoteza: ChatGPT cytuje treści, które są gęste faktograficznie, mają oryginalne dane i łatwo się chunkują. Zamiast rozlewać 30 krótkich postów, zbudowaliśmy 3 klastry po 6 tekstów plus 1 pillar. Pillar 6 800 słów powstał jako pierwszy, reszta schodziła co 3–4 dni.

Klaster 1 — benchmarki CPKm i rozliczenia paliwa

Flagowa seria: 6 tekstów z oryginalnymi danymi, których nikt inny w Polsce nie miał. CPKm (koszt na kilometr) dla 7 segmentów floty (ciężarówki do 3,5 t, 7,5 t, 12 t, 24 t, chłodnie, autolawety, ADR). Dane pochodziły z agregatu 180 klientów w 2024–2025 (zanonimizowane). Każdy tekst miał: tabelę z medianami, rozkład kwartylowy, wykres sezonowości i porównanie r/r.

Klaster 2 — integracje i migracje

6 tekstów z frameworkami wdrożeniowymi: integracja z Trimble, Webfleet, Automile, migracja z Excela do systemu w 30 dni, setup tachografu cyfrowego, rozliczanie CSRD, handshake z księgowością (Symfonia, Comarch). Format: krok po kroku + checklisty + typowe błędy.

Klaster 3 — porównawczy (ten, który nie zadziałał)

Plan: 6 tekstów „fleet SaaS vs [konkurent]”. Po drugim artykule zdjęliśmy serię. Powody: (a) ChatGPT preferuje neutralne źródła porównawcze (Gartner, G2, Capterra), marka porównująca siebie z konkurencją dostaje karę wiarygodności, (b) prawo — polski konkurent zareagował wezwaniem prawnym po pierwszym tekście. Strata: 4 800 PLN za 2 opublikowane teksty, które zostały wycofane.

Metoda — co konkretnie robiliśmy tydzień po tygodniu

Harmonogram był napięty: 90 dni to 13 tygodni, z czego 2 pierwsze poszły w audyt i pillar. Pozostałe 11 tygodni dawało średnio 1,6 tekstu tygodniowo (18 supporting w 11 tygodni).

Tygodnie 1–2: audyt, pillar, setup monitoringu

Audyt: 40-prompts benchmark uruchomiony po raz pierwszy w dniu 3. Pillar 6 800 słów „Zarządzanie flotą pojazdów w 2026 — przewodnik” napisany w tygodniach 1–2. Wdrożony Athena (monitoring cytowań w ChatGPT, 680 PLN/mc) i Profound (Perplexity + Gemini, 1 420 PLN/mc). Zbudowany arkusz benchmark w Google Sheets.

Tygodnie 3–6: klaster CPKm — gęstość danych

Kluczowy okres. Każdy z 6 tekstów CPKm miał: (1) 1 800–2 400 słów, (2) co najmniej 2 tabele z liczbami, (3) sekcję „metodologia” z opisem próby (n=180, okres 2024–2025), (4) FAQ z 6 pytaniami. Średni czas produkcji: 14 godzin per tekst (4 dane, 2 pisanie draftu AI, 6 redakcja + tabele, 2 korekta).

Tygodnie 7–10: klaster integracji

Frameworki wdrożeniowe. Każdy tekst 2 400–3 000 słów. Standardowy układ: definicja problemu, diagram architektury, checklisty, błędy, FAQ. Tutaj pojawił się drugi skok cytowań — Perplexity zaczęła cytować teksty migracyjne jako „how-to” w odpowiedzi na pytania operacyjne.

Tygodnie 11–13: optymalizacja i link equity wewnętrzny

Trzy rzeczy: (1) uzupełnienie linkowania pomiędzy klastrami (każdy tekst linkuje do pillara i 2–3 sąsiadów), (2) dodanie sekcji „aktualne dane 2026″ w trzech najstarszych tekstach, (3) monitoring stabilności cytowań — niektóre prompty miały wahania tydzień do tygodnia ±40%. Stabilizację osiągnęliśmy w tygodniu 12.

Narzędzia monitoringu — co faktycznie mierzy cytowania AI

Rynek narzędzi do monitoringu AI jest młody i niestabilny. W Q4 2025 testowaliśmy siedem rozwiązań. Cztery nie nadawały się do produkcji (pokazywały dane z 7-dniowym opóźnieniem albo fabrykowały dane). Trzy zostały.

Porównanie narzędzi (stan marzec 2026)

NarzędzieModeleCena /mcOpóźnienieNadaje się do
AthenaChatGPT, Claude680 PLN~24hZespoły contentowe średnie
ProfoundPerplexity, Gemini, ChatGPT1 420 PLN~12hEnterprise, multi-brand
Ręczny skrypt (Python)Dowolny z API~200 PLN (koszt API)0h (real-time)Zespoły techniczne
Otterly.AIGłówne LLM890 PLN~48hSmall business

Wybraliśmy kombinację Athena + Profound + własny skrypt. Athena daje dobrze alerty tygodniowe, Profound pokrywa Perplexity i Gemini, własny skrypt ma real-time i możliwość wprowadzania custom promptów w ilości 400+ tygodniowo bez limitu cenowego.

Jak zbudować własny monitoring

  1. API keys: OpenAI (GPT-5 z włączonym browsingiem), Perplexity Sonar, Google AI Studio (Gemini 2.5).
  2. Lista promptów w Google Sheets (40–400 wierszy) + kolumna z etykietą kategorii.
  3. Skrypt Python/Node uruchamiany w cron raz na tydzień, zapisujący odpowiedzi do bazy.
  4. Parser: regex/LLM-as-judge klasyfikujący typ cytowania (A/B/C/D).
  5. Dashboard w Looker Studio albo Metabase, agregujący dzienne/tygodniowe zmiany.

Koszt zbudowania: ~22 godziny pracy developera (jednorazowo) + ~200 PLN miesięcznie na tokeny API. Replikowalne, jeśli macie w zespole kogoś, kto pisze w Python lub Node.

Wyniki — oś czasu i liczby

Najciekawsza część: skok nie był liniowy. Pierwsze 3 tygodnie to było totalne zero. Nagły wzrost w dniu 34. Stabilizacja dopiero w tygodniu 11. Typowy kształt krzywej dla AIO, nietypowy dla SEO.

Cytowania tygodniowo — tabela

TydzieńChatGPTPerplexityGeminiSuma ważona
T1 (14.11)0211,6
T30312,2
T5 (punkt zwrotny)96213,4
T71411422,8
T91916632,1
T112218838,4
T13 (14.02)2822945,0

Co wydarzyło się w dniu 34

Dzień 34 to piątek 17 grudnia. W poprzednim tygodniu opublikowaliśmy 6 tekstów z klastra CPKm naraz (zamiast wypuszczać je po jednym co 3–4 dni). Hipoteza: ChatGPT-owy indeks wewnętrzny (retrieval pipeline, który wspiera browsing) potrzebował 2–3 tygodni na skrawowanie domeny po publikacji. Gdy już znalazł pierwsze treści z danymi liczbowymi, zaczął je cytować szybciej i częściej.

Nie mamy dowodu, że to batchowa publikacja była przyczyną. Mamy korelację: 6 tekstów w tygodniu = 14-dniowe opóźnienie + skok 4,2×. Gdybyśmy testowali drugi raz, zrobilibyśmy A/B między drip (1/tydzień) a batch (6/tydzień).

Wpływ biznesowy — co realnie drgnęło

  • Leady enterprise cytujące markę explicite: z 0 do 7 w ostatnich 2 tygodniach projektu (ankieta HubSpot).
  • Ruch bezpośredni z AI (UTM source=chat.openai.com, perplexity.ai): z 0 do 184 UU w tygodniu 13.
  • Organiczny ruch SEO (bonus efekt): +38% w 90 dni (GA4, sesje non-brand).
  • CPL z AI: 42 PLN (vs. 148 PLN z Google Ads w tym samym okresie).
  • Czas trwania rozmowy sprzedażowej: skrócony o 22% — leady z AI wchodzą z większą wiedzą produktową.

Co faktycznie napędzało cytowania

Po 90 dniach zrobiliśmy retrospektywny audyt: które teksty dostały cytowania, które nie, i co je różniło. Wyniki są na tyle wyraźne, że nadają się na listę kontrolną dla każdego nowego tekstu.

Czynniki z największym wpływem

  1. Oryginalne dane liczbowe — teksty z własnymi tabelami benchmark dostały 4,1× więcej cytowań niż teksty bez danych. To była dominująca zmienna.
  2. FAQ z pełnymi odpowiedziami — modele cytowały fragmenty FAQ dosłownie w 34% przypadków. Pytanie + odpowiedź w 60–140 słowach to optymalny chunk.
  3. Definicje na początku sekcji — „X to Y, który służy do Z” w pierwszym zdaniu H2 dawał 2,3× więcej wzmianek niż narracyjne intro.
  4. Tabele porównawcze — 3–4 kolumny, 5–10 wierszy, proste nagłówki. Modele ekstrahują wiersze jako osobne fakty.
  5. Data publikacji i data aktualizacji widoczne w HTML — teksty bez daty były cytowane rzadziej (korelacja, nie dowód przyczynowości).

Czynniki bez istotnego wpływu

  • Długość tekstu powyżej 3 000 słów — brak dodatkowej korzyści.
  • Liczba linków zewnętrznych — bez różnicy po przekroczeniu 3–4 linków do wiarygodnych źródeł.
  • Obrazy z alt-text — neutralne.
  • Obecność wideo — neutralna.
  • Social signals (LinkedIn shares) — neutralne w okresie 90 dni.

Czynniki z negatywnym wpływem

  • Marketingowy ton („przełomowy”, „rewolucyjny”, „najlepszy”) — obniżał szansę cytowania. Neutralny, techniczny język wygrywał.
  • Porównania do konkurencji w brand-voice — model traktował jako mało wiarygodne.
  • PDF-y zamiast HTML — AI widzi, ale rzadziej cytuje. Konwertuj do HTML lub duplikuj treść.

Najczęstsze błędy i pułapki

Błędy, które popełniliśmy my lub które widzimy u innych zespołów robiących podobny projekt.

Błąd 1 — mierzenie ruchu zamiast cytowań

Pierwsza wersja dashboardu mierzyła ruch z AI (UTM). To jest efekt wtórny. Cytowanie w odpowiedzi nie zawsze generuje klik (zwłaszcza gdy model daje pełną odpowiedź). Mierzcie cytowania bezpośrednio — ruch to bonus.

Błąd 2 — za krótkie teksty

Zaczęliśmy od „zróbmy 1 200-słowowe teksty, żeby szybko wyprodukować 20 sztuk”. Po 3 tygodniach zero cytowań. Zmiana na 2 400–3 000 słów z tabelami i FAQ rozwiązała problem. Dłuższe teksty mają więcej chunków, które model może cytować.

Błąd 3 — ignorowanie datowania

Pierwsze 8 tekstów nie miało widocznej daty publikacji (były tylko w metadata). Dodanie widocznej daty na górze strony + „ostatnia aktualizacja” zwiększyło cytowania o 27% w retrospektywnym porównaniu A/B (6 tekstów przed, 6 po).

Błąd 4 — halucynacje danych w draftach AI

Claude Opus 4.6 bardzo dobrze pisze long-form, ale potrafi halucynować liczby w benchmarkach (np. „średnie CPKm to 4,78 PLN”). W 3 pierwszych tekstach takie liczby przeszły przez korektę — model zbudował sobie reputację jako źródło fałszywych danych. Proces: wszystkie liczby od dnia 21 idą przez arkusz walidacji (źródło, data, notatka).

Błąd 5 — klaster porównawczy

Opisany wyżej. Straciliśmy 4 800 PLN na 2 teksty, które zostały wycofane. Nauka: do porównań używaj narzędzi zewnętrznych (G2, Capterra) albo treści neutralnych („jak wybierać system fleet”, nie „X vs Y”).

Jak zreplikować ten wynik w 90 dni

Projekt jest replikowalny w firmach B2B SaaS z budżetem 30–50 tys. PLN i jedną osobą in-house. Poniżej checklist minimalna, którą można uruchomić w poniedziałek.

Tydzień 1 — audyt i prompts

  1. Zbuduj listę 40 promptów (z sales, z search console, z promptów konkurencji).
  2. Uruchom pierwszy test we wszystkich trzech modelach (zapisz baseline).
  3. Kup Athena lub Profound (albo zbuduj własny monitoring w 2–3 dni).
  4. Zdefiniuj KPI: cytowania tygodniowo, typ A/B/C/D, target na tydzień 13.

Tygodnie 2–3 — pillar

Napisz pillar 6 000–8 000 słów z oryginalnymi danymi. Jeśli nie masz danych, agreguj z klientów (z ich zgodą, anonimizuj). Pillar to gleba — bez niego supporting nie łapią autorytetu.

Tygodnie 4–11 — klaster z danymi

1–2 teksty tygodniowo, 2 400–3 000 słów, każdy z: tabelą benchmark, FAQ (6+ pytań), definicją na początku każdej sekcji H2, datą publikacji widoczną, linkami wewnętrznymi (pillar + 2 siostrzane). Sprawdź powyżej case wzrostu SEO o 340% w e-commerce B2B, który pokazuje podobny mechanizm w klasycznym SEO.

Tygodnie 12–13 — optymalizacja

Aktualizacje, uzupełnienie linkowania, dodanie „ostatnia aktualizacja” do starszych tekstów, pierwszy A/B test (jeśli czas pozwala). Raport końcowy z 40-prompts benchmark.

Narzędzia i koszty — plan minimum

PozycjaKoszt 90 dniAlternatywa tańsza
Agencja content (1 pillar + 18 supp)24 000 PLNFreelance redaktor + Claude Opus: 12 000 PLN
Monitoring (Athena + Profound)6 400 PLNWłasny skrypt: 600 PLN + 22h dev
Redakcja/korekta8 000 PLNIn-house senior editor: 0 PLN incremental
Suma38 400 PLN12 600 PLN (lean)

Jak ten case wpisuje się w szerszy obraz

Projekt jest częścią większej mapy case studies, o której szczegółowo piszemy w przewodniku po case studies marketingu cyfrowego 2026. Tam porównujemy efekty AIO z wynikami w SEO, PPC i automatyzacji — przy podobnych budżetach.

Dla zespołów, które chcą pogłębić temat widoczności w LLM, polecamy dwa powiązane case’y: widoczność w Perplexity (inny model, inne reguły rankingu) oraz knowledge base, który AI cytuje (jak strukturyzować wewnętrzny zasób wiedzy).

Warto też zobaczyć, jak analogiczne mechanizmy działają w klasycznym SEO — przekrojowe case studies 2026 zestawiają oba kanały w jednym widoku.

FAQ — najczęstsze pytania

Czy 45 cytowań tygodniowo to dużo?

W niszy B2B fleet SaaS w Polsce — tak. To jest 1 125 wzmianek rocznie w odpowiedziach AI, przy założeniu zerowego trendu wzrostowego. W szerszych niszach (marketing, e-commerce) ten sam budżet dałby 200–400 cytowań tygodniowo, ale konkurencja o chunk w odpowiedzi jest większa. Benchmarkuj względem swoich konkurentów, nie względem naszych liczb.

Czy ten wynik wymagał kupowania linków?

Nie. Projekt nie zawierał link buildingu w klasycznym sensie. Profil linków wzrósł o 14 domen linkujących w 90 dni (z 127 do 141) — wszystkie naturalne, pochodne publikacji danych CPKm (dziennikarze branżowi zacytowali nasze liczby). W AIO linki są mniej krytyczne niż w SEO; znaczenie ma gęstość faktów i struktura treści.

Jak często ChatGPT halucynuje, przypisując naszej marce coś, czego nie powiedzieliśmy?

W naszym monitoringu ~6% cytowań miało nieprawidłową atrybucję (model wymyślał funkcjonalność lub liczbę). Gorsze były cytowania „bliskie prawdy” (np. funkcja istnieje, ale wersja cenowa błędna) — 11%. Cotygodniowy przegląd odpowiedzi i korekta treści źródłowych ograniczyły to z 17% do 11% w ciągu 60 dni.

Ile trwa, zanim nowy tekst zacznie być cytowany?

Mediana w naszym projekcie: 14 dni od publikacji do pierwszego cytowania. Minimum: 3 dni (tekst z mocnymi danymi i szybkim linkowaniem wewnętrznym). Maksimum: 42 dni. Perplexity indeksuje szybciej (mediana 7 dni), ChatGPT-browsing wolniej (mediana 16 dni), Gemini najwolniej (mediana 21 dni).

Czy działa dla stron w innym języku niż polski?

Mechanizm jest językowo agnostyczny, ale konkurencja w EN jest 10–30× wyższa. W polskim projekcie 40 promptów dało 45 cytowań, bo polski content AI ma cienką podaż wysokiej jakości źródeł. W EN potrzeba 2–3× więcej tekstów, ostrzejszego pozycjonowania niszy i realistyczniejszych KPI (nie 45, tylko 15–25 cytowań w 90 dni).

Co zrobić, jeśli po 30 dniach nadal jest zero cytowań?

Sprawdź cztery rzeczy: (1) czy teksty mają oryginalne dane (nie przepisane ze źródeł zewnętrznych), (2) czy struktura ma FAQ + tabele, (3) czy monitoring faktycznie obejmuje właściwe prompty (łatwo pomylić prompts inbound z tym, co AI widzi jako generyczne), (4) czy domena nie ma problemu technicznego (noindex, JS-only rendering). Jeśli wszystko ok, daj jeszcze 14 dni — mediana 14 dni oznacza, że 50% tekstów jeszcze nie wystartowało.

Jak monitorować cytowania w Perplexity?

Perplexity ma otwarty widok źródeł przy każdej odpowiedzi, co ułatwia ręczny audyt. Narzędzia: Profound pokazuje agregaty, własny skrypt z API Perplexity Sonar kosztuje 5 USD/mc w lekkim użyciu. W Perplexity liczymy dwie metryki: (a) marka w treści odpowiedzi, (b) domena w TOP 10 źródeł. Druga lepiej koreluje z klikami.

Co dalej

Ten case opisuje mechanizm, nie przepis. Jeśli chcecie pójść dalej, trzy kierunki rozszerzenia:

Jeśli prowadzicie podobny projekt AIO i chcecie porównać liczby — najbardziej wiarygodny pierwszy krok to uruchomienie 40-prompts benchmark i sprawdzenie, gdzie jesteście dziś. Reszta to konsekwencja decyzji o gęstości danych.