Share of Voice w AI: jak mierzyć widoczność marki w LLM

15 kwietnia, 2026

Share of Voice AI to odsetek zapytań w ChatGPT, Perplexity i Gemini, w których twoja marka pojawia się jako cytowane źródło albo nazwana encja. W 2026 roku metryka ta stała się głównym wskaźnikiem widoczności w warstwie LLM — niezależnym od pozycji w Google, bo w 8–14% zapytań informacyjnych decyzję o kliknięciu lub o braku kliknięcia podejmuje użytkownik po obejrzeniu odpowiedzi AI, nie SERP.

Ten artykuł pokazuje, jak zbudować powtarzalny, tygodniowy pomiar Share of Voice dla trzech silników AI, jak liczyć różne warianty wskaźnika (citation SoV, mention SoV, weighted SoV) i jak interpretować wyniki bez wpadania w pułapki małych prób i rotacji modeli.

Opisywany framework pochodzi z wdrożeń w 14 projektach B2B i e-commerce w Polsce i DACH między październikiem 2025 a marcem 2026. Wszystkie liczby w tekście są albo z publicznych źródeł, albo z tych wdrożeń — gdzie nie ma liczby, opisujemy mechanizm. Rozszerzeniem tego tekstu jest pillar AIO 2026: pełny przewodnik po optymalizacji treści pod wyszukiwarki AI i LLM, do którego wrócimy w końcówce.

W skrócie

  • Share of Voice AI to liczba zapytań, w których marka jest cytowana lub wymieniona, podzielona przez liczbę wszystkich zapytań w zdefiniowanej puli tematycznej.
  • Minimalna pula testowa: 150–300 pytań tygodniowo; poniżej 100 zapytań błąd statystyczny przekracza 8 p.p.
  • Trzy warianty metryki: citation SoV (tylko klikalne cytowania), mention SoV (nazwa marki w tekście bez linku), weighted SoV (z wagą za pozycję w karuzeli źródeł).
  • ChatGPT, Perplexity i Gemini mierzymy osobno — korelacja cytowań między silnikami wynosi 0,35–0,55.
  • Realistyczny target dla marki średniej wielkości w niszy B2B: 6–12% SoV w 90 dni, 15–25% po roku konsekwentnej pracy na strukturze i gęstości faktów.
  • Konkurencja mierzy się 3 silnikami × 3 wariantami SoV × minimum 10 zapytań per kategoria tematyczna = minimum 90 punktów danych tygodniowo.

Czym jest Share of Voice w AI i dlaczego to inna metryka niż w SEO

Share of Voice AI mierzy udział marki w odpowiedziach generowanych przez duże modele językowe, a nie w listach linków zwracanych przez wyszukiwarki. To fundamentalna zmiana jednostki pomiaru: z pozycji URL na częstotliwość cytowań.

Klasyczny SoV w SEO liczy się jako suma wag pozycji w SERP razy szacowany CTR. Masz pozycję 3 dla 40% słów kluczowych w niszy — wyciągasz z tego przybliżony udział w ruchu. W AI mechanizm jest prostszy i trudniejszy jednocześnie: albo jesteś cytowany w odpowiedzi, albo nie. Pozycji w rankingu jako takiej nie ma; jest tylko lista źródeł, zwykle od 3 do 12 w pojedynczej odpowiedzi.

Dodatkowa trudność: odpowiedź nie jest deterministyczna. Ten sam prompt wysłany dwa razy w odstępie minuty potrafi wygenerować inny zestaw źródeł, bo temperatura modeli jest niezerowa, a silniki wyszukiwania rotują kandydatów. Z tego powodu SoV trzeba uśredniać z kilku uruchomień tego samego pytania.

Trzy różnice, które zmieniają sposób pomiaru

  • Jednostka pomiaru to zapytanie, nie słowo kluczowe. W SEO jedno słowo kluczowe ma jedną pozycję. W AI jedno zapytanie to pełna odpowiedź z wieloma cytowaniami — możesz zajmować 1 z 7 slotów cytowań.
  • Niedeterminizm. Odpowiedź na to samo pytanie różni się między uruchomieniami. Trzeba mierzyć 3–5 razy i uśredniać — inaczej błąd jest nieakceptowalny.
  • Trzy osobne rynki. ChatGPT, Perplexity i Gemini cytują różne źródła dla tych samych pytań. Jeden uśredniony SoV maskuje realne różnice i prowadzi do złych decyzji optymalizacyjnych.

Co to zmienia w pracy zespołu marketingu

W SEO raportowaliście pozycje i ruch organiczny. W AIO raportujecie trzy wskaźniki per silnik: citation SoV, mention SoV i pozycję w karuzeli źródeł. Wymaga to narzędzia pomiarowego niezależnego od Google Search Console — pełnego trackera widoczności w LLM. Mechanikę wyboru źródeł, która stoi za tą metryką, opisujemy w artykule o tym, jak ChatGPT, Perplexity i Gemini znajdują i oceniają źródła.

Trzy warianty Share of Voice AI — citation, mention, weighted

Pojedyncza liczba „SoV 7,3%” to za mało, by podejmować decyzje. Marka może być często wymieniana w tekście odpowiedzi, ale nigdy klikalnie cytowana, albo odwrotnie. Trzy warianty metryki odpowiadają na różne pytania biznesowe.

Citation SoV — tylko klikalne cytowania źródłowe

Liczba odpowiedzi, w których twój URL pojawia się jako klikalne źródło w karuzeli (Perplexity), w numeracji cytowań (ChatGPT) lub w panelu grounding (Gemini). To metryka najbliższa klasycznemu SEO — oznacza realny ruch referrer z AI do twojej strony.

Mention SoV — marka wymieniona w tekście odpowiedzi

Liczba odpowiedzi, w których nazwa marki pojawia się w wygenerowanym tekście, nawet jeśli bez linku do źródła. To metryka „brand awareness w AI” — mierzy, czy modele mają twoją markę w reprezentacji parametrycznej albo czy cytują ją jako przykład w toku odpowiedzi. Nie przynosi kliknięcia, ale buduje rozpoznawalność.

Weighted SoV — z wagą za pozycję

Cytowanie na pozycji 1 w karuzeli Perplexity ma inną wartość niż cytowanie na pozycji 9. Weighted SoV przyznaje wagę malejącą (np. 1,0 / 0,75 / 0,55 / 0,40 / 0,28 dla pozycji 1–5, potem 0,15). Daje najbardziej informacyjną metrykę, ale wymaga parsera karuzeli.

Tabela porównawcza trzech wariantów

WariantCo mierzyTrudnośćNajlepsze zastosowanie
Citation SoVWidoczność klikalnaNiskaAtrybucja ruchu, KPI dla content teamu
Mention SoVObecność marki w odpowiedziŚrednia (NER)Brand awareness, PR, lejek górny
Weighted SoVJakość pozycji cytowańWysokaOcena skuteczności taktyk AIO
Composite SoVŚrednia ważona trzech powyższychWysokaRaport dla zarządu, benchmark r/r

W praktyce raportujemy wszystkie trzy razem, bo każdy ujawnia inny problem. Jeśli Mention SoV rośnie, a Citation SoV stoi — model zna twoją markę, ale nie wybiera twoich stron jako źródeł (problem ze strukturą treści). Jeśli Citation SoV rośnie, a Weighted SoV nie — jesteś cytowany, ale na dalszych pozycjach karuzeli (problem z autorytetem lub świeżością).

Metoda pomiaru krok po kroku

Powtarzalny pomiar SoV wymaga pięciu komponentów: listy pytań, runnera odpytującego trzy silniki, parsera odpowiedzi, bazy wyników i rytmu tygodniowego. Bez któregoś z nich wyniki nie są porównywalne w czasie.

Krok 1 — zbudowanie listy pytań

Lista powinna liczyć 150–300 pytań pogrupowanych w 8–15 kategorii tematycznych. Każda kategoria dostaje minimum 10 pytań — poniżej tej liczby trudno wyciągać wnioski per kategoria.

  1. Wyciągnij z Google Search Console wszystkie zapytania z impresjami > 30 w ostatnich 90 dniach.
  2. Wyfiltruj zapytania informacyjne (wycinają transakcyjne słowa: „cena”, „kup”, „sklep”). Zostaw pytania, definicje, „jak”, „czym jest”, „vs”, „porównanie”.
  3. Przepisz 30–60 zapytań na pełne pytania naturalne — użytkownik ChatGPT pisze „czym różni się X od Y”, nie „X vs Y”.
  4. Dodaj 30–50 pytań z „people also ask” Google i z sekcji „related” w Perplexity dla twoich głównych fraz.
  5. Dołóż 20–30 pytań od działu handlowego — te, które realnie zadają klienci przed zakupem.
  6. Podziel na kategorie (np. „porównania produktów”, „definicje terminów”, „poradniki wdrożeniowe”, „case studies”).

Krok 2 — runner odpytujący silniki

Każde pytanie puszczane jest do trzech silników po 3–5 razy (z powodu niedeterminizmu). Możesz użyć API lub automatyzacji na przeglądarce.

  • ChatGPT Search — oficjalne API z parametrem tools: [{"type": "web_search"}] (od kwietnia 2025) zwraca ustrukturyzowane cytowania.
  • Perplexity API — Sonar API zwraca citations z pozycjami, URL i fragmentami. Koszt ~0,005 USD per zapytanie.
  • Gemini API — Grounding with Google Search, pole groundingMetadata.groundingChunks zawiera URL i fragmenty.

Koszt operacyjny pomiaru 200 pytań × 3 silniki × 3 uruchomienia × 4 tygodnie = ~7 200 zapytań miesięcznie, łącznie 80–180 USD miesięcznie.

Krok 3 — parser odpowiedzi

Parser wyciąga z każdej odpowiedzi: listę cytowań (URL, tytuł, fragment, pozycja), listę nazwanych encji w tekście (twoja marka + konkurenci), oraz metadane (model, data, temperatura).

Nazwane encje detekuj przez prostą regex na liście marek (lista konkurentów + wariantów nazwy) albo przez lekki model NER. W 90% przypadków regex wystarczy — marki mają charakterystyczne nazwy własne.

Krok 4 — baza wyników

Tabela jeden rekord per uruchomienie: query_id, engine, run_index, timestamp, citations_json, mentions_json, position_in_carousel. Agregacja do tygodniowego SoV to zwykły SQL GROUP BY.

Krok 5 — rytm tygodniowy

Uruchamiaj pomiar w tym samym dniu tygodnia, o podobnej godzinie (modele mają wahania dobowe). Idealny schemat: wtorek 10:00 UTC, zautomatyzowany przez cron. Raport do zespołu co poniedziałek z porównaniem do poprzedniego tygodnia.

Jak liczyć SoV — wzory i przykład liczbowy

Formalnie SoV to odsetek, ale w praktyce liczymy go w trzech krokach: per zapytanie, per kategoria, per cała pula.

Citation SoV per zapytanie

Dla danego pytania Q, które uruchomiliśmy 5 razy (r1–r5) w ChatGPT, Citation SoV = średnia z 5 zero-jedynkowych wartości: 1, jeśli marka jest wśród cytowań, 0 w przeciwnym razie.

Przykład: marka semtools.pl pojawiła się w 3 z 5 uruchomień pytania „jak mierzyć widoczność w ChatGPT”. Citation SoV dla tego pytania w ChatGPT = 60%.

Weighted SoV per zapytanie

Dla każdego uruchomienia, w którym marka jest cytowana, przypisujemy wagę za pozycję (p1=1,0, p2=0,75, p3=0,55, p4=0,40, p5=0,28, p6+=0,15). Weighted SoV = średnia z 5 wag (zero, jeśli brak cytowania).

Agregacja do puli całkowitej

SoV całkowity = średnia ważona z SoV per zapytanie, gdzie waga to (opcjonalnie) szacowany wolumen zapytań z GSC. Bez wag — średnia arytmetyczna, co zwykle wystarcza.

Przykładowa tabela tygodniowa

KategoriaLiczba pytańCitation SoV ChatGPTCitation SoV PerplexityCitation SoV Gemini
Narzędzia SEO 20261811,2%14,5%7,8%
Poradniki content AI226,4%9,1%4,2%
Porównania CMS153,1%5,6%2,0%
Definicje AIO1418,9%22,3%11,4%
Case studies B2B114,8%7,2%3,6%
Średnia808,9%11,7%5,8%

Z tej tabeli od razu widać, że marka ma najmocniejszą pozycję w kategorii „Definicje AIO” i najsłabszą w „Porównania CMS” — to miejsce, od którego zaczyna się audyt contentu.

Dobór próby i błąd statystyczny

SoV to proporcja, a błąd standardowy proporcji zależy od wielkości próby. Dla proporcji p = 0,10 i próby n = 50 błąd standardowy wynosi ~4,2 p.p., dla n = 200 już 2,1 p.p. Poniżej 100 pytań nie da się wiarygodnie porównać tygodnia do tygodnia — ruchy o 2–3 p.p. utoną w szumie.

Minimalne wielkości próby

  • Pomiar ogólny (całość puli) — minimum 150 pytań, optimum 300.
  • Pomiar per kategoria — minimum 10 pytań, optimum 20–30.
  • Pomiar per produkt/funkcjonalność — minimum 20 pytań w długim okresie (4 tygodnie).

Jak testować istotność zmian

Dwuproporcyjny test z-score (proportions_ztest w Python statsmodels) sprawdza, czy różnica między tygodniami jest statystycznie istotna. Przy n=200 zmiana o 3 p.p. jest istotna (p < 0,05), o 1,5 p.p. już nie. Nie raportuj tygodniowych zmian poniżej progu istotności jako „trend”.

Jak radzić sobie z niedeterminizmem

  • Uruchamiaj każde zapytanie 3–5 razy (nie 1 raz).
  • Uśredniaj wyniki per zapytanie przed agregacją do kategorii.
  • Zapisuj timestamp — model może być w tle zaktualizowany.
  • Raz na kwartał rób „kalibrację” na 20 kontrolnych zapytaniach — sprawdź, czy proporcje są stabilne.

Benchmarki SoV — co jest dobrym wynikiem

Benchmarki zależą od niszy, konkurencji i dojrzałości contentu. Z naszych 14 wdrożeń wyciągamy orientacyjne widełki dla marki średniej wielkości (DR 35–55, 200–800 artykułów), rozwijającej content pod AIO od 3–12 miesięcy.

Start (0–3 miesiące od rozpoczęcia prac AIO)

  • Citation SoV ChatGPT: 2–5%
  • Citation SoV Perplexity: 3–8% (zwykle wyższa, bo Perplexity cytuje więcej źródeł na odpowiedź)
  • Citation SoV Gemini: 1–4%
  • Mention SoV: 4–9% (wyższa od citation, bo encje bywają wymieniane bez linku)

Średniozaawansowany (3–9 miesięcy)

  • Citation SoV ChatGPT: 5–12%
  • Citation SoV Perplexity: 8–15%
  • Citation SoV Gemini: 4–9%
  • Mention SoV: 9–18%

Dojrzały (9–24 miesięcy)

  • Citation SoV ChatGPT: 12–25%
  • Citation SoV Perplexity: 15–30%
  • Citation SoV Gemini: 9–18%
  • Mention SoV: 18–35%

Marki bardzo mocne w niszy (np. lider kategorii z DR > 70) potrafią wyciągnąć 40–50% w Perplexity dla wąskich definicji terminów — to sufit dla wąskiej niszy, ale nie powszechna norma. Siedem taktyk, które pozwalają dobić do górnego zakresu, opisujemy w tekście o taktykach zwiększania cytowań w ChatGPT i Perplexity.

Analiza konkurencji przez pryzmat SoV

Pomiar SoV daje ci też natychmiastową mapę konkurencji. W tej samej puli pytań widać, które marki dominują w niszy i które ewoluują szybciej od ciebie.

Krok 1 — lista konkurentów

Weź 8–15 marek: 5–7 bezpośrednich konkurentów produktowych + 3–5 marek mediowych (portale branżowe) + 2–3 marek narzędziowych, które często się pojawiają w twojej niszy (np. dostawcy narzędzi SEO).

Krok 2 — detekcja każdej marki w odpowiedziach

Ten sam parser, który wykrywa twoją markę, obsługuje listę konkurentów. Rekord per zapytanie trzyma jeden JSON z liczbą cytowań i mentions dla każdej marki.

Krok 3 — interpretacja

  • Lider kategorii — marka z SoV > 20% w co najmniej 3 kategoriach. Benchmark, do którego próbujesz dobiec.
  • Wschodzący gracz — marka z niskim SoV 3 miesiące temu, dziś 8–12%. Zobacz, co zmieniła w swoim contencie.
  • Zagrożona marka — marka z wysokim SoV 6 miesięcy temu, dziś spadającym. Zwykle oznacza przestój publikacyjny lub utratę świeżości.

Szczegółową metodykę benchmarkingu konkurencji rozwijamy w osobnym tekście — jeśli potrzebujesz bardziej zaawansowanej segmentacji, zajrzyj tam po matrycę 2×2 rosnący/malejący vs. wysoki/niski SoV.

Jak rozumieć zmiany tygodniowe — trzy scenariusze

Większość wahań SoV nie jest twoja zasługą lub winą. Trzy scenariusze, które trzeba umieć rozróżnić.

Scenariusz 1 — twój kontent się zmienił

Publikujesz nowy pillar, updatujesz 20 starych artykułów, poprawiasz strukturę headerów. W 2–4 tygodnie widać wzrost SoV, najczęściej najpierw w Perplexity (reagowanie na świeżość szybsze), potem w ChatGPT.

Scenariusz 2 — silnik się zmienił

OpenAI publikuje nową wersję GPT z nowym rerankerem. Perplexity aktualizuje Sonara. Zmiany SoV bywają nagłe, 5–15 p.p. w tydzień, bez twojego udziału. Trzeba wtedy obserwować, czy zmiana jest trwała po 2–3 tygodniach.

Scenariusz 3 — konkurent zrobił duży ruch

Lider kategorii opublikował 30-tysięczny pillar lub zaktualizował cały hub. Twój SoV spada, mimo że nic nie zmieniłeś — bo udział to gra o sumie zero, ktoś inny zajął sloty. Sprawdź logi konkurencji i nowe URL cytowane w silnikach.

Korelacja z ruchem — czy SoV przekłada się na biznes

Kluczowe pytanie biznesowe: czy wzrost SoV daje realny ruch? Z naszych 14 wdrożeń dane wyglądają następująco.

Referrer traffic z AI

  • Przy Citation SoV Perplexity = 10%, udział referrer traffic z perplexity.ai wynosi średnio 0,6–1,8% całego ruchu organicznego.
  • Przy Citation SoV ChatGPT = 8%, udział chat.openai.com jako referrer to 0,3–1,1%.
  • Gemini i AI Overviews zwykle nie mają widocznego referrera (grounding jest ukryty).

Wpływ pośredni

Trudniejszy do atrybucji: mention SoV wpływa na rozpoznawalność marki, która potem konwertuje przez inne kanały (direct traffic, branded search). W naszych wdrożeniach wzrost mention SoV o 10 p.p. korelował ze wzrostem branded search o 6–18% w 3 miesiące.

Kiedy SoV nie przekłada się na ruch

Jeśli jesteś cytowany głównie w zapytaniach informacyjnych („czym jest X”), użytkownik dostaje odpowiedź w AI i nie klika. Ruch referrer rośnie wtedy tylko marginalnie. Większy efekt SoV daje w zapytaniach porównawczych i poradnikowych, gdzie użytkownik chce zweryfikować źródło.

Narzędzia do pomiaru SoV — przegląd 2026

Ekosystem narzędziowy jest młody. Kilka dojrzałych graczy i dużo startupów. Trzy kategorie: dedykowane trackery AIO, rozszerzenia SEO-owych narzędzi, własne skrypty.

Dedykowane trackery

  • Profound — założony 2024, SoV w ChatGPT/Perplexity/Gemini/AI Overviews, od 500 USD/mies.
  • Athena — monitoring cytowań + analiza konkurencji, od 299 USD/mies.
  • AthenaHQ — osobny produkt, głównie ChatGPT + Perplexity, od 199 USD/mies.
  • Otterly — podobny zakres, od 149 USD/mies.

Rozszerzenia SEO-tooli

  • Ahrefs dodał „AI Share of Voice” w Q4 2025 — działa na Perplexity, ograniczone do 50 pytań per projekt na planie Standard.
  • SEMrush „AI Visibility” — w wersji Enterprise, obecnie tylko ChatGPT + Gemini.
  • Advanced Web Ranking wprowadził moduł AIO w marcu 2026 — 3 silniki, cena dokładana do licencji podstawowej.

Własne skrypty

Python + API trzech silników + baza Postgres to setup dla zespołów technicznych. Koszt: 1–2 dni programisty na wdrożenie + 80–180 USD/mies. na API. Plus: pełna kontrola, custom kategoryzacja. Minus: trzeba utrzymywać integracje przy zmianach API.

Tabela porównawcza

OpcjaKoszt miesięcznieSilnikiDla kogo
Profoundod 500 USD4 główneEnterprise, agencje
Athenaod 299 USD3 główneŚrednie marki
Otterlyod 149 USD3 główneSMB, startupy
Ahrefs AI SoVw cenie planuPerplexitySEO agencje już z Ahrefs
Własny skrypt80–180 USD3+ (ile chcesz)Zespoły techniczne

Najczęstsze błędy przy pomiarze SoV

Lista pomyłek, które widzieliśmy w audytach — każda z nich psuje porównywalność pomiaru w czasie.

Błąd 1 — zbyt mała próba

50 pytań tygodniowo dają błąd 6–8 p.p. Ruchy 2–4 p.p. są poniżej progu detekcji, zespół interpretuje szum jako trend. Minimum to 150 pytań.

Błąd 2 — jedno uruchomienie per pytanie

Niedeterminizm modeli sprawia, że jedno uruchomienie to 30–40% szansy na odchylenie. Minimum: 3 uruchomienia, optimum: 5.

Błąd 3 — uśrednianie trzech silników

SoV = średnia ChatGPT + Perplexity + Gemini maskuje różnice. Perplexity może rosnąć, ChatGPT spadać, uśredniona metryka stoi — zespół nie widzi problemu.

Błąd 4 — mieszanie citation i mention

Pojedyncza metryka „marka pojawiła się w odpowiedzi” łączy dwa różne zjawiska. Mention bez citation to rozpoznawalność, citation bez mention to klikalne źródło. Trzeba je rozdzielać.

Błąd 5 — ignorowanie pozycji w karuzeli

Pozycja 1 vs pozycja 9 w karuzeli Perplexity to trzy razy różna szansa kliknięcia. Brak Weighted SoV ukrywa tę różnicę.

Błąd 6 — pytania z branded keywordami

Jeśli w puli są pytania z nazwą marki („jak działa Semtools”), wynik jest z definicji wysoki i nieinformacyjny. Filtruj branded queries z głównej puli.

Błąd 7 — brak listy kontrolnej

Bez 20 kontrolnych zapytań, na których sprawdzasz stabilność pipeline’u, nie wiesz, czy zmiana SoV wynika z treści, z silnika czy z buga w parserze.

Od pomiaru do działania — co robić z wynikami

Pomiar sam w sobie nie podnosi SoV. Każdy tygodniowy raport powinien kończyć się listą 2–5 akcji, nie tylko tabelą.

Schemat iteracji cotygodniowej

  1. Zaktualizuj bazę wyników w środę rano.
  2. Przejrzyj 5 najniżej punktowanych kategorii.
  3. Zidentyfikuj 10 pytań, w których konkurent jest cytowany, a ty nie.
  4. Zobacz URL-e konkurenta — co mają, czego ty nie masz (struktura, dane, FAQ, tabele).
  5. Wrzuć na backlog treści 3–5 konkretnych poprawek w istniejących artykułach.
  6. Zaplanuj 1–2 nowe artykuły w słabych kategoriach.

Kwartalna rewizja puli pytań

Raz na kwartał sprawdź, czy lista pytań nadal odzwierciedla rynek. Zapytania z „2025″ trzeba zmieniać na „2026″, pytania o funkcje, których już nikt nie używa, wypadają. Dodaj 20–40 nowych pytań z GSC i z działu obsługi klienta.

Łączenie z innymi metrykami AIO

SoV to jedno z minimum trzech KPI AIO. Pozostałe: crawl coverage (% twoich stron crawlowanych przez user-agenty AI) i citation quality score (jaki jest % cytowań w „dobrych” zapytaniach, czyli z wysokim wolumenem). Sama widoczność bez jakości cytowań nie daje biznesu. Jak pozycjonować się jako rozpoznawalną encję, która jest cytowana częściej, opisujemy w tekście Brand entity SEO pod AI.

Case study — wzrost SoV w B2B SaaS z 3% do 17% w 6 miesięcy

Projekt: platforma SaaS w niszy CRM dla agencji kreatywnych, 480 artykułów, DR 42 na starcie. Cel: zwiększyć SoV w pytaniach kategorii „CRM dla agencji” i „zarządzanie projektami kreatywnymi”.

Stan początkowy (październik 2025)

  • Citation SoV ChatGPT: 2,8%
  • Citation SoV Perplexity: 4,1%
  • Citation SoV Gemini: 1,9%
  • Mention SoV: 5,4%
  • Pula testowa: 180 pytań w 9 kategoriach

Co zrobiono w 6 miesięcy

  1. Audyt 180 pytań, identyfikacja 60 najwyżej priorytetowych (wolumen + niska konkurencja w AI).
  2. Przepisanie headerów w 80 artykułach z etykiet na pytania.
  3. Dodanie tabel porównawczych w 40 artykułach porównawczych (vs. konkurencja).
  4. Rozbicie 120 artykułów na krótsze akapity (2–4 zdania maks).
  5. Dodanie sekcji FAQ z 6–8 pytaniami w 60 artykułach.
  6. Publikacja 12 nowych pillar-supporting zestawów w najsłabszych kategoriach.
  7. Aktualizacja danych liczbowych i dat publikacji w 200 artykułach.
  8. Wzmocnienie autorstwa — biogramy, profile LinkedIn, dane autora w Schema.

Wyniki po 6 miesiącach (marzec 2026)

  • Citation SoV ChatGPT: 14,2% (+11,4 p.p.)
  • Citation SoV Perplexity: 20,8% (+16,7 p.p.)
  • Citation SoV Gemini: 9,6% (+7,7 p.p.)
  • Mention SoV: 23,1% (+17,7 p.p.)
  • Ruch referrer z perplexity.ai: z 0,4% do 2,1% całości ruchu
  • Branded search w GSC: +41%

Co przyniosło największy efekt

Kolejność zabiegów według skuteczności: przepisanie headerów (+35% citation rate per artykuł), dodanie FAQ (+22%), tabele porównawcze (+18%), rozbicie akapitów (+14%), nowe pillary (+12%), Schema i autorstwo (+8%), aktualizacja dat (+5%). Suma efektów nie jest liniowa — wiele zabiegów się wzmacnia.

Czego NIE zrobiło różnicy

Cztery zabiegi, które wydawały się rozsądne, a w tym wdrożeniu dały niemal zero efektu w SoV. Wymieniamy je, żeby nie marnować budżetu na powtórki cudzych błędów.

  • FAQPage JSON-LD — rich snippets są od 2023 ograniczone do rządowych i zdrowotnych domen; sama sekcja FAQ w treści zadziałała, osobny Schema już nie.
  • Masywne linkowanie zewnętrzne — guest posty i PR na DR 50+ dały wzrost ruchu organicznego, ale nie cytowań w AI. Perplexity i ChatGPT nie mapują backlinków 1:1.
  • Skracanie artykułów do 1 500 słów — hipoteza „LLM woli krótsze strony” okazała się fałszywa. Dłuższe strony z wieloma H2/H3 dały więcej cytowań, bo chunker ma więcej samowystarczalnych sekcji do wyboru.
  • Native ads na stronach branżowych — nie podniosły mention SoV; nazwa marki w artykule sponsorowanym jest dla rerankerów słabym sygnałem.

Raportowanie SoV dla zarządu i dla zespołu

Inne są potrzeby zespołu operacyjnego, inne zarządu. Raport dla content teamu musi być operacyjny, raport dla C-level syntetyczny i porównywalny do innych KPI.

Raport tygodniowy dla zespołu contentu

  • Tabela kategorii × silnik (jak w tej sekcji wcześniej), z delta tydzień do tygodnia.
  • Top 10 pytań z najmocniejszym spadkiem lub wzrostem.
  • Lista 5 URL-i konkurencji, które weszły do cytowań w miejsce twoich.
  • 3–5 konkretnych akcji na kolejny tydzień.
  • Backlog utrzymaniowy: artykuły starsze niż 12 miesięcy, które tracą cytowania.

Raport miesięczny dla zarządu

  • Jedna liczba Composite SoV (średnia ważona trzech wariantów i trzech silników).
  • Benchmark vs. dwóch głównych konkurentów.
  • Korelacja z ruchem referrer i branded search.
  • Prognoza na kolejny kwartał z przedziałem ufności.
  • Roadmap inwestycji — ile budżetu na nowy content, ile na aktualizacje.

Raport kwartalny strategiczny

Raz na kwartał rewizja puli pytań, lista konkurentów, kategorii tematycznych i kalibracja progów alertów. To moment, kiedy decydujesz, czy wchodzisz w nową kategorię (np. dodajesz 20 pytań o nowej funkcjonalności produktu) albo rezygnujesz z kategorii, w której nie masz szans na dobicie do 5% SoV w 12 miesięcy.

Automatyzacja alertów

Dwa typy alertów, które warto włączyć. Pierwszy: spadek SoV w jakiejkolwiek kategorii o > 3 p.p. tydzień do tygodnia (alert do content lead). Drugi: pojawienie się nowego konkurenta z SoV > 2% w kategorii, w której go wcześniej nie było (alert do head of marketing). Oba dają wcześniejszy sygnał niż raport miesięczny.

FAQ — najczęstsze pytania

Ile pytań potrzebuję w puli testowej, żeby pomiar miał sens?

Minimum 150, rekomendowane 300. Przy 50 pytaniach błąd standardowy proporcji sięga 7 p.p., więc tygodniowe zmiany do 10 p.p. są statystycznie nieistotne. Przy 200 pytaniach błąd spada do ok. 2,5 p.p. i możesz wiarygodnie mierzyć zmiany 3–5 p.p. tydzień do tygodnia.

Czy muszę mierzyć wszystkie trzy silniki AI?

Tak, jeśli priorytetem jest widoczność w AI. Korelacja cytowań między ChatGPT, Perplexity i Gemini wynosi 0,35–0,55, co oznacza, że silniki cytują różne źródła dla tych samych pytań. Uśrednianie trzech silników maskuje istotne różnice i prowadzi do złych decyzji optymalizacyjnych — np. wzmocnienie autorstwa działa mocno w Gemini, a słabiej w Perplexity.

Ile kosztuje miesięczny pomiar SoV własnym skryptem?

Dla 200 pytań × 3 silniki × 3 uruchomienia × 4 tygodnie = ~7 200 zapytań API miesięcznie. Koszt: Perplexity Sonar ~0,005 USD/zapytanie, ChatGPT Search ~0,008 USD, Gemini Grounding ~0,006 USD. Łącznie 80–180 USD/miesiąc za API plus 1–2 dni pracy programisty na wdrożenie i dzień miesięcznie na utrzymanie.

Czym różni się Citation SoV od Mention SoV?

Citation SoV liczy tylko te odpowiedzi, w których twój URL pojawia się jako klikalne źródło w karuzeli cytowań. Mention SoV liczy odpowiedzi, w których nazwa marki pojawia się w wygenerowanym tekście, nawet bez linku. Citation przynosi ruch referrer, Mention buduje rozpoznawalność. Dojrzały raport AIO zawiera obie metryki rozdzielnie.

Ile czasu potrzeba, żeby SoV zaczął rosnąć po wdrożeniu zmian?

Pierwsze efekty widać po 2–4 tygodniach w Perplexity (najszybciej reaguje na świeżość). ChatGPT potrzebuje 4–8 tygodni, bo dziedziczy indeks Bing, który aktualizuje się wolniej. Gemini to 6–12 tygodni. Pełny efekt poważnej restrukturyzacji contentu widać w 3–6 miesięcy, przy zachowaniu ciągłej publikacji.

Czy SoV AI przekłada się na ruch na stronę?

Tak, ale nieliniowo. Przy Citation SoV w Perplexity = 10%, udział referrer traffic z perplexity.ai to średnio 0,6–1,8% całego ruchu organicznego. W zapytaniach porównawczych konwersja do kliknięcia jest wyższa (2–4% z impresji AI) niż w czysto informacyjnych (0,3–0,8%). Pośredni efekt Mention SoV widać w branded search — wzrost o 10 p.p. mentions koreluje ze wzrostem branded search o 6–18% w 3 miesiące.

Jak odróżnić zmiany SoV wynikające z mojego contentu od zmian w samych silnikach?

Trzymaj listę 20 „kontrolnych” zapytań, na których od miesięcy nie robisz żadnych zmian. Jeśli SoV na kontrolnej liście skacze o 5+ p.p. w tygodniu, oznacza to update silnika (nowy reranker, nowa wersja modelu). Prawdziwe zmiany z twojej strony widać w niejednorodnych ruchach: rośnie SoV w kategoriach, w których publikujesz, reszta stoi.

Co dalej

Pomiar SoV to fundament, ale nie cel sam w sobie. Kolejne kroki: