Analiza konkurencji w AI: kto dominuje w twojej niszy

16 kwietnia, 2026

Analiza konkurencji w AI search — ChatGPT, Perplexity, Gemini, Claude – wymaga innego aparatu niż klasyczny SEO competitor analysis. Nie chodzi o backlinki i domain authority, tylko o to, kto jest cytowany, w jakim kontekście, i jak często. W tym tekście: 5-etapowa metodyka, benchmarki per branża, narzędzia do automatyzacji, i konkretne akcje naprawcze, gdy konkurent dominuje niszę.

Artykuł jest częścią AIO 2026. Techniczne taktyki cytowania: 7 taktyk cytowań. Mechanika retrieve: jak ChatGPT i Perplexity znajdują źródła. Metodyka pomiaru: Share of Voice w AI.

W skrócie

  • Analiza konkurencji w AI search mierzy citation share, sentiment, position within answer i entity depth – inne metryki niż klasyczny SERP śledzenie.
  • Metodyka 5-etapowa: (1) mapa zapytań niszy, (2) pomiar baseline, (3) analiza przewagi konkurenta, (4) luka strategiczna, (5) akcje naprawcze.
  • Typowy benchmark: top 3 konkurentów zbiera 50-70% citation share w niszy. Next 7 konkurentów – 20-30%. Długi ogon – 5-15%.
  • Narzędzia: Otterly AI, Peec AI, Profound (enterprise), DIY przez API Perplexity + BigQuery.
  • Najszybsza droga do wyprzedzenia konkurenta: wypełnienie luk tematycznych (intents, których konkurent nie pokrywa) + entity parity (dogonienie w signals Wikidata/Wikipedia).

Spis treści

  1. Czym różni się od klasycznego competitor analysis
  2. 5 metryk, które mierzysz
  3. Etap 1: Mapa zapytań niszy
  4. Etap 2: Baseline pomiaru
  5. Etap 3: Analiza przewagi konkurenta
  6. Etap 4: Identyfikacja luki
  7. Etap 5: Akcje naprawcze
  8. Narzędzia
  9. Benchmarki per branża
  10. FAQ
  11. Co dalej

Czym różni się od klasycznego competitor analysis

Klasyczny SEO competitor analysis mierzy: ranking keyword, backlinks, domain authority, Core Web Vitals, structure SEO. AI search competitor analysis mierzy: citation rate, share of voice, sentiment w odpowiedziach, entity recognition. Te zestawy metryk się nie pokrywają. Konkurent z gorszym SEO może mieć lepszy AI – bo pisze gęściej, ma Wikipedia article, lub lepszą strukturę Q&A. Więcej o tym zagadnieniu opisujemy w retrieval vs generation.

Trzy fundamentalne różnice

  • Pomiar nie jest deterministyczny. Klasyczne SERP – to samo zapytanie daje ten sam ranking (w danym czasie). LLM daje różne odpowiedzi dla tego samego zapytania, zwłaszcza w rotation retrievals. Pomiar wymaga statystycznego podejścia (wielokrotne zapytania, mediana).
  • Konkurencja jest szersza. W SERP konkurujesz z 10 stronami na pozycje 1-10. W LLM konkurujesz z 30-80 kandydatami, z których model cytuje 3-8. „Top 10 Google” to zupełnie inna lista niż „top 10 Perplexity”.
  • Context matters. LLM cytuje strony w różnych kontekstach (jako źródło danych, jako przykład, jako definicję). Klasyczny SEO ma jedno: pozycja. AI ma: pozycja × typ cytowania × sentiment.

5 metryk, które mierzysz

1. Citation share (udział w cytowaniach)

Procent zapytań w niszy, w których marka jest cytowana. Mierzy się na próbie 50-200 kluczowych zapytań. Przykład: w próbie 100 zapytań „CRM B2B” marka X jest cytowana w 24 odpowiedziach = citation share 24%.

2. Share of Voice (SoV)

Waga cytowań marki względem wszystkich cytowań w niszy. Jeśli marka X jest cytowana 24 razy, a wszystkich cytowań w próbie 100 zapytań jest 520 (średnio 5.2 źródła per answer), SoV = 24/520 = 4.6%. SoV 10%+ w konkurencyjnej niszy = dominacja.

3. Position within answer

Średnia pozycja cytowania marki w odpowiedzi. Pozycja 1 (pierwsze cytowanie) daje 2-3x więcej klików niż pozycja 5. Idealnie: średnia pozycja 1.8-2.5.

4. Sentiment

Ton wypowiedzi LLM o marce w odpowiedzi: pozytywny, neutralny, negatywny. Mierzony automatycznie (sentiment analysis API) lub manualnie na próbce. Ważne: LLM czasem cytuje negatywnie („marka X krytykowana za…”), co obniża wartość cytowania.

5. Entity depth

Ile faktów o marce model zna bez live retrieve. Test: zapytaj „Kiedy powstał/a [marka]? Kto założył? Gdzie ma siedzibę? Jakie są główne produkty?”. Jeśli model odpowiada poprawnie wszystkie cztery = entity depth wysokie. Jeśli tylko nazwa + kategoria = niskie. Praktyczne wskazówki znajdziesz w dlaczego llm cytuje jedne strony a inne ignoruje.

Etap 1: Mapa zapytań niszy

Bez mapy zapytań pomiar nie ma sensu. Zwykle 50-200 zapytań na niszę. Musisz pokryć intent, nie tylko keywordy.

Struktura mapy zapytań

  • Informational (40-50%): „co to jest X”, „jak działa Y”, „dlaczego Z”. Zapytania edukacyjne, długi tail. Najwyższa liczba cytowań na answer (4-7).
  • Comparison (15-25%): „X vs Y”, „najlepsze X”, „porównanie X”. Niskie liczba cytowań (3-5), ale wysoki signal kompetitywny.
  • Transactional (10-20%): „kup X”, „cena X”, „alternatywy dla X”. Niska liczba cytowań (2-4).
  • Navigational (10-15%): „strona X”, „logowanie X”. Rzadkie w AI search, ale warto śledzić.
  • Research (5-15%): „raport o X”, „statystyki X”, „trendy w X”. Bardzo wysoka liczba cytowań (6-10), dobre dla B2B.

Jak zebrać listę zapytań

  1. Skopiuj 30-50 swoich top keywordów z Ahrefs/Semrush.
  2. Dodaj 20 zapytań z „People Also Ask” dla każdego głównego keyworda.
  3. Dodaj 15 zapytań z Perplexity related (po każdym zapytaniu Perplexity pokazuje 4-6 związanych).
  4. Dodaj 10 pytań od klientów (sales team notes, support tickets).
  5. Zgrupuj w 5 kategorii powyżej. Usuń duplikaty.

Tagowanie intentu

Każde zapytanie tag’uj (Info/Compare/Trans/Nav/Research). Ułatwia potem analizę per typ. W Google Sheets lub Notion.

Etap 2: Baseline pomiaru

Dla każdego zapytania z mapy – odpytaj LLM-y i zapisz wynik. Iteracja 3-5 razy per zapytanie w ciągu 14 dni, żeby wyeliminować rotation noise.

Co zapisujesz per zapytanie

  • Pełna odpowiedź (tekst).
  • Lista źródeł cytowanych (URL, domena, position in citation list).
  • Czy marka własna cytowana? (1/0).
  • Czy konkurent A/B/C cytowany? (1/0 per competitor).
  • Sentiment o marce własnej (jeśli wzmiankowana) – pozytywny/neutralny/negatywny.
  • Data zapytania.

Przechowywanie danych

Google Sheets dla 50-100 zapytań, BigQuery dla 200+. Struktura: jedna tabela „queries” (query_id, text, intent_type), druga „answers” (query_id, llm, date, answer_text), trzecia „citations” (answer_id, rank, domain, url, brand_match).

Automatyzacja – 2 opcje

  1. API Perplexity (~5 USD/1000 zapytań): skrypt Python iteruje po zapytaniach, zapisuje odpowiedzi + cytowania do BigQuery. Uruchamiany cron jobem co tydzień.
  2. Otterly / Peec AI (~49-149 USD/mies): dedykowane narzędzia z dashboardem, już zintegrowane.

Jak długo zbiera się sensowny baseline

Minimum 14 dni z 3 iteracjami per zapytanie. Krócej = za duży noise. Dłużej = baseline się już „starzeje”. W praktyce 14-21 dni to sweet spot. Jeśli wykonasz 50 zapytań × 3 LLM × 3 iteracje = 450 punktów pomiarowych – wystarczająca baza do wyciągania pierwszych wniosków statystycznych.

Normalizacja danych

Każdy LLM zwraca różną liczbę cytowań średnio. Perplexity 4-7, ChatGPT 3-5, Gemini 2-4. Przy porównywaniu konkurentów międzyplatformowo, normalizuj citation share do „cytowanie per answer” (nie per query). Bez tego Perplexity będzie „ważniejszy” niż Gemini tylko ze względu na mechanikę cytowania, nie rzeczywistą widoczność.

Przechowywanie kontekstu

Zapisuj nie tylko URL, ale też „cytowane zdanie” – fragment, do którego LLM przypisuje cytację. To pozwala później analizować, w jakim kontekście konkurent jest cytowany (jako źródło liczb, jako przykład praktyki, jako definicja). Ten wgląd decyduje o strategii różnicowania.

Etap 3: Analiza przewagi konkurenta

Gdy masz baseline, identyfikuj konkurentów dominujących. Zwykle w niszy 3-5 konkurentów wyłania się jako wyraźnie silniejszych.

Ranking konkurencji

KonkurentCitation shareShare of VoiceAvg positionEntity depth
Konkurent A48%9.2%2.1Wysokie
Konkurent B32%6.1%2.8Średnie
Ty18%3.4%3.2Średnie
Konkurent C15%2.8%3.5Niskie

Dlaczego konkurent dominuje – 6 typów przewagi

  1. Entity parity + Wikipedia. Konkurent ma Wikipedia article, ty nie. Różnica natychmiastowa i trudna do zniwelowania.
  2. Content depth. Konkurent ma 3x więcej pillarów / supporting contentu w niszy.
  3. Factoid density. Konkurent pisze data-heavy, ty opinion-heavy.
  4. Age / trust. Konkurent istnieje 10 lat, ma historycznie budowaną autorytet. LLM pre-training faworyzuje stare, stabilne źródła.
  5. External citations. Konkurent jest cytowany w akademickich/research, co wzmacnia jego autorytet w modelach.
  6. Lepsze Q&A struktura. Konkurent ma wyraźne FAQ schema, gęste H3 pytaniowe.

Jak zdiagnozować typ przewagi

  • Entity parity: Wyszukaj konkurenta w Wikipedii, Wikidata, Knowledge Graph API. Sprawdź Knowledge Panel w Google.
  • Content depth: Użyj Ahrefs Site Explorer → top pages. Zlicz artykuły pokrywające keywordy z twojej mapy zapytań.
  • Factoid density: Weź 5 top artykułów konkurenta, policz factoidy manualnie. Porównaj z własnym.
  • External citations: Google Scholar search nazwy firmy + branży. Liczba wyników = proxy.
  • Q&A struktura: View source 5 top stron konkurenta, sprawdź schema FAQPage. Policz H3 pytaniowe.

Etap 4: Identyfikacja luki strategicznej

Luka tematyczna

Zapytania z twojej mapy, w których konkurent NIE jest cytowany, a żaden dobry content nie dominuje. To wolne tereny – często niszowe zapytania, do których żadna marka jeszcze się nie wzięła. Top 10% najbardziej wartościowych możliwości.

Luka formatowa

Zapytania, w których konkurent jest cytowany, ale jego content jest suboptymalny (np. stary, brak Q&A, mała gęstość faktów). Masz szansę przegonić go z lepszym formatem.

Luka entity

Konkurent ma Wikipedia ty nie. To nie-content problem — content optymalizacja nie pomoże. Strategia: 9-12 miesięcy budowania entity.

Macierz priorytetów

LukaWysiłekZwrotTimeline
Tematyczna (wolne zapytania)Niski-ŚredniŚredni-Wysoki30-60 dni
Formatowa (lepszy content)ŚredniŚredni45-90 dni
Entity (Wikipedia, Wikidata)WysokiBardzo wysoki6-18 miesięcy
Wiek marki / trustBardzo wysokiŚredni12-36 miesięcy

Etap 5: Akcje naprawcze

Priorytet 1: Wypełnij luki tematyczne

  • Napisz 10-20 artykułów pokrywających wolne zapytania. Każdy ≥3000 słów, factoid density 8+, 2+ tabele, Q&A.
  • Harmonogram: 3-4 artykuły miesięcznie przez 3-5 miesięcy.
  • Budżet: 20-40k PLN (pisanie + edycja + schema).

Priorytet 2: Przebuduj 10 top artykułów

  • Artykuły z istniejącego contentu, które mają potencjał ale są suboptymalne.
  • Wdrożenie 7 taktyk cytowań (z osobnego tekstu).
  • Budżet: 8-15k PLN.

Priorytet 3: Entity gap closure

  • Jeśli konkurent ma Wikipedię, zacznij drogę do Wikipedii – 9-18 miesięcy.
  • Wikidata entry – 3-4 tygodnie.
  • PR retainer 6-12 miesięcy — budżet 18-60k PLN.

Priorytet 4: Monitoring + iteracja

  • Re-pomiar baseline co 30-60 dni.
  • Porównanie z konkurentami – czy luka się zamyka?
  • Iteracja strategii co kwartał.

Plan wdrożenia po etapach – 90 dni

Poniższa sekwencja sprawdzona na 20+ projektach. Daje mierzalne efekty w pierwszym kwartale.

Dni 1-14: Mapa + baseline

  • Budowa mapy 50-80 zapytań.
  • Iteracyjny baseline pomiar Perplexity + ChatGPT.
  • Identyfikacja top 5 konkurentów, typu ich przewagi.
  • Raport „stan zero” dla zespołu.

Dni 15-45: Quick wins

  • Wybór 5-10 luk tematycznych z niskim konkurencyjnym kosztem.
  • Produkcja 4-6 artykułów wypełniających luki.
  • Update 5-10 istniejących stron — wdrożenie 7 taktyk cytowań.
  • Re-pomiar po dniu 30 (częściowa zmiana baseline).

Dni 46-90: Strategiczne inwestycje

  • Startup entity gap closure (Wikidata, PR briefing).
  • Kolejna fala 6-8 artykułów w średniotrudnych lukach.
  • Monitoring tygodniowy — walidacja kierunku.
  • Pełny re-baseline na dniu 90, porównanie z baseline wyjściowym.

Narzędzia do analizy konkurencji w AI

Tier 1: DIY (0-500 USD/mies)

  • Perplexity API — zapytania programatyczne, ~5 USD/1000 req.
  • ChatGPT API (tryb Search) – ~10-20 USD/1000 req.
  • Gemini API – ~3-8 USD/1000 req.
  • Python script + BigQuery – 50-200 USD/mies.
  • Google Sheets dla manual śledzenie – darmowe.

Tier 2: Dedykowane SaaS (49-300 USD/mies)

  • Otterly.AI – tygodniowe raporty, śledzenie 3-5 konkurentów, citation analytics.
  • Peec AI – specjalizacja Perplexity, dobry sentiment analysis.
  • HubSpot AI Search Grader – darmowe audyty, ograniczone.
  • BrightEdge AI Citation Tracker – segment średni.

Tier 3: Enterprise (500-5000+ USD/mies)

  • Profound – dashboard enterprise, atrybucja, integracja z GA4.
  • Kalicube Pro – Knowledge Graph + AI search, strategic consulting.
  • Semrush AI Search Tracker (beta) – integracja z klasycznym SEO trackingiem.

Benchmarki per branża

BranżaTop 1 Citation shareDobry SoVTrudność wejścia
SaaS B2B30-45%6%+Średnia
E-commerce fashion25-40%8%+Wysoka
Finance/Banking50-70%10%+Bardzo wysoka
Healthcare40-60%8%+Bardzo wysoka (YMYL)
Marketing / SEO25-35%5%+Średnia (nisze)
HR Tech20-35%5%+Niska-Średnia
Travel15-25%4%+Niska (rozproszona)

Automatyzacja pomiaru – skrypt DIY krok po kroku

Dla marek, które nie chcą płacić za SaaS, pokażę kompletny proces DIY w Pythonie + Google Sheets/BigQuery. Budżet: ~50-200 USD/mies za API, 20-40h pracy developera na setup.

Architektura

  1. Google Sheets z listą zapytań (query_id, text, intent_type, date_added).
  2. Cron job (GitHub Actions, Google Cloud Scheduler) – odpala raz w tygodniu.
  3. Python script — czyta Sheets, iteruje po zapytaniach, odpytuje API Perplexity/ChatGPT/Gemini.
  4. Parser odpowiedzi – wyciąga cytowania (URL + rank).
  5. Zapis do BigQuery (tabela answers + citations).
  6. Dashboard w Looker Studio – SoV per konkurent, trend w czasie, alerty.

Parser odpowiedzi Perplexity

  • Odpowiedź zawiera citations array – URL + title + metadata.
  • Normalizuj domeny (tld + domain bez subdomain, np. „blog.example.com” → „example.com”).
  • Matchuj ze swoją listą monitored domains (własna + konkurenci).
  • Dla każdego zapytania zapisuj: 3-5 cytowanych URL, ich pozycja, czy match z monitored list.

Uwagi do rate limiting

  • Perplexity API – 20 req/min na standard tier. Dla 100 zapytań × 3 iteracje = 300 req = 15 min.
  • ChatGPT API (tryb Search) – 500 req/min, ale koszt wyższy.
  • Gemini – limit zależny od tier, Google Cloud limits.
  • Najlepsza praktyka: randomizowane zapytania, 2-5 sekund pauzy między.

Case: analiza konkurencji w niszy „narzędzia do email marketingu”

Nisza średnia, konkurencja wysoka, 12 głównych graczy globalnych. Próba 80 zapytań, pomiar przez 21 dni, 3 iteracje per zapytanie.

Top 5 konkurentów – citation share

  1. Mailchimp – 52% (dominacja, Wikipedia, 400+ artykułów, Knowledge Panel).
  2. HubSpot – 44% (pillar content master, entity depth wysokie).
  3. Klaviyo — 31% (e-commerce niche dominance).
  4. ConvertKit – 22% (creator niche dominance).
  5. ActiveCampaign — 19% (automation niche).

Wnioski

  • Niszowa dominacja działa: Klaviyo w e-commerce, ConvertKit w creator, ActiveCampaign w automation. Każdy z nich zdobył > 40% citation share w swojej pod-niszy.
  • Nowej marce najłatwiej wejść przez niszę, nie bezpośrednio konkurować z Mailchimp / HubSpot.
  • Factoid density top graczy: 11-14 faktów/1000 słów. Benchmark do osiągnięcia.

Pułapki i błędy analizy

Błąd 1: Za mała próba zapytań

Mierzenie tylko 10-20 zapytań daje duży noise. Różnica 10% w citation share na próbie 20 może być przypadkowa. Minimum 50 zapytań, lepiej 100+. Pełen obraz tematu znajdziesz w kompletnym przewodniku aio 2026.

Błąd 2: Tylko jeden LLM

Mierzenie wyłącznie Perplexity daje niepełny obraz. Konkurent dominujący Perplexity może być słabszy w ChatGPT. Minimum: Perplexity + ChatGPT. Idealnie: + Gemini.

Błąd 3: Brak kontroli rotation

LLM rotuje źródła między zapytaniami. Jedno zapytanie = noise. Minimum 3 iteracje per zapytanie w ciągu 14 dni, mediana.

Błąd 4: Mylenie citation share z Share of Voice

Citation share = % zapytań z marką. SoV = waga wszystkich cytowań marki. Marka może mieć 50% citation share (cytowana w połowie zapytań), ale tylko 5% SoV (zawsze na ostatniej pozycji wśród 10 cytowanych). Te dwie metryki nie są zamienne.

Błąd 5: Ignorowanie zmian algorytmu

Perplexity zmienia reranking co 2-3 miesiące, ChatGPT co 4-6 miesięcy. Nagła zmiana ranking konkurenta może być update modelu, nie twoja strata. Uwzględnij to w interpretacji – jeśli wszyscy konkurenci spadli, to sygnał zewnętrzny.

Błąd 6: Pomiar tylko brand queries

„Co to jest [marka]” to navigational query – marka zawsze cytowana. Pomiar takich zapytań nie ma sensu dla analizy konkurencji. Skup się na informational + comparison — tam jest realna konkurencja.

Kalendarz audytów konkurencji

Tygodniowy (lekki, 30 min)

  • Sprawdź citation rate swojej marki na top 20 zapytań (Otterly raport).
  • Noteuj anomalie (spadek > 20%, nowy konkurent w top 5).
  • Zapisz do logu.

Miesięczny (średni, 2-3 h)

  • Pełny pomiar 50-80 zapytań, wszystkie LLM.
  • Porównanie z poprzednim miesiącem.
  • Raport dla zespołu marketing.

Kwartalny (pełny audit, 8-16h)

  • Rewizja mapy zapytań (dodaj nowe trendy).
  • Re-analiza konkurentów — może zmieniła się lista.
  • Analiza luki tematycznej / entity.
  • Plan interwencji na kolejny kwartał.

Jak raportować analizę konkurencji zarządowi

Struktura raportu (1-stronicowy executive summary)

  1. TL;DR w 3 zdaniach – kto dominuje, gdzie jesteśmy, co robimy.
  2. Key metrics – Citation share, SoV, Avg position (własna + top 3 konkurenci).
  3. Luka strategiczna – 3-5 zdań, gdzie jest realna szansa.
  4. Investment needed — budżet + timeline na zamknięcie luki.
  5. Expected outcome — prognoza citation share za 6 miesięcy.

Detaliczny raport (6-10 stron, kwartalny)

  • Executive summary (1 strona).
  • Metodyka i próba zapytań (0.5 strony).
  • Baseline + comparison Q-over-Q (2 strony, wykresy trend).
  • Analiza konkurentów per konkurent (0.5-1 strona każdy).
  • Lista top 20 zapytań z luki tematycznej (1 strona).
  • Rekomendacje + roadmapa 90-180 dni (1-2 strony).
  • Załącznik: pełna tabela pomiarów (1-2 strony).

Wizualizacje, które warto dodać

  • Line chart – trend Citation share w czasie (6+ punktów na osi X).
  • Bar chart – porównanie SoV między top 5 konkurentami.
  • Heatmap — citation rate per typ intentu × konkurent.
  • Scatter plot – factoid density vs citation rate (własne strony vs konkurentów).

FAQ

Jak często przeprowadzać analizę konkurencji w AI?

Pełny audit – co 3-6 miesięcy. Lekki monitoring (top 20-30 zapytań, tygodniowy) — co tydzień. AI search zmienia się szybciej niż klasyczny SEO, więc kwartalny pełny pomiar to minimum.

Ile zapytań w mapie wystarczy?

Minimum 50 zapytań pokrywających wszystkie 5 typów intentu. Dla dużych nisz 100-200. Mniej niż 50 = statystycznie niepewne wyniki. Więcej niż 300 = diminishing returns, marginalne zwiększenie dokładności za wysoki koszt.

Co jeśli konkurent to Wikipedia / Reddit?

Często tak jest – Wikipedia i Reddit są mocno cytowane przez LLM jako „neutralne autorytety”. To nie konkurenci bezpośredni, a raczej „domyślni” gracze. Twoja strategia: nie walcz z Wikipedią, ale bądź cytowany obok niej jako komplement (specialist voice vs generalist Wikipedia).

Czy warto inwestować w narzędzia enterprise?

Dla marek B2B z budżetem marketingowym > 500k PLN/rok – warto (Profound, Kalicube). Dla mniejszych – DIY + Otterly/Peec wystarczy. Zwrot z narzędzi enterprise pojawia się, gdy masz dane do wielo-kwartalnego trackingu i decyzji strategicznych na ich podstawie.

Jak wybrać 3-5 konkurentów do śledzenia?

Prosta metoda: wykonaj 20 zapytań Perplexity w twojej niszy. Zlicz, które domeny cytowane są > 5 razy. Top 3-5 takich domen = twoi konkurenci AI. Uwaga: to może być inna lista niż klasyczni SEO competitors.

Czy sentiment analysis jest wiarygodny?

Automatyczny sentiment na poziomie 75-85% accuracy dla języka angielskiego, 65-75% dla polskiego. Na próbkach kwartalnych – wiarygodny. Na pojedynczym zapytaniu – ryzykowny. Dobra praktyka: automat + manualna weryfikacja próbki 10-20% losowo wybranych odpowiedzi.

Sygnały ostrzegawcze — kiedy trzeba reagować

Analiza konkurencji to również system wczesnego ostrzegania. Poniżej triggery, które powinny wywołać natychmiastową reakcję zespołu.

Spadek citation share > 30% w tygodniu

Typowe przyczyny: update modelu Perplexity/ChatGPT, utrata Wikipedia article (usunięcie przez edytora), penalizacja domeny w Bing, duża publikacja konkurenta. Akcja: sprawdź Bing Webmaster, Wikipedia history, Otterly logs.

Nowy konkurent w top 5 (poprzednio < top 10)

Trigger do analizy: co zrobili w ostatnich 60 dniach? (Nowy pillar? Wikipedia? Duża kampania PR?). Learning: często kopiowalne. Akcja: krótki audit + reverse-engineering strategii.

Konkurent publikuje pillar w twojej niszy

Jeśli konkurent ma nowy 8000-słów pillar + 10-15 supporting, który dokładnie pokrywa twój główny obszar — ryzyko pustoszenia twojego citation share w 60-90 dni. Akcja: content sprint w odpowiedzi (nie kopia — różnicująca perspektywa), + entity push.

Spadek avg position z 2.1 na 3.5

Pozycja cytowania pogarsza się — marka nadal cytowana, ale dalej w odpowiedzi. Dwa klików mniej. Akcja: przegląd top cytowanych stron, refresh factoid density + TL;DR.

Negatywny sentiment w 10%+ odpowiedzi

LLM zaczyna cytować marka w kontekście krytycznym („X miało problem z…”, „X skrytykowane za…”). Reakcja: identyfikacja źródła negatywnego sentymentu, PR response. Najczęstsze pochodzenie: negatywny artykuł w mainstream medium, Reddit thread, negatywne recenzje na G2/Capterra. Szybka interwencja (publiczna odpowiedź, poprawa produktu, nowy content rebuffulujący) w 30-45 dni ogranicza szkody.

Spike aktywności konkurenta na wyszukiwaniu brand

Konkurent pojawia się w cytowaniach dla zapytań „[twoja marka] alternative”, „[twoja marka] vs”. To celowa strategia comparison hijacking przechwytująca intent „alternatywa dla ciebie”. Reakcja: natychmiast publikuj własny content porównawczy w pierwszej osobie, z transparentnym porównaniem cech, cen, limitów. Nie ignoruj – brak odpowiedzi w 60 dni cementuje narrację konkurenta.

Co dalej

Analiza konkurencji w AI search to pomiarowa podstawa wszystkich strategicznych decyzji AIO. Bez niej inwestycje w content i entity są intuicyjne. Z nią – oparte na danych o tym, gdzie realnie leży luka. Praktyczne pierwsze kroki: (1) zbuduj mapę 50 zapytań w ciągu 1 tygodnia, (2) wykonaj baseline pomiar w 2 tygodnie, (3) zidentyfikuj top 3 konkurentów i typ ich przewagi, (4) wybierz priorytet 1 z 4 opcji naprawczych i zacznij wdrażanie.

Połącz to z technicznymi taktykami z 7 taktyk cytowań, brand entity i SoV dla długoterminowej przewagi, i SoV w AI jako podstawowy KPI. Pełny obraz w pilarze AIO 2026. Zrozumienie mechaniki: jak działa retrieve w LLM. Analiza + taktyki + entity = system, który rośnie kwartał po kwartale.