Content audit: jak zrobić i co z nim zrobić

15 kwietnia, 2026

Content audit to systematyczny przegląd całej biblioteki treści w serwisie z decyzją, co zostawić, co poprawić, co zmergować, a co usunąć. To nie jest jednorazowe spring cleaning — w zespołach dojrzałych robimy go raz na kwartał jako element operacyjnej higieny content marketingu. Dobrze zrobiony audyt zwraca się w 30–60 dni: usuwając „martwe” strony, podnosimy crawl budget, unikamy kanibalizacji keywordów i odzyskujemy rankingi, które zjadała nasza własna konkurencja wewnętrzna.

Poniżej pokazujemy kompletną metodykę audytu — od ekstrakcji danych, przez decyzje jakościowe, po egzekucję zmian w CMS. Liczby, thresholdy i case studies pochodzą z audytów, które prowadziliśmy w serwisach od 80 do 12 000 URL-i. Jeśli masz mniej niż 40 tekstów, audyt zajmie 4–6 godzin. Jeśli masz 1 000+ — planujcie 3–4 tygodnie z automatyzacją.

W skrócie

  • Content audit w serwisie 1 000 URL-i kończy się zwykle decyzjami: ~40% keep, ~30% improve, ~15% merge, ~15% delete.
  • Zysk z audytu w ruchu organicznym to średnio +18–35% w 90 dni od egzekucji, bez tworzenia nowych treści.
  • Cztery źródła danych: GSC, GA4, Ahrefs/Semrush, crawler (Screaming Frog).
  • Kluczowe metryki decyzji: kliki, impresje, CTR, pozycja, linki, konwersje, intencja.
  • Pułapka #1: usunięcie stron z linkami zewnętrznymi bez 301 — strata authority.
  • Dobrym rytmem jest mini-audyt co kwartał i pełny audyt raz w roku.

Dlaczego content audit w 2026 jest bardziej opłacalny niż tworzenie nowych treści

W erze AI-search Google i LLM-y karzą serwisy z dużą ilością niskiej jakości treści — nawet jeśli wcześniej te treści generowały ruch. Content audit to najszybsza metoda podniesienia średniej jakości serwisu bez pisania nowego tekstu. Usunięcie 200 martwych stron potrafi dać więcej ruchu niż publikacja 20 nowych.

Zespoły, które skupiają się tylko na produkcji, po 2–3 latach mają biblioteki z 30–50% treści „zjadających” ranking innych własnych stron. W naszym przewodniku po content marketingu 2026 pokazujemy, że stosunek produkcji do audytu powinien być 3:1 — na trzy nowe artykuły jeden audyt wyczyszczony.

Typowe wyniki audytu w trzech segmentach

SegmentKeepImproveMergeDelete
Blog SaaS 3 lata (450 URL)38%29%18%15%
E-commerce (2 100 URL)52%22%14%12%
Agencja content (1 200 URL)31%34%19%16%

Efekty audytu w liczbach

Z naszych 14 audytów średnie wyniki po 90 dniach: +24% kliki organiczne, +31% impresje, średnia pozycja spadła o 2,8, CTR wzrósł o 0,6 p.p. Konwersje z ruchu organicznego wzrosły o 11–19%. Czas na stronie wzrósł średnio o 18 sekund — bo czytelnik nie trafia już na stare, słabe teksty.

Cele audytu — zdefiniuj je zanim zaczniesz

Audyt bez jasnego celu kończy się listą 800 wierszy w arkuszu, której nikt nie wdroży. Zaczynamy od 2–3 celów priorytetowych i wybieramy wskaźniki sukcesu.

Typowe cele audytu

  • Zwiększenie ruchu organicznego w określonym klastrze tematycznym.
  • Poprawa rankingów krytycznych keywordów tracących pozycje.
  • Redukcja kanibalizacji — jedna strona na jedno query.
  • Odzyskanie crawl budgetu po spike thin-content.
  • Przygotowanie strony pod AI-search / cytowania w LLM.
  • Konsolidacja portfolio przed migracją domeny.
  • Audyt pod E-E-A-T w YMYL.

Jeden cel to za mało, trzy to za dużo

Dwa cele to optimum: jeden techniczny (crawl, kanibalizacja, struktura) i jeden biznesowy (ranking, ruch, konwersja). Kiedy cele są uzgodnione z decydentem, łatwiej zatwierdzić kontrowersyjne decyzje („usuńmy 180 stron, które dają 3% ruchu”).

Źródła danych — cztery systemy, jeden arkusz

Audyt bazuje na czterech źródłach danych. Każde ma unikalne pole widzenia — łączymy je przez URL jako klucz.

Google Search Console

GSC daje prawdziwe zapytania, pozycje, kliki, impresje, CTR per URL. Eksport 16-miesięczny przez API lub dodatek Search Analytics for Sheets. Krytyczne pola: clicks, impressions, position, CTR, queries per URL.

Google Analytics 4

GA4 daje ruch, zachowanie, konwersje. Krytyczne pola: sesje, użytkownicy, engagement rate, średni czas, bounce, konwersje, przychód per URL. W BigQuery możesz dojść do źródła wejścia, urządzenia, geografii.

Ahrefs / Semrush

Ahrefs albo Semrush dają linki zewnętrzne per URL, referring domains, organic keywords, traffic value, pozycje LSI. Pole „traffic value” pokazuje, ile wart byłby ruch kupiony w Google Ads — pomaga uzasadnić keep/delete.

Crawler (Screaming Frog / Sitebulb)

Crawler daje technikalia: status code, canonical, indexability, word count, H1, meta, internal links in/out, response time. Bez crawlera nie rozpoznasz, czy „delete” ma konsekwencje techniczne (np. orphanowanie innych stron).

Arkusz master

KolumnaŹródłoTyp
URLCrawlerstring
Title / H1 / Word CountCrawlerstring/int
Kliki / Impresje / CTR / Pozycja (90 dni)GSCnumeric
Sesje / Engagement / Konwersje (90 dni)GA4numeric
Referring domains / Traffic valueAhrefsnumeric
Top query / IntentGSC + ręczna walidacjastring
Klaster / Cluster idręczne / AIstring
Decyzja (keep/improve/merge/delete)audytorenum

Macierz decyzyjna — cztery scenariusze

Decyzja zależy od kombinacji trzech osi: ruch, jakość, linki. Macierz pomaga egzekwować decyzje spójnie między stronami.

Keep — zostawiamy bez zmian

Kryteria: ≥50 kliknięć/miesiąc LUB ≥1 000 impresji/miesiąc z pozycji 4–20 LUB ≥5 referring domains LUB istotna rola konwersyjna. Jakość treści co najmniej 3/5. Strona nadal aktualna (nie mówi o produkcie sprzed 3 lat, który już nie istnieje).

Improve — przepisujemy

Kryteria: pozycje 5–15 dla wartościowego keyworda, treść przestarzała lub za cienka (<1 200 słów dla informacyjnej intencji), brak FAQ, brak schema, stary ton, brak aktualnych liczb. Dobry kandydat gdy: Ahrefs pokazuje keyword difficulty w osiągalnym zakresie, mamy dane z GSC pokazujące query worth targeting.

Merge — łączymy kilka stron w jedną

Kryteria: kanibalizacja (dwa/trzy URL-e rankują pod ten sam cluster query), silna nakładka tematyczna (>60% treści się powiela), suma rankingów byłaby lepsza niż max jednego URL-a. Wybieramy URL „główny” (ten z najlepszą pozycją i najwięcej linków), pozostałe przepisujemy i 301-ujemy do głównego.

Delete — usuwamy (410 lub 301)

Kryteria: ≤5 kliknięć/miesiąc, brak linków zewnętrznych, brak wartości konwersyjnej, treść nieratująca się (outdated, thin, nie-SEO-friendly). Jeśli strona ma linki zewnętrzne — zawsze 301 na najbliższą tematycznie. Jeśli nie ma — 410 (Gone) zamiast 404 (bardziej stanowczy sygnał dla Google).

Workflow audytu krok po kroku

Krok 1: Ekstrakcja danych (2–6 h)

Crawl serwisu (Screaming Frog), eksport GSC (Search Analytics for Sheets), eksport GA4 (Looker Studio → CSV), eksport Ahrefs (Site Explorer → pages). W przypadku serwisu > 5 000 URL — BigQuery do scalenia danych.

Krok 2: Scalanie (1–3 h)

Jeden master w Google Sheets/Excel/Notion. Klucz łączenia — URL. Normalizacja (usunięcie trailing slash, parametrów utm). Wycięcie URL-i nieistotnych (tag, autor, paginacja, wyszukiwarka wewnętrzna).

Krok 3: Segmentacja klastrów (2–5 h)

Każdy URL przypisujemy do klastra tematycznego (pillar/cluster). Dla serwisu 500–2 000 URL robimy to półautomatycznie: model przypisuje na podstawie title i top query, człowiek waliduje sporne. W serwisie > 2 000 URL używamy embeddings (OpenAI ada-002 lub lokalny Sentence-BERT).

Krok 4: Scoring (3–5 h)

Każdy URL dostaje 4 scores w skali 1–5:

  • Traffic score (kliki, impresje, pozycja).
  • Authority score (referring domains, linki wewnętrzne).
  • Content quality score (długość, struktura, świeżość, E-E-A-T).
  • Business score (konwersje, rola w lejku).

Średnia ≥ 3,5 — keep. 2,5–3,5 — improve. 1,5–2,5 — merge lub delete (zależnie od linków). < 1,5 — delete.

Krok 5: Decyzja (4–8 h)

Audytor przechodzi przez arkusz URL po URL, potwierdzając propozycję score’u lub ją zmieniając. Na tym etapie ręczna walidacja decyduje — zwłaszcza w przypadkach granicznych (2,5–3,0). Spotkanie decyzyjne z klientem/product ownerem na 20–30 URL-i spornych.

Krok 6: Egzekucja (1–4 tygodnie)

Keep — nic. Improve — brief dla redaktora z checklistą co zmienić (kolejność z roadmapą priorytetów). Merge — rewrite strony master + 301 redirect z mergowanych + aktualizacja linków wewnętrznych. Delete — 410 lub 301 + usunięcie z sitemap + aktualizacja linków wewnętrznych.

Krok 7: Monitoring (90 dni)

Po egzekucji śledzimy w GSC kliki i impresje per klaster, pozycje głównych keywordów, nowe crawl errors. Pełny impakt widać po 6–8 tygodniach. Raport 90-dniowy porównuje delta z baseline przed audytem.

Pułapki, które kosztują ruch

Pułapka: usunięcie stron z linkami zewnętrznymi

Najbardziej kosztowny błąd. Strona z 8 linkami z autorytatywnych domen daje „authority juice” całemu serwisowi. Usunięcie jej bez 301 to strata tej siły. Zawsze przed delete sprawdzamy Ahrefs → referring domains. Jeśli ≥ 2 DR > 40 — nie deletujemy bez 301 na tematycznie powiązaną stronę.

Pułapka: masowe 301 bez mapowania tematycznego

301 na stronę główną to marnotrawstwo authority i często powoduje „soft 404″ w GSC. 301 powinien kierować na stronę tematycznie powiązaną — ta sama intencja lub szersza. Google cofa authority, gdy 301 nie jest semantycznie uzasadniony.

Pułapka: merge bez aktualizacji linków wewnętrznych

Zmergowana strona w drugim tygodniu traci authority, bo stare linki wewnętrzne prowadzą przez 301 zamiast bezpośrednio. Przy merge zawsze aktualizujemy wszystkie linki wewnętrzne do URL-a master. Narzędzia: Link Whisper w WordPress, ręczne Search & Replace, skrypt w bazie.

Pułapka: „improve” bez briefu

Przepisanie strony bez briefu kończy się wersją, która jest inna, ale nie lepsza. Każdy „improve” potrzebuje briefu z konkretnymi zmianami — nowa H1, 3 dodatkowe H2, FAQ z 5 pytaniami, tabela porównawcza, aktualne liczby. Zobacz nasz szablon briefu contentowego.

Pułapka: audyt bez celów biznesowych

Audytor optymalizuje metryki techniczne („wyczyścimy thin-content”), ale jeśli te strony były ważne dla lejka — firma traci leady. Zawsze przed decyzją sprawdzamy rolę strony w konwersji, nie tylko w ruchu.

Pułapka: jednorazowy audyt

Po audycie 6 miesięcy zespół produkuje kolejne thin-content i wraca do tego samego problemu. Audit musi być procesem kwartalnym, wpiętym w content ops.

Content audit a AI-search / AIO

W 2026 audyt musi uwzględnić widoczność w LLM-ach, nie tylko w Google. Strony, które są cytowane w ChatGPT/Perplexity, mają dodatkową wartość nawet jeśli kliknięcia w Google są niskie.

Dodatkowe metryki dla audytu AIO

  • Liczba cytowań w odpowiedziach LLM per URL (Athena, Profound, Otterly).
  • Strukturalność treści (H2/H3, FAQ, tabele, listy).
  • Factoid density — liczba weryfikowalnych faktów per 1 000 słów.
  • Obecność schema (Article, FAQ, HowTo).
  • Cytowalność (krótkie, samoistne akapity z kluczowymi faktami).

Decyzje pod AIO

Strona z 3 kliknięciami w Google, ale 40 cytowaniami miesięcznie w LLM — KEEP i IMPROVE pod AIO (dodaj FAQ, schema, tabelę). Strona z 200 kliknięciami, ale zerem cytowań w LLM i 400 słów — IMPROVE z focusem na strukturę cytowalną.

Automatyzacja audytu w 2026

Audyt serwisu 1 000+ URL bez automatyzacji zajmuje 5–8 tygodni pracy jednej osoby. Z automatyzacją — 1–2 tygodnie.

Co automatyzujemy modelem AI

  • Przypisanie klastra tematycznego per URL (na podstawie title + top query).
  • Wstępną ocenę jakości treści (1–5) na podstawie treści strony.
  • Generację briefów dla „improve” po zatwierdzeniu decyzji audytora.
  • Propozycję URL-a docelowego dla 301 przy merge/delete.
  • Draft raportu finalnego z sekcjami per klaster.

Co nie podlega automatyzacji

  • Ocena strategicznej roli strony w portfolio (tylko człowiek z kontekstem biznesu).
  • Decyzja merge/delete w przypadkach granicznych (2,5–3,0 score).
  • Negocjacja z klientem/PO spornych URL-i.
  • Weryfikacja E-E-A-T w YMYL.

Stack narzędziowy do audytu z AI

WarstwaNarzędzia
CrawlScreaming Frog, Sitebulb, JetOctopus
Dane SEOGSC API, Ahrefs API, Semrush API
Dane GAGA4 BigQuery, Looker Studio
KlastrowanieOpenAI embeddings + DBSCAN
Ocena jakościClaude Opus + własny rubric
AIO monitoringAthena, Profound, Otterly
WorkspaceGoogle Sheets + Apps Script, Airtable

Case: audyt SaaS B2B — 450 URL, 90 dni po egzekucji

Punkt wyjścia

Blog SaaS B2B z 3-letnim stażem publikacji, 450 URL, ~18 tys. sesji organicznych miesięcznie. Trend ruchu płaski od 8 miesięcy mimo regularnej publikacji (6 artykułów/miesiąc). Kanibalizacja widoczna dla 14 keywordów.

Wyniki audytu

  • Keep: 171 URL (38%).
  • Improve: 130 URL (29%) — podzielone na 4 priorytety wg impaktu.
  • Merge: 81 URL (18%) w 23 grupy mergowane do 23 URL-i master.
  • Delete: 68 URL (15%), z tego 41 z 301 na tematycznie powiązane, 27 z 410.

Egzekucja — 3 tygodnie

Tydzień 1: usunięcia i merge (kluczowe dla redukcji kanibalizacji). Tydzień 2–3: „improve” pierwszego priorytetu (18 URL-i — te z największym impaktem ruchowym). Reszta „improve” weszła do kolejnych kwartałów.

Efekt po 90 dniach

  • Sesje organiczne: 18 200 → 24 800 (+36%).
  • Impresje GSC: +28%.
  • Liczba URL rankujących w Top 10: 67 → 104 (+55%).
  • Konwersje z organic: +22%.
  • Cytowania w LLM (Perplexity): 12/mies → 41/mies.

Audyt a strategia contentowa — sprzężenie zwrotne

Audyt bez feedbacku do strategii to zmarnowana okazja. Każdy audyt powinien kończyć się aktualizacją strategii.

Co audit mówi strategii

  • Które klastry niedosycone — priorytet w nowej produkcji.
  • Które tematy się nie sprawdzają — wycofujemy z planu.
  • Które typy treści konwertują — rozbudowujemy.
  • Jakie zmiany wzorców wyszukiwania — aktualizacja keyword strategy.
  • Jakie luki wobec konkurencji — nowe pillary do zbudowania.

Audit-informed strategy refresh

Raz na pół roku robimy „strategy refresh” na bazie dwóch audytów kwartalnych. Zobacz nasz framework strategii contentowej 2026 — w sekcji 7 opisujemy sprzężenie zwrotne audyt-strategia.

Kanibalizacja keywordów — rdzeń problemu w 80% audytów

Kanibalizacja to sytuacja, gdy dwa lub więcej URL-i w tym samym serwisie rankuje pod podobne query, wzajemnie odbierając sobie pozycję. W audytach serwisów 2+ letnich kanibalizacja dotyczy średnio 12–22% klastrów tematycznych i odpowiada za 30–50% tzw. „utraconego potencjału” ruchu.

Jak wykryć kanibalizację w danych

W GSC filtrujemy zapytania, które mają > 50 impresji i sprawdzamy, ile URL-i rankuje pod to samo zapytanie. Jeśli trzy URL-e oscylują między pozycją 5–20 pod jedną frazę — mamy kanibalizację. Narzędzia takie jak Ahrefs (Multiple Ranking URLs), Semrush (Cannibalization Report) albo własny skrypt Python na eksport GSC dają to w minutach.

Trzy typowe wzorce kanibalizacji

  • Duplikat informacyjny — dwa artykuły na ten sam temat z różnym tytułem, np. „Jak zrobić audyt SEO” i „Audyt SEO krok po kroku”.
  • Pillar vs cluster — pillar rankuje pod keyword, który miał trafić do supporting postu i odwrotnie.
  • Kategoria vs artykuł — strona kategorii rankuje pod keyword informacyjny, który powinien należeć do artykułu.

Rozwiązanie kanibalizacji

Najczęściej merge — wybieramy URL z najlepszą pozycją i referring domains, przepisujemy go wzmocniony treścią z pozostałych, 301-ujemy resztę. Alternatywnie delimitacja intencji — przepisujemy artykuł A pod węższy keyword (np. „audyt techniczny SEO”), artykuł B pod inny (np. „audyt contentowy SEO”), każdy targetuje własną intencję.

Świeżość treści — kiedy aktualizować, a kiedy pisać od nowa

Świeżość to czwarta oś decyzji obok ruchu, jakości i linków. Google faworyzuje świeże treści w określonych klastrach tematycznych (QDF — Query Deserves Freshness).

Które klastry są „freshness-heavy”

  • Aktualności branżowe i trendy.
  • Zmiany w algorytmach (Google, Meta, LinkedIn).
  • Nowe narzędzia i porównania ceny.
  • Tutoriale do oprogramowania z częstymi update’ami.
  • Prawo podatkowe i regulacje.
  • Statystyki rynkowe („ile firm używa X w 2026″).

Które klastry tolerują starą treść

  • Definicje i fundamenty („czym jest topical authority”).
  • Historia i kontekst branżowy.
  • Frameworki i metodologie uniwersalne.
  • Studia przypadku (mają datę wbudowaną).

Trigger do aktualizacji

W GSC obserwujemy pozycje per URL miesiąc po miesiącu. Jeśli URL z klastra „freshness-heavy” spada o > 4 pozycje w 60 dni — kandydat do aktualizacji. Przy aktualizacji obowiązuje zasada: zmień > 25% treści (nie tylko daty), zaktualizuj liczby, dopisz 2–3 nowe akapity pod „co się zmieniło w 2026″, zachowaj URL, zaktualizuj datę modyfikacji w meta i schema.

Raport finalny audytu — co musi być w środku

Audit bez raportu to plik w arkuszu, który zniknie po miesiącu. Raport to dokument, który klient/PO czyta i akceptuje, a zespół egzekwuje przez kolejne 3 miesiące.

Struktura raportu

  1. Executive summary (1 strona): baseline, główne odkrycia, 3 rekomendacje, projekcja ROI.
  2. Metodyka (1 strona): źródła danych, zakres (które URL), scoring.
  3. Wyniki top-level: podział keep/improve/merge/delete per klaster, wizualizacja.
  4. Priorytety egzekucji: 3 fale (quick wins, medium, long-tail), timeline.
  5. Ryzyka i mitygacje: co może pójść nie tak, jak zabezpieczyć.
  6. Arkusz master jako załącznik (URL-level decyzje).
  7. Briefy dla top-20 „improve” URL-i jako załącznik.

Kluczowe wizualizacje

  • Pie chart podziału decyzji (keep/improve/merge/delete).
  • Bar chart per klaster — kliki przed audytem, projekcja po.
  • Heat mapa klaster × decyzja — gdzie najwięcej pracy.
  • Scatter plot ruch × linki — wizualizacja kandydatów do merge/delete.

Projekcja ROI

Konkretna, nie „+30% ruchu”. Liczymy na bazie: (URL-i „improve” × średni potencjał ruchu w klastrze × 0,4 dla realistycznej konwersji) + (URL-i „merge” × łączne dzisiejsze kliki × 1,3 zysk z konsolidacji) + (odzyskany crawl budget na nowe URL-e). W raporcie pokazujemy przedział (np. +18% do +35%) nie pojedyncze liczbę.

Komunikacja z zespołem i klientem

Przed audytem

Ustalamy z klientem/PO: zakres (cały serwis czy klaster), cele (2 priorytetowe), terminarz (ile tygodni egzekucja), budżet czasu zespołu na „improve”. Bez tego brief audytu krąży między działami tygodniami.

W trakcie

Cotygodniowy update statusu (1 slide, 5 minut): ile URL-i przeanalizowanych, ile zostało, ile spornych decyzji. Spornych decyzji nie rozwiązujemy sami — zbieramy w listę i omawiamy raz na dwa tygodnie z klientem/PO.

Po audycie

Prezentacja wyników (45 minut): executive summary, trzy najważniejsze decyzje, plan egzekucji. Potem pisemny raport z akceptacją. Egzekucja startuje dopiero po akceptacji — inaczej potem „nie wiedzieliśmy, że usuwacie tamte strony”.

FAQ — content audit w praktyce

Ile kosztuje content audit i jak długo trwa?

Dla serwisu do 200 URL: 6–12 godzin pracy seniora, koszt 2 000–6 000 PLN (wewnętrznie lub agencyjnie). Dla 500–1 000 URL: 4–8 dni, 14 000–32 000 PLN. Dla 3 000+ URL z automatyzacją AI: 2–4 tygodnie zespołu 2-osobowego, 40 000–90 000 PLN. Zwrot z audytu (dodatkowy ruch organiczny × CPC equivalent) zwykle przekracza koszt 3–7× w ciągu 6 miesięcy. ROI najsilniejsze w serwisach 3+ letnich z intensywną wcześniejszą produkcją.

Jak często robić content audit?

Pełny audyt całego serwisu raz w roku. Mini-audyt kwartalnie — skupiony na jednym klastrze lub na tym, co zmieniło się od poprzedniego audytu (nowe URL, spadki pozycji, aktualizacje algorytmu Google). W zespołach produkujących 30+ artykułów miesięcznie dobrym rytmem jest: styczeń pełny audyt, kwiecień/lipiec/październik mini-audyty tematyczne.

Czy usuwać strony z niskim ruchem, jeśli mają kilka linków zewnętrznych?

Nie usuwać bez 301. Strona z 2–3 referring domains to wciąż wartościowy element authority serwisu. Jeśli treść jest słaba — „improve” i zachowaj URL. Jeśli temat nie pasuje do strategii — 301 na najbliższą tematycznie stronę (zwykle hub klastra). Delete z 410 tylko gdy zero linków zewnętrznych i zero wartości tematycznej. Czasem warto wprost poprosić link builder team o outreach z pytaniem, czy link przenieść przed usunięciem strony.

Co ważniejsze w scoringu: ruch czy jakość treści?

W horyzoncie 3-miesięcznym — ruch. W horyzoncie 12-miesięcznym — jakość. Strona z dużym ruchem, ale słaba jakościowo, to bomba zegarowa — Google rzadziej, ale konsekwentnie karze takie strony w core update’ach. Strona z małym ruchem, ale wysoką jakością, jest kandydatem do „improve” i może zyskać 5–10× ruch po optymalizacji. Dobry audyt waży oba wymiary: średnia z (traffic score × 0,4 + quality score × 0,6) daje lepsze decyzje niż sam ruch.

Jak podejść do audytu w serwisie e-commerce z tysiącami produktów?

W e-commerce audyt content to nie to samo co audyt produktów. Audytujemy: (1) blog/content hub — standardową metodyką, (2) kategorie — pod kątem opisu, listy i struktury, (3) strony produktowe — pod kątem opisu, unikalności i schema. Kategorie z cienkim opisem, które rankują — priorytet improve. Strony produktowe z opisami producenta (niecytowalne, nieunikalne) — priorytet batch rewrite. Strony produktów wycofanych — 301 na kategorię, nie na homepage.

Czy audit powinien uwzględniać treści na YouTube, LinkedIn, newsletter?

Jeśli produkujesz content w wielu kanałach, rozszerzony audyt multi-channel ma sens, ale robimy go osobno, raz w roku. Dla WWW kluczowa jest konsolidacja własnego serwisu. YouTube i newsletter mają inne metryki sukcesu (watch time, open rate) i inne decyzje („unlist” vs „delete”). Repurposing między kanałami — tak, ale to osobny projekt. W ramach audytu WWW sprawdzamy tylko, czy treści na innych kanałach linkują do naszych artykułów — to sygnał, że artykuł jest wartościowy dla zespołu i nie powinien być deletowany.

Audyt pod migracje — kiedy audit poprzedza dużą zmianę

Przed migracją domeny, przebudową IA serwisu albo zmianą CMS content audit jest obowiązkowy. Bez niego migracja przeniesie całe śmieci i wygeneruje ogromną liczbę 404.

Dodatkowe elementy audytu pre-migracyjnego

  • Mapa 301 1:1 — każdy URL stary → URL nowy, bez wyjątków.
  • Identyfikacja URL-i do porzucenia (delete + 410) przed migracją — nie po.
  • Weryfikacja redirect chain’ów (idealnie zero, maksymalnie jeden hop).
  • Sprawdzenie zachowania linków wewnętrznych.
  • Eksport danych sprzed migracji (GSC, GA4) jako baseline.

Co zwykle idzie źle

Najczęstszy błąd migracji to „301 wszystkich URL-i na homepage” — Google traktuje to jako soft 404 i cofa authority. Drugi błąd to brak sprawdzenia, czy przeniesione URL-e nadal są indeksowalne po migracji. Trzeci błąd to zapomnienie o sitemap.xml i robots.txt z nowej domeny.

Audit i AI-generated content na twojej stronie

Wiele zespołów produkowało treść AI w latach 2023–2025 bez fact-checku. W 2026 audyt powinien zidentyfikować takie strony i ocenić je pod wyższym progiem jakości.

Oznaki tekstu AI-generated bez edycji

  • Generyczne intro z frazą „w świecie cyfrowym” lub podobną.
  • Powtarzające się liczby („w 2024 roku 78% firm…” bez źródła).
  • Listy zbudowane symetrycznie (zawsze 5 punktów, zawsze po 2 zdania).
  • Brak konkretnych nazwisk, konkretnych narzędzi, konkretnych cen.
  • Halucynacje — linki do stron, które nie istnieją, cytaty bez atrybucji.

Co z takimi tekstami

Jeśli jest ruch > 30 kliknięć miesięcznie — priorytet improve z briefem redaktorskim („dopisz 3 konkretne dane, dodaj 2 nazwiska ekspertów, zweryfikuj każdą liczbę”). Jeśli ruch < 10 kliknięć — kandydat do delete, bo wkład w autorytet serwisu jest ujemny. Google w core update’ach 2024–2025 konsekwentnie karze serwisy z przewagą AI-slop. Usunięcie takich tekstów często daje +15–20% ruchu w pozostałych.

Miary sukcesu audytu w dłuższym horyzoncie

Audyt rozliczamy w trzech horyzontach czasowych: 30, 90 i 180 dni. Każdy ma inne miary.

30 dni — techniczne

  • Liczba 404 spadła do zera (poza celowo pozostawionymi 410).
  • Redirect chains < 1% URL-i.
  • Crawl budget zaczyna się stabilizować (GSC → Crawl Stats).
  • Nowe URL-e „improve” są indeksowane.

90 dni — rankingowe

  • Średnia pozycja keywordów z klastrów docelowych poprawia się.
  • Impresje GSC rosną > 15% w docelowych klastrach.
  • Kanibalizacja znika w > 80% przypadków zidentyfikowanych w audycie.
  • Kliki organiczne rosną > 10% w serwisie.

180 dni — biznesowe

  • Konwersje z organic podniosły się proporcjonalnie do ruchu lub więcej.
  • Cytowania w LLM (Perplexity, ChatGPT, Gemini) wzrosły w docelowych klastrach.
  • Koszt akwizycji lead’a z organic spadł dzięki wyższym konwersjom.
  • Zespół produkcyjny ma więcej przestrzeni, bo nie „podtrzymuje” starych tekstów.

Co dalej

Gdy audyt się zakończy i decyzje zostaną wdrożone, kolejnym krokiem jest domknięcie pętli: aktualizacja strategii i briefów pod nowo odkryte potrzeby. Zacznij od frameworka strategii contentowej 2026, a potem sprawdź, czy twoje treści są dopasowane do etapu firmy w poradniku o content-market fit. Każdy „improve” powinien startować od dobrego briefu contentowego — bez niego przepisywanie nie zadziała.