Checklist audytu SEO — 80 rzeczy do sprawdzenia

15 kwietnia, 2026

Checklist audyt SEO to 80 rzeczy, które sprawdzamy podczas pełnego audytu strony — od konfiguracji serwera po cytowania w ChatGPT. Punkty pogrupowane w 8 sekcji, każda z priorytetem (P0–P2) i szacowanym czasem analizy. Celem nie jest „idealny wynik” w audycie, tylko identyfikacja 5–15 problemów, których fix daje największy zwrot.

Audyt SEO w 2026 obejmuje trzy warstwy: klasyczne SEO (technikalia, on-page, linki), Core Web Vitals (performance, UX) oraz AIO (optymalizacja pod wyszukiwarki AI — ChatGPT, Perplexity, Gemini). Te trzy warstwy są splecione — strona z wolnym LCP nie tylko traci pozycje w Google, ale też rzadko jest cytowana przez LLM-y, bo crawlery AI mają agresywniejsze timeouty.

Lista powstała z doświadczenia audytorskiego na 200+ domenach B2B, e-commerce i media w Polsce. Numeracja jest ciągła, ale punkty można wykonywać równolegle — analityk SEO dzieli się obszarem z analitykiem technicznym i treści. Całość zajmuje 12–28 godzin pracy, zależnie od wielkości domeny i stanu wyjściowego.

W skrócie

  • 80 punktów w 8 sekcjach: crawlability, indeksacja, on-page, Core Web Vitals, content, linki, AIO, pomiar.
  • 33 punkty P0 (fundamenty, bez których audyt nie ma sensu), 32 P1 (wysoki wpływ), 15 P2 (doszlifowanie).
  • Realny czas audytu: 12–28 godzin dla domeny 50–5 000 stron; enterprise (50k+ stron) to 40–80 h.
  • Typowy audyt identyfikuje 5–15 problemów krytycznych; fix daje +30–120% ruchu w 3–6 miesięcy.
  • Stack minimalny: Screaming Frog + GSC + PageSpeed Insights + Ahrefs/Semrush — zestaw za 500–1 500 PLN/mc.

Spis treści

  1. Sekcja 1 — crawlability i dostępność (punkty 1–10)
  2. Sekcja 2 — indeksacja i kanonizacja (punkty 11–20)
  3. Sekcja 3 — on-page SEO (punkty 21–32)
  4. Sekcja 4 — Core Web Vitals i performance (punkty 33–42)
  5. Sekcja 5 — content i struktura (punkty 43–54)
  6. Sekcja 6 — linki wewnętrzne i zewnętrzne (punkty 55–64)
  7. Sekcja 7 — AIO i dane strukturalne (punkty 65–73)
  8. Sekcja 8 — pomiar i monitoring (punkty 74–80)
  9. Mapa priorytetów i kolejność analizy
  10. Najczęstsze błędy w sposobie prowadzenia audytu
  11. FAQ
  12. Co dalej

Sekcja 1 — crawlability i dostępność (punkty 1–10)

Jeśli Googlebot nie crawluje strony, reszta audytu jest akademicka. Pierwsza sekcja sprawdza, czy strona jest w ogóle widoczna dla robotów i czy nie marnuje budżetu crawlowania na zasoby bez znaczenia.

Dlaczego crawlability to punkt wyjścia

Budżet crawlowania to realny zasób — Googlebot odwiedza domenę X razy dziennie, gdzie X zależy od autorytetu, szybkości odpowiedzi i historii. Jeśli 40% tego budżetu idzie na parametry URL, duplikaty i strony 404, to 40% waszej treści czeka w kolejce. Dla domen > 5 000 URL-i crawl budget optimization jest często największym źródłem szybkiego wzrostu — nie dlatego, że dodaliście nową treść, tylko dlatego, że stara wreszcie została odkryta.

Dostępność dla robotów (punkty 1–5)

  1. Plik robots.txt obecny i poprawny [P0]. Dostępny pod /robots.txt, zawiera link do sitemap, nie blokuje /wp-content/, /wp-includes/, kluczowych CSS/JS. Crawl Testing Tool w GSC pokazuje zielone światło dla top-20 URL-i.
  2. Sitemap XML dostępny i zgłoszony [P0]. Jeden lub kilka plików (sitemap index), max 50 000 URL-i na plik. Zgłoszony w GSC i Bing Webmaster. Wszystkie URL-e w sitemap zwracają kod 200 — audyt próbek 30 losowych.
  3. Kody odpowiedzi HTTP [P0]. Crawl Screaming Frog całej domeny. Wszystkie URL-e w menu, paginacji, sitemap zwracają 200. Kody 3xx w menu wyeliminować, 4xx w sitemap usunąć, 5xx na produkcji — alert krytyczny.
  4. Blokady JS-side rendering [P1]. URL Inspection w GSC pokazuje wyrenderowaną wersję identyczną z widokiem użytkownika. SPA/React bez SSR/SSG = ryzyko, że Google widzi pustą stronę. Test przez „widok JS” w Screaming Frog.
  5. Architektura URL głęboka max 4 poziomy [P1]. /kategoria/podkategoria/artykul/ — max. Im głębiej, tym rzadziej Googlebot crawluje. URL-e 6+ poziomów zwykle są crawlowane raz na kwartał, co oznacza miesiące zwłoki przy każdej zmianie.

Budżet crawlowania i wydajność (punkty 6–10)

  1. Crawl stats w GSC [P1]. „Crawl requests per day”, „average response time”, „crawl purpose”. Stabilne requests = zdrowa domena. Nagły spadek o 30% = problem techniczny. Response time powyżej 800 ms = serwer za słaby.
  2. Strony-sieroty (orphan pages) [P1]. Crawl Screaming Frog + lista z GSC + sitemap. URL-e w sitemap, ale bez linków wewnętrznych = orphan. Albo usuwamy z sitemap, albo dolinkowujemy kontekstowo.
  3. Łańcuchy przekierowań [P1]. Max 1 krok 301. Łańcuchy A→B→C→D „wyciekają” linkjuice i wydłużają TTFB. Screaming Frog zakładka „redirect chains” pokazuje wszystkie.
  4. Soft 404 [P1]. Strony, które zwracają 200, ale wyglądają jak „nie znaleziono” (pusty listing kategorii, strona „no results”). Google je oznacza w GSC → Pokrycie → Wykluczone. Fix: zwrócić 404 lub dolinkować treść.
  5. Nieskończone spacje crawlowania [P2]. Filtry fasetowe (?color=red&size=m&…), kombinacje parametrów, paginacja do 1 000. Blokada w robots.txt lub canonical do wersji bazowej. Typowy problem e-commerce.

Sekcja 2 — indeksacja i kanonizacja (punkty 11–20)

Crawl ≠ indeksacja. Strona może być crawlowana codziennie, a nigdy nie trafić do indeksu. Ta sekcja sprawdza, co faktycznie jest widoczne w Google.

Powody, dla których Google nie indeksuje strony

Pięć najczęstszych kategorii wykluczenia w GSC: (1) „Strona wykluczona ze względu na znacznik noindex” — przypadkowy noindex, często po migracji z dev; (2) „Zduplikowana, bez wybranego przez użytkownika znacznika kanonicznego” — Google znalazł duplikat i wybrał inną stronę jako kanoniczną; (3) „Zeskanowana — obecnie nie jest zindeksowana” — Google zdecydował, że treść nie jest wystarczająco wartościowa; (4) „Znaleziono — obecnie nie jest zindeksowana” — strona czeka w kolejce (crawl budget); (5) „Błąd serwera (5xx)” — rzadkie, ale krytyczne. Każda z tych kategorii ma inny fix — poniższe 10 punktów adresuje je po kolei.

Zakres indeksacji (punkty 11–15)

  1. Raport pokrycia w GSC [P0]. Prawidłowe vs wykluczone URL-e. Stosunek ~80/20 to zdrowie. Powyżej 40% wykluczonych — problem strategiczny. Kategorie wykluczenia analizować po kolei.
  2. Site: operator [P0]. site:domena.pl — przybliżona liczba URL-i w indeksie. Porównanie z liczbą URL-i w sitemap. Rozjazd większy niż 25% to alert.
  3. Noindex accidental [P0]. Strony ze znacznikiem noindex, które powinny być indeksowane. Screaming Frog zakładka „directives”. Klasyczny błąd po migracji z dev → prod.
  4. Duplikaty wewnętrzne [P0]. Te same treści pod różnymi URL-ami: z/bez trailing slash, http/https, www/non-www, parametry UTM. Screaming Frog → duplicates.
  5. Hreflang (jeśli multi-lang) [P1]. Pary self-referencing. GSC raport „International Targeting”. Błędy hreflang to 20–40% spadek zagranicznego ruchu.

Kanonizacja i dyrektywy (punkty 16–20)

  1. Canonical self-referencing [P0]. Każda strona ma canonical wskazujący sama na siebie (chyba że to duplikat). Brak canonical = Google wybiera sam, co zwykle źle.
  2. Canonical cross-domain [P1]. Syndykowane treści (Medium, LinkedIn Articles) mają canonical do oryginału. Inaczej Medium ranguje wyżej niż wy.
  3. Paginate: rel=next/prev? [P2]. Google od 2019 to ignoruje. Dla długich serii — canonical do „view all” albo samodzielne URL-e.
  4. Parametry URL w GSC [P2]. „URL Parameters tool” wycofany w 2022, teraz przez robots.txt i canonical. Sprawdzić, czy ?utm_*, ?fbclid nie tworzą zduplikowanych stron indeksowanych.
  5. X-Robots-Tag w nagłówkach [P1]. PDF-y, obrazki, feedy mogą być blokowane nagłówkiem HTTP. Sprawdzić curl -I dla próbki.

Sekcja 3 — on-page SEO (punkty 21–32)

On-page to punkt styku treści z wynikami wyszukiwania. Nawet świetnie techniczna strona bez dobrych meta nie ma klikalności.

Title, meta, nagłówki (punkty 21–27)

  1. Meta title unikatowy i 50–60 znaków [P0]. Screaming Frog sortuje po „duplicate titles”. Focus keyword w pierwszej połowie. Branding na końcu, tylko jeśli mieści się.
  2. Meta description 140–160 znaków [P1]. Unikatowy per strona. Zawiera intencję + benefit + CTA. Brak meta = Google generuje sam (zwykle gorzej niż ręcznie).
  3. H1 jeden per strona [P0]. Jeden, zawiera focus keyword, opisuje zawartość. Wiele H1 dezorientuje crawlery i LLM-y.
  4. Hierarchia H2–H6 [P1]. H2 dla głównych sekcji, H3 dla podsekcji. Bez skoków H1→H4. Każdy H2 odpowiada na jedno pytanie/podtemat.
  5. Długość URL i slug [P1]. Slug ≤ 35 znaków, URL całkowity ≤ 75 znaków w SERP. Długie URL-e są obcinane w wynikach i gorzej klikane.
  6. Focus keyword w pierwszym akapicie [P1]. Naturalne użycie w pierwszych 100 słowach. Nie w H1-podobnej konstrukcji, ale w zdaniu oddającym temat.
  7. Alt text dla obrazków [P1]. Opisowy, nie „image-01.jpg”. Dla obrazków dekoracyjnych — alt=”” (pusty), nie brak atrybutu. Screaming Frog → images → missing alt.

Schema, OG, mikro-dane (punkty 28–32)

  1. Schema.org Article/BlogPosting/Product [P0]. Odpowiedni typ dla każdej strony. Walidacja w Rich Results Test. Błędy schema = brak rich snippetów.
  2. Schema BreadcrumbList [P1]. Breadcrumb w HTML + schema. Lepszy CTR w SERP (okruszki wyświetlane zamiast URL).
  3. Schema Organization i LocalBusiness [P1]. Na home lub /kontakt/. Dane kontaktowe, logo, social profiles. Zasila knowledge panel Google.
  4. Open Graph i Twitter Cards [P2]. og:title, og:description, og:image, og:type. Dobrze widoczne udostępnienia w LinkedIn, X, Slack. Walidacja w opengraph.xyz.
  5. Brakujące dane strukturalne [P1]. FAQ, HowTo, Review — odpowiednio do typu treści. Uwaga: FAQ rich results w Google tylko dla gov/health od 2023, ale dla LLM-ów i tak wartościowe.

Sekcja 4 — Core Web Vitals i performance (punkty 33–42)

Core Web Vitals to nie tylko UX — to ranking signal od 2021 i punkt styku z AIO (crawlery LLM porzucają wolne strony). Pomiar: PageSpeed Insights, CrUX, Lighthouse, web.dev/measure.

Lab vs field data — różnica, która gubi zespoły

Lighthouse w DevTools to dane laboratoryjne — jeden pomiar, jedna konfiguracja, zawsze z tej samej maszyny. CrUX (Chrome User Experience Report) to dane terenowe — 28-dniowe medianę tysięcy realnych wizyt. Google używa CrUX do rankingu, nie Lighthouse. Lighthouse mówi „macie problem”, CrUX mówi „macie problem u realnych użytkowników, i Google to widzi”. Optymalizacja pod Lighthouse bez weryfikacji CrUX to często samonagradzanie — poprawiacie lab, field nie drgnął.

Progi CWV i wydajność (punkty 33–37)

  1. LCP < 2,5 s [P0]. Largest Contentful Paint — główny obraz/tekst widoczny. Typowe fixy: preload hero image, lazy load poniżej fold, CDN, WebP/AVIF.
  2. CLS < 0,1 [P0]. Cumulative Layout Shift — przeskoki layoutu. Fix: width/height na obrazkach, font-display: optional/swap z preload, reserve space for ads/embeds.
  3. INP < 200 ms [P0]. Interaction to Next Paint (zastąpił FID w marcu 2024). Fix: long tasks, code splitting, web workers dla ciężkich obliczeń.
  4. TTFB < 600 ms [P1]. Time to First Byte. Słaby TTFB = słaby hosting albo dynamiczne generowanie bez cache. Edge caching, static generation.
  5. Total Blocking Time < 200 ms [P1]. Dla lab-testów Lighthouse. Koreluje z INP. Fix: defer/async JS, usunąć niepotrzebne polyfill-e.

Obrazy, fonty, JS (punkty 38–42)

  1. Obrazki w WebP/AVIF z fallback [P1]. Redukcja 30–70% vs JPEG. <picture> z <source type=”image/webp”>. Cloudflare Images, ImageKit automatyzują.
  2. Lazy loading [P1]. loading=”lazy” dla obrazków poniżej fold + iframes. Nigdy dla LCP image.
  3. Font-display i preload fontów [P1]. font-display: swap lub optional. Preload tylko fontów krytycznych (max 2). Unikać web fontów dla body copy w MVP.
  4. JS third-party audit [P1]. Analytics, tag manager, chat, ads — każdy dodaje 50–400 ms. Audyt: czy wszystko potrzebne? Async/defer dla wszystkiego poza krytycznym.
  5. HTTP/2 lub HTTP/3 [P2]. Nowoczesny protokół = równoległe requesty. Sprawdzić w DevTools → Network → Protocol.

Sekcja 5 — content i struktura (punkty 43–54)

Treść to 60% wagi audytu. Punkty poniżej obejmują jakość, głębokość, kompletność i dopasowanie do intencji — nie tylko obecność słów kluczowych.

Dlaczego content audit przerasta technical audit

Strona może mieć idealne CWV, bezbłędny schema i uporządkowaną indeksację — i nie rankować, bo treść nie odpowiada na pytania, które ludzie naprawdę zadają. Dobry content audit porównuje trzy rzeczy: (1) to, co macie, (2) to, czego szukają użytkownicy (GSC Queries + Ahrefs Questions), (3) to, co serwują konkurenci w top-10. Różnica między (2) a (1) to content gap — najczęstsze źródło „czemu nie rankujemy mimo porządnego bloga”.

Jakość i głębokość (punkty 43–48)

  1. Thin content (< 300 słów) [P0]. Strony z niewielką treścią. Często: tagi, kategorie z 1–2 postami, landing page-y bez opisu. Fix: rozbudować albo noindex.
  2. Duplicate content wewnątrz domeny [P0]. Te same akapity kopiowane między artykułami. Screaming Frog → near duplicates. Fix: unikalizacja albo konsolidacja.
  3. Outdated content [P1]. Artykuły z datą > 18 miesięcy. Audyt top-20 pod kątem aktualności liczb, narzędzi, linków zewnętrznych.
  4. Match to search intent [P1]. Top-10 w Google dla danej frazy pokazuje intencję (listicle, guide, product page). Wasza strona pasuje? Jeśli nie, przebudowa formatu.
  5. Długość vs konkurencja [P1]. Top-3 SERP liczą średnio 3 200 słów dla informacyjnych fraz? Wy macie 1 100 — za krótko.
  6. Cannibalizacja słów kluczowych [P1]. Dwie strony walczą o tę samą frazę. GSC → pozycje → grupowanie po keyword. Fix: konsolidacja 301 albo zmiana focus keyword.

Struktura kategorii i tagów (punkty 49–54)

  1. Strony kategorii z opisem [P1]. 150–300 słów opisujących kategorię. Bez opisu = thin content + brak kontekstu.
  2. Tagi używane strategicznie [P2]. Tag = cross-cutting topic. Zero jeśli nie macie procesu utrzymania. Noindex tagów z < 3 postami.
  3. Paginacja czytelna [P1]. Numeracja 1–2–3, a nie „załaduj więcej” z JS. Każda strona paginacji indexowalna (lub canonical do strony 1 — kontrowersyjne).
  4. Breadcrumbs w HTML [P1]. Widoczne breadcrumbs z BreadcrumbList Schema. Lepszy CTR, lepszy UX mobilny.
  5. Wyszukiwarka wewnętrzna [P2]. Jeśli ma tracking w GA4, zapytania użytkowników to kopalnia słów kluczowych, których nie macie.
  6. 404 page pomocna [P2]. Lista popularnych wpisów, search, link do home. Nie samo „strona nie istnieje”.

Sekcja 6 — linki wewnętrzne i zewnętrzne (punkty 55–64)

Linki są drugim po treści najsilniejszym sygnałem SEO i podstawą topic graph dla LLM-ów. Sekcja sprawdza oba kierunki — linki wchodzące (backlinki) i wewnętrzne przepływy autorytetu.

Wewnętrzne > zewnętrzne przy niskich budżetach

Dla domen, które nie mogą sobie pozwolić na aktywny link building (koszt pozyskania linku DR 40+ to 800–3 500 PLN/szt), optymalizacja linków wewnętrznych daje najszybszy zwrot. Trzy interwencje: dolinkowanie orphan pages, skrócenie łańcuchów redirect, dolinkowanie głębszych stron z homepage. Łączny efekt: +15–40% ruchu w 60–90 dni bez pozyskania ani jednego nowego backlinka. Wewnętrzne linkowanie to również podstawa topical authority — Google (i LLM-y) budują mapę „o czym jest ta domena” z gęstości wzajemnych linków w klastrach.

Linki wewnętrzne (punkty 55–59)

  1. Średnia liczba linków wewnętrznych per strona [P1]. Dla artykułów: 5–25. Dla homepage: 30–100. Poniżej 3 = orphan risk, powyżej 150 = rozcieńczony link juice.
  2. Anchor text diversity [P1]. Miks exact match, partial match, branded, generic. Zbyt dużo exact match = over-optimization flag. Nigdy „kliknij tutaj”.
  3. Głębokość kliknięcia do ważnych stron [P1]. Top-20 URL-i powinno być dostępne w max 3 kliki z homepage. Głębsze = Googlebot rzadziej crawluje.
  4. Nofollow/UGC/sponsored [P2]. Rel attributes gdzie trzeba: nofollow dla sponsoringu, ugc dla komentarzy, sponsored dla afiliacji.
  5. Linki do pillar z każdego supporting [P1]. Minimum 2 linki: jeden wcześnie w tekście, jeden w sekcji „co dalej”.

Linki zewnętrzne (punkty 60–64)

  1. Profil backlinków — jakość [P0]. Ahrefs/Semrush → Referring Domains. DR > 30 dominują? Dobrze. > 60% z DR < 10 + toxic anchor = problem, disavow.
  2. Nowe linki w trendu [P1]. Tempo przyrostu. Stagnacja = brak outreach. Gwałtowny skok = spam attack do monitoringu.
  3. Broken external links [P1]. Linki wychodzące 404. Screaming Frog → external → status codes. Fix lub usunąć.
  4. Stracone linki (lost backlinks) [P1]. Ahrefs alert. Próba odzyskania przez outreach — szczególnie gdy 404 po migracji.
  5. Linki z authority w niszy [P1]. Nie sama liczba, ale z kim linkujecie i kto do was linkuje. 3 linki z domen branżowych > 30 z katalogów.

Sekcja 7 — AIO i dane strukturalne (punkty 65–73)

Warstwa, której nie było w audytach sprzed 2024. W 2026 AIO to osobny kanał dystrybucji — widoczność w ChatGPT, Perplexity, Gemini, Copilot wymaga innych sygnałów niż Google.

Jak LLM-y wybierają, co cytować

Duże modele językowe nie „czytają” stron jak użytkownik. Ich retrieval layer (RAG) pobiera fragmenty 200–800 znaków, ocenia trafność i dobiera 3–8 najlepszych jako kontekst odpowiedzi. Kryteria wyboru to: (1) semantyczne dopasowanie do zapytania, (2) samowystarczalność chunka (czy odpowiedź ma sens bez kontekstu), (3) factoid density (liczby, daty, nazwy), (4) reputacja domeny (wg signal pożyczanych z Google i innych źródeł), (5) jakość formatowania HTML. Strona, która jest wizualnie piękna, ale ma jeden akapit na całą sekcję, przegra z konkurentem z 5 akapitami po 3 zdania i jedną tabelą.

Format pod LLM (punkty 65–69)

  1. Chunkowalność treści [P1]. Krótkie akapity (2–4 zdania), H2 jako pytania, leading sentence z odpowiedzią. LLM-y cytują „chunki” max 300–600 znaków — treść musi dać się czysto pociąć.
  2. FAQ w <details>/<summary> [P1]. 5–8 pytań na kluczowych stronach. Format, który LLM-y preferują. Odpowiedzi 60–120 słów, factoid density.
  3. Factoid density [P1]. Liczby, daty, nazwy własne. „65% redukcja kosztu” zamiast „znacząco taniej”. LLM-y cytują zdania z konkretami 3–5× częściej.
  4. Tabele dla porównań [P1]. LLM-y parsują tabele czysto. Porównania dwóch+ opcji w prozie są ignorowane — tabela to instrukcja „wyciągnij dane”.
  5. Cytowania źródeł [P2]. Linki do badań, dokumentacji oficjalnej, danych. LLM-y „ufają” treściom, które same cytują weryfikowalne źródła.

Schema i entity (punkty 70–73)

  1. Author schema z sameAs [P1]. Profil autora z linkami do LinkedIn, X, innych publikacji. E-E-A-T + entity disambiguation dla LLM-ów.
  2. Organization schema kompletny [P1]. Founder, foundingDate, address, contactPoint, sameAs. Zasila knowledge graph Google, ułatwia LLM rozpoznanie marki.
  3. llms.txt lub /ai.txt (eksperymentalne) [P2]. Nowy standard (2024–2025) wskazujący AI crawlerom kluczowe dokumenty. Jeszcze nie uniwersalny, ale trend rośnie.
  4. Obecność w ChatGPT/Perplexity [P1]. Manualny test: 10 zapytań z waszych klastrów. Wasza domena cytowana? Jak brzmi cytat? Brak obecności = sygnał do pracy nad AIO.

Sekcja 8 — pomiar i monitoring (punkty 74–80)

Audyt bez systemu pomiaru = jednorazowa fotografia. Sekcja zamyka pętlę: co mierzyć stale, żeby problemy wyłapywać przed katastrofą.

Dlaczego monitoring jest tańszy niż reakcja

Spadek 40% ruchu, który wykrywacie po 3 tygodniach, oznacza utratę 10 000–50 000 PLN przychodu (zależnie od skali). Ten sam spadek wykryty w 48h to okno reakcji — fix technical issue, rollback wdrożenia, kontakt z Google. Monitoring kosztuje 200–800 PLN/mc w narzędziach i 2–4h pracy miesięcznie. Brak monitoringu kosztuje setki tysięcy rocznie w utraconym ruchu, którego nie zauważycie.

GA4, GSC, alerty (punkty 74–80)

  1. GA4 + GTM + Consent Mode v2 [P0]. Pełna konfiguracja. Zdarzenia: scroll 75%, outbound, form_submit, internal_search. Bez tego analiza behawioralna jest niemożliwa.
  2. Search Console alerty [P0]. Manual action, security issues, core update — powiadomienia e-mail aktywne. Przeoczenie manual action = tygodnie offline.
  3. Monitoring pozycji kluczowych [P1]. 40–100 fraz śledzonych codziennie (Ahrefs Rank Tracker, Semrush, SE Ranking). Spadek grupy fraz = core update do zbadania.
  4. Uptime monitoring [P1]. UptimeRobot, BetterStack. Alert < 5 min po downtime. Downtime > 1h = ryzyko deindeksacji.
  5. Log file analysis [P2]. Raz na kwartał analiza logów serwera: kto crawluje, co crawluje, gdzie marnuje budżet. Screaming Frog Log Analyzer.
  6. Backup i disaster recovery [P1]. Daily backup, tested restore. Audit trail zmian w WordPress (WP Activity Log). Przy hakowaniu/zepsuciu — przywrót w 1–2h.
  7. Raport audytu i roadmap [P0]. Dokument końcowy: lista 5–15 problemów krytycznych, priorytet, właściciel, deadline. Bez właściciela i deadlinu audyt żyje w Notion i nic nie zmienia.

Mapa priorytetów i kolejność analizy

80 punktów naraz to paraliż. Poniższa tabela pokazuje realną kolejność prac — nie liniową (1 → 80), tylko po wadze biznesowej.

EtapPunktyPriorytetCzasWynik
Dzień 1 rano1–15, 33–35P03–4 hBaseline: czy strona żyje technicznie
Dzień 1 popołudnie21–28, 43–48P0/P13–5 hOn-page + jakość treści
Dzień 2 rano55–64P0/P12–4 hProfil linkowy
Dzień 2 popołudnie65–73P12–3 hAIO i dane strukturalne
Dzień 316–20, 29–32, 36–42, 49–54P1/P24–8 hDoszlifowanie szczegółów
Dzień 474–80 + raportP03–4 hSystem pomiaru + roadmap

Powyższy harmonogram zakłada jedną osobę pracującą 6 godzin dziennie. Zespół 2-osobowy zamknie audyt w 2 dni; analityk techniczny + analityk contentowy pracujący równolegle. Największe firmy (50k+ URL-i) potrzebują 6–10 dni i dodatkowego specjalisty od log file analysis.

Narzędzia per etap

Etap audytuNarzędzia kluczoweKoszt/mc
Crawl + indeksacjaScreaming Frog (500 URL free / pełny 209 USD/rok) + GSC70 PLN/mc
On-page + schemaRich Results Test, Schema Validator, Screaming Frogdarmowe
Core Web VitalsPageSpeed Insights, WebPageTest, CrUX, DebugBear0–400 PLN/mc
Content gapAhrefs, Semrush, Sistrix, Surfer SEO500–2 000 PLN/mc
BacklinkiAhrefs, Majestic, GSC Links500–1 500 PLN/mc
AIO/LLMChatGPT, Perplexity, Gemini (manual prompts), AIO trackers0–400 PLN/mc

Najczęstsze błędy w sposobie prowadzenia audytu

Pięć pułapek, w które wpada większość zespołów

Audyt SEO to umiejętność, której uczysz się latami. Pięć błędów metodologicznych powraca w co drugim audycie, który widzimy:

  • Audyt bez priorytetyzacji. Lista 80 uwag bez „top 5 do zrobienia w tym tygodniu”. Klient zrobi 3 losowe rzeczy i efektu nie będzie.
  • Audyt dekoracyjny. 40-stronowy raport PDF, który nikt nie czyta. Zamiast tego: 1 strona z 10 problemami, ownerem i deadlinem.
  • Ignorowanie AIO. W 2026 audyt bez sekcji AIO jest niepełny. ChatGPT + Perplexity to już 10–15% trafficu informacyjnego.
  • Brak re-audytu po 90 dniach. Audyt to nie fotografia, to film. Re-audyt po 3 miesiącach pokazuje, co zadziałało.
  • Audyt bez kontekstu biznesowego. „Fix all thin content” bez wiedzy, że te strony konwertują mimo wszystko. Audytor musi rozmawiać z biznesem przed ścinką.

Dobry audyt zamyka się rekomendacją, nie listą. Lista ma 80 punktów, rekomendacja ma 5–10 i mówi „zrób to teraz, tamto za miesiąc, resztę ignoruj”. Uczciwy audytor wie, co odpuścić.

FAQ

Ile trwa pełny audyt SEO według tej checklisty?

Dla domeny 50–5 000 stron: 12–28 godzin pracy rozłożone na 2–4 dni robocze. Podział typowy: 6–10h na crawl i indeksację, 4–6h on-page i schema, 3–5h performance i CWV, 3–5h content i linki, 2–4h AIO i dane strukturalne, 2–3h raport. Enterprise (50 000+ URL-i) to 40–80h ze względu na log file analysis, sampling i głębsze analizy cross-sectional. Jeśli zamykacie w 4 godziny, to jest to „quick check”, nie audyt. Prawdziwy audyt zawsze odkrywa problemy, które wymagają głębszego drążenia.

Ile kosztuje audyt SEO przeprowadzony przez agencję?

W Polsce w 2026: 3 500–25 000 PLN za audyt jednorazowy, zależnie od rozmiaru domeny i głębokości. Freelancerzy seniorzy: 4 000–12 000 PLN, agencje butikowe: 8 000–18 000 PLN, duże konsultingi: 20 000–50 000 PLN. Tanie audyty (< 2 000 PLN) to zwykle report z PageSpeed Insights i Screaming Frog bez głębokiej analizy. Szukajcie audytora, który pokazuje próbki poprzednich raportów i daje konkretne rekomendacje, nie listę 200 mikrooptymalizacji bez priorytetów.

Jak często robić audyt SEO?

Pełny audyt: raz na 12 miesięcy. Mini-audyt (top-20 punktów P0): co kwartał. Monitoring ciągły (GSC alerty, pozycje, uptime): stale. Dodatkowo audyt po każdym core update Google (4–6× rocznie) — szybkie sprawdzenie, czy nie ma spadków w grupach fraz. Strony rosnące szybko (e-commerce dodający setki produktów/mc, blog z 8+ publikacjami/mc) potrzebują kwartalnego przeglądu indeksacji i kanonizacji. Po migracjach (domena, CMS, permalink) — audyt obowiązkowy 30 dni po migracji.

Które punkty P0 są najczęściej zaniedbane?

Trzy niestrudzenie: (1) canonical self-referencing — brak lub nieprawidłowe, prowadzi do duplikacji; (2) Core Web Vitals — LCP powyżej 3s to norma dla niezaudytowanych stron, co obniża ranking; (3) Schema.org podstawowy — BlogPosting/Article z błędami walidacji. Dodatkowo w 2026 dołączył (4) brak formatu AIO-friendly (zbyt długie akapity, brak FAQ, brak factoid density). Audyt, który identyfikuje te 4 obszary i dostarcza fix w 30 dni, daje +30–60% ruchu organicznego w 3–6 miesięcy bez żadnej nowej publikacji.

Czy można zrobić audyt SEO samemu?

Można — z zastrzeżeniami. Plusy: znajomość biznesu, szybszy dostęp do danych, niższy koszt. Minusy: blind spots (robisz błędy, których nie widzisz, bo przyzwyczaiłeś się do nich), brak benchmarku z innych projektów, emocjonalne przywiązanie („ten artykuł jest dobry, nie ruszam”). Kompromis: DIY audyt P0 (punkty 1–15, 33–35, 74–75) co kwartał, raz w roku zewnętrzny audyt pełny. Koszt DIY: 500–1 500 PLN/mc na narzędzia + 12–28h czasu. Zewnętrzny audyt co roku: 5–15 000 PLN. Razem 10–25 000 PLN/rok vs 30–80 000 PLN za ciągły retainer agencyjny.

Jak zmierzyć wpływ audytu na ruch?

Porównanie YoY (year-over-year) dla 90 dni przed fix i 90 dni po. Metryki: sesje organiczne, pozycje dla top-100 fraz, CTR z GSC, konwersje przypisane organicznemu. Okno obserwacji: 3–6 miesięcy po implementacji (Google potrzebuje re-crawl i re-rank). Uwaga na core updates w oknie — zakłócają sygnał. Dobra praktyka: „control group” — strony, których nie dotknęliście, powinny trzymać baseline. Jeśli cała domena rośnie 40%, ale control group też, to zasługa tematyki, nie audytu. Realny uplift dla średniego audytu to +30–120% w 6 miesięcy dla fixowanych sekcji.

Jakie są różnice między audytem SEO a audytem AIO?

Audyt SEO skupia się na widoczności w Google: crawl, index, keyword rankings, backlinki, CTR w SERP. Audyt AIO — na widoczności w wyszukiwarkach AI (ChatGPT, Perplexity, Gemini): cytowania, format chunkowalny, factoid density, entity schema, obecność w knowledge graph. Te dwa audyty się nakładają w 60–70% (dobra treść, dobre linki, dobry schema służą obu), ale różnice są: AIO nie zależy od pozycji w Google, bardziej od jakości cytowań w LLM-ach. W 2026 rekomendujemy łączony audyt — ta checklista (80 punktów) pokrywa oba obszary. Osobny audyt AIO robi się po 6 miesiącach od SEO-owego, jeśli obecność w LLM-ach ma dla was wagę strategiczną.

Co dalej

Materiały uzupełniające z biblioteki semtools.pl

Audyt to diagnoza. Kolejne kroki to wdrożenie rekomendacji oraz monitoring:

Audyt bez implementacji to strata czasu. Implementacja bez re-audytu po 90 dniach — połowiczna. Dopiero cykl audyt → fix → pomiar → re-audyt daje +30–120% ruchu, o którym piszemy w punkcie początkowym.