Schema FAQ czy HowTo to dziś nie jest pytanie o pasek wyników z gwiazdkami w Google. To pytanie o to, czy ChatGPT, Perplexity i Gemini w ogóle zauważą Twoją stronę, kiedy ktoś zapyta o problem, który rozwiązujesz. Dane strukturalne przestały być narzędziem klasycznego SEO, a stały się rusztowaniem, po którym poruszają się modele językowe, kiedy budują odpowiedź dla użytkownika. W 2026 roku różnica między dobrze opisanym FAQ a właściwie zaprojektowanym HowTo decyduje o tym, czy redakcja staje się cytowanym źródłem, czy kolejnym wpisem w długim ogonie wyników bez ekspozycji.
W tym przewodniku rozkładam oba schematy na czynniki pierwsze, pokazuję, kiedy każdy z nich realnie zwiększa szansę na cytowanie w odpowiedziach LLM, jakie sygnały są dziś niedoceniane oraz jak zbudować framework decyzyjny, który redakcja zastosuje do dowolnego artykułu.
Czym jest schema FAQ i HowTo w kontekście LLM
Schema.org to wspólny słownik znaczników, którym opisuje się treść strony tak, aby maszyny rozumiały jej strukturę bez potrzeby parsowania języka naturalnego. FAQPage opisuje listę pytań i odpowiedzi, gdzie każde Question ma jedną acceptedAnswer. HowTo opisuje sekwencję kroków prowadzących do rezultatu, z opcjonalnymi narzędziami, materiałami i czasem trwania. Oba typy istnieją od dawna, ale ich rola fundamentalnie się zmieniła w erze generatywnej.
Przez dekadę traktowano je głównie jako sposób na zdobycie tzw. rich results w Google: rozwijane pytania pod snippetem albo karuzelę kroków z miniaturami. W 2023 roku Google ograniczyło widoczność FAQ rich results do oficjalnych witryn rządowych i medycznych, a w 2024 stopniowo wycofywało HowTo z desktopowych SERP. Dla wielu specjalistów był to sygnał, że oznaczanie nie ma już sensu. To jest błąd, który dziś kosztuje widoczność w nowym ekosystemie.
LLM-y nie korzystają z paneli rich results. Zamiast tego pobierają HTML, parsują JSON-LD obecny w sekcji head lub body, a następnie używają tych ustrukturyzowanych danych jako pewnych, zwięzłych jednostek wiedzy. Kiedy ChatGPT czy Perplexity buduje akapit odpowiedzi, woli oprzeć się na fragmencie, który ma jasno oznaczone pytanie i jednoznaczną odpowiedź, niż wyciągać tę samą informację z toku narracyjnego. Schema staje się więc nie ozdobnikiem, lecz drogą na skróty do bycia cytowanym.
Krótka definicja w kontekście pracy redakcyjnej
FAQPage to format krótkich, zamkniętych jednostek pytanie-odpowiedź. Najlepiej sprawdza się tam, gdzie użytkownik szuka pojedynczej, konkretnej informacji: definicji, ceny, parametru, ograniczenia. HowTo to format procedury z kolejnością kroków, gdzie celem jest dojście do efektu końcowego: konfiguracji narzędzia, przeprowadzenia analizy, wykonania migracji. Dobór jednego lub drugiego nie jest kosmetyką, jest fundamentalną decyzją o intencji treści.
Najważniejsze zasady i framework decyzyjny
Pierwsza zasada brzmi: schema musi odzwierciedlać to, co widzi użytkownik. Google jasno stwierdza, że ukryte FAQ, niedostępne w DOM, są naruszeniem wytycznych. LLM-y idą dalej: jeśli model zauważy rozjazd między tym, co opisuje schema, a co znajduje się w treści, traci zaufanie do całej domeny. To samo dotyczy HowTo, gdzie kroki w JSON-LD muszą odpowiadać widocznym sekcjom artykułu. Spójność jest dziś sygnałem autorytetu, nie tylko poprawności.
Druga zasada to granularność. FAQ z jednym ogólnikowym pytaniem typu Czy warto stosować SEO jest praktycznie bezużyteczne dla modelu, bo nie odpowiada na żadną realną intencję wyszukiwania. Z kolei HowTo z dwoma krokami To zrób X, potem zrób Y nie wnosi żadnej wartości względem dobrze napisanego akapitu. Granularność oznacza, że pytania mają konkretne sformułowania w języku użytkownika, a kroki HowTo zawierają na tyle szczegółów, by ktoś mógł je realnie wykonać.
Trzecia zasada dotyczy konkurencji formatów. Próby łączenia obu schematów na jednej stronie najczęściej kończą się tym, że żaden nie zostaje wzięty pod uwagę. Modele preferują strony, które jasno deklarują jeden typ treści. Jeśli artykuł opisuje krok po kroku konfigurację indeksowania, niech będzie HowTo, a nie miks z FAQ. Jeśli stronę otwiera słownik pojęć, niech będzie FAQPage. Wybierając jeden format świadomie, redakcja podnosi prawdopodobieństwo, że strona zostanie sklasyfikowana jako pewne źródło wiedzy w określonej kategorii.
Framework w trzech pytaniach
Nim podejmiesz decyzję, odpowiedz sobie na trzy pytania. Po pierwsze: jaka jest intencja zapytania, na które artykuł odpowiada? Jeśli to zestaw odrębnych wątpliwości czytelnika (cena, dostępność, ograniczenia, integracje), idziesz w FAQ. Jeśli to procedura wykonawcza (jak zainstalować, jak skonfigurować, jak przeprowadzić audyt), idziesz w HowTo.
Po drugie: czy istnieje jednoznaczna kolejność wykonania? Jeśli krok 3 zależy od kroku 2, masz HowTo. Jeśli pytania są niezależne i można je przestawiać, masz FAQ.
Po trzecie: czy efektem końcowym jest rezultat materialny lub mierzalny (skonfigurowana wtyczka, opublikowany sitemap, wdrożony GA4), czy raczej rozwianie wątpliwości? Rezultat materialny to HowTo, rozwianie wątpliwości to FAQ.
Jak to wdrożyć krok po kroku
Wdrożenie nie sprowadza się do wklejenia generatora JSON-LD na stronę. Składa się z kilku warstw, które razem decydują o tym, czy schema realnie podnosi ekspozycję w odpowiedziach LLM. Poniżej praktyczna ścieżka, której używamy w naszej redakcji.
Krok 1: Audyt intencji treści
Zanim w ogóle pomyślisz o schemacie, sprawdź, czy artykuł odpowiada na jeden dominujący typ intencji. Jeśli tekst miesza wiedzę słownikową, instrukcję wdrożenia i zestaw porównań, to żaden schemat nie pomoże, bo model nie zrozumie, co jest sednem strony. Najpierw zdecyduj, czym tekst ma być, potem dobierasz format.
Krok 2: Wybór formatu na podstawie frameworka
Z trzech pytań z poprzedniej sekcji wynika jednoznaczna decyzja. Zapisz ją w notatce redakcyjnej, by przy kolejnych aktualizacjach treści nie wracać do dyskusji. To także ważne dla zespołu, bo różni autorzy intuicyjnie sięgają po różne formaty, co prowadzi do niespójności w obrębie domeny. Na poziomie marki spójność klasyfikacji treści jest jednym z silnych sygnałów dla modeli, że redakcja wie, co publikuje.
Krok 3: Pisanie pytań i kroków pod intencję
W przypadku FAQ pytania powinny być sformułowane dokładnie tak, jak zadałby je użytkownik, a nie jak chciałbyś je usłyszeć z punktu widzenia marki. Czy GA4 wymaga zgody RODO to dobre pytanie. Jak nasza platforma wspiera compliance to złe pytanie, bo nikt go nie wpisuje w wyszukiwarce ani nie pyta o nie czata. Odpowiedzi powinny mieścić się w 40-90 słowach: na tyle długie, by były pełną informacją, na tyle krótkie, by model mógł je zacytować bezpośrednio.
W przypadku HowTo każdy krok dostaje własny nagłówek (zwykle h3), opis w 2-4 zdaniach oraz, jeśli to możliwe, parametr czasu trwania (np. PT5M w formacie ISO 8601). Im bardziej krok jest skonkretyzowany (z poleceniem, parametrem, screenem lub blokiem kodu), tym łatwiej model wybierze go jako fragment cytowania.
Krok 4: Generacja JSON-LD i osadzenie
JSON-LD osadza się w sekcji head dokumentu lub na końcu body. W WordPressie najczystszym sposobem jest dynamiczna generacja w wtyczce SEO (RankMath, Yoast, AIOSEO) na podstawie pól FAQ/HowTo bloku. Ręczne wklejanie do edytora nie jest zalecane, bo prowadzi do desynchronizacji przy każdej edycji treści. W modelu dynamicznym schema zawsze odzwierciedla aktualną wersję postu.
Krok 5: Walidacja i testy
Standardowy zestaw to Schema.org Validator, Google Rich Results Test oraz w 2026 roku coraz częściej własny pipeline, który pobiera HTML, wycina blok JSON-LD, parsuje go i porównuje pola z widoczną treścią. Ten ostatni krok wykrywa rozjazdy, których standardowe walidatory nie zauważą, bo sprawdzają tylko zgodność ze słownikiem, a nie z treścią.
Krok 6: Monitorowanie ekspozycji w LLM
Sama publikacja to początek pracy. Rzeczywista weryfikacja sukcesu polega na regularnym sprawdzaniu, czy artykuł pojawia się w odpowiedziach ChatGPT, Perplexity i Gemini na pytania, które był pomyślany, by adresować. Praktyczny stack monitoringu, jakiego używamy w produkcji, opisaliśmy w artykule Monitoring cytowań w ChatGPT, Perplexity i Gemini: stack 2026, gdzie znajdziesz konkretne narzędzia, kadencję sprawdzania i metryki.
Jak LLM-y faktycznie czytają FAQ i HowTo
Często pomija się techniczny niuans: LLM-y konsumują dane strukturalne na dwóch etapach. Etap pierwszy to indeksacja przez crawlery (GPTBot OpenAI, ClaudeBot Anthropic, Google-Extended, PerplexityBot), które fetcheują HTML i wydobywają JSON-LD jako pojedyncze fakty. Etap drugi to retrieval w czasie odpowiedzi: gdy model dostaje zapytanie, system RAG (retrieval-augmented generation) szuka pasujących fragmentów w bazie wektorowej, a następnie podaje je jako kontekst w prompcie.
Dla FAQ fragmenty wektoryzowane są zwykle w postaci pary pytanie-odpowiedź. Oznacza to, że model otrzymuje pełny kontekst pytania razem z odpowiedzią, co daje wysoką trafność dopasowania semantycznego. Dla HowTo wektoryzowany jest często cały blok kroków (lub jego część) razem z nagłówkiem celu, co premiuje strony, które jasno deklarują, do czego prowadzi sekwencja.
Kluczowy wniosek brzmi: oba schematy działają, ale w nieco innej części lejka. FAQ wygrywa zapytania długiego ogona, gdzie użytkownik chce konkretnej odpowiedzi (np. ile kosztuje plan biznesowy, czy działa na macOS, jakie są limity API). HowTo wygrywa zapytania o intencji wykonawczej (jak skonfigurować, jak zaimportować, jak przeprowadzić). Próba upchania wszystkiego w jeden format kończy się rozcieńczeniem trafności.
Sygnały autorytetu poza samym schematem
Poza samym oznaczeniem strukturalnym znaczenie mają sygnały autorytetu, które LLM-y traktują w 2026 roku coraz poważniej: dane autorstwa, jasna przynależność organizacyjna, daty modyfikacji, cytowane źródła. To zmiana paradygmatu, którą szczegółowo omawiamy w analizie E-E-A-T pod LLM 2026: sygnały autorytetu poza linkami. Schema FAQ czy HowTo bez warstwy autorytetu działa jak dobrze złożony argument bez podpisu eksperta. Modele go zobaczą, ale nie zaufają mu na tyle, by go zacytować.
Najczęstsze błędy i pułapki
Pierwszy błąd to traktowanie FAQ jako wypełniacza końca artykułu. W wielu redakcjach generuje się 3-4 pytania, które tak naprawdę powtarzają to, co jest w treści, tylko innymi słowami. Modele to zauważają i traktują takie sekcje jako redundantne, a w skrajnych przypadkach jako sygnał niskiej jakości. FAQ ma sens, kiedy odpowiada na pytania, które nie zostały zaadresowane w głównej narracji albo wymagały wyjścia poza ramy dominującej intencji.
Drugi błąd to nieaktualne dane. Schema HowTo z 2022 roku, który wciąż mówi o GA Universal Analytics zamiast GA4, jest cytowany przez modele jako poprawna instrukcja, mimo że prowadzi czytelnika w ślepy zaułek. To podwójnie szkodzi: użytkownik traci zaufanie, a domena traci punkty autorytetu. Zarządzanie cyklem życia treści, w tym aktualizacja dat modyfikacji i pól dateModified w schemacie, jest dziś częścią obsługi technicznej, nie tylko redakcyjnej.
Trzeci błąd to mieszanie FAQ z opiniami marketingowymi. Czy nasze narzędzie jest najlepsze nie jest pytaniem, które ma jednoznaczną odpowiedź, więc nie nadaje się do FAQPage. Modele takie pseudopytania filtrują, a strony, na których się powtarzają, zaczynają być traktowane jako nierzetelne. FAQ ma być neutralną, faktograficzną warstwą informacji, nie reklamą.
Czwarty błąd dotyczy języka. W polskich realiach często widać HowTo w którym tytuły kroków są rzeczownikami abstrakcyjnymi (Konfiguracja, Wdrożenie, Optymalizacja). Z punktu widzenia modelu to słowa puste. Lepiej działają sformułowania zorientowane na czasownik i obiekt: Skonfiguruj zmienne środowiskowe, Wdroż mapę przekierowań 301, Zoptymalizuj zapytania na poziomie indeksu. Konkretność wygrywa.
Piąty błąd to ignorowanie struktury nadrzędnej. FAQ czy HowTo nie istnieje w próżni: jest osadzone w Article albo BlogPosting, który z kolei powinien deklarować autora (Person), wydawcę (Organization) i datę publikacji. Bez tej warstwy schema jest sierotą, a modele wolą cytować strony, które potrafią udowodnić, kto za nimi stoi.
Mierzenie efektów i KPI
Pomiar skuteczności schemata pod LLM różni się od klasycznego SEO i wymaga nowych metryk. Najważniejsze z nich to: częstotliwość cytowań marki w odpowiedziach modeli (citation rate), pokrycie semantyczne (jak procent zapytań z kategorii odpowiada model, używając naszego źródła), oraz głębokość cytowania (czy artykuł jest jednym z trzech pierwszych źródeł, czy gdzieś dalej w liście).
Druga grupa KPI to spójność w czasie. Pojedyncze cytowanie jest sygnałem szumu, regularne cytowania w określonej kategorii to sygnał, że model uznał domenę za autorytet w temacie. Tu pomocne są okna obserwacyjne: 7, 14 i 30 dni, podczas których śledzimy stabilność udziału głosu (share of citation) względem konkurencji.
Trzecia grupa to metryki techniczne związane z indeksacją. Czy GPTBot, ClaudeBot i PerplexityBot rzeczywiście odwiedzają stronę po publikacji nowego artykułu? Czy w logach serwera widać prawidłowe statusy 200 dla tych user-agentów? Zaniedbany robots.txt albo agresywne reguły rate-limit potrafią skutecznie wyciąć domenę z odpowiedzi modeli, mimo że zawiera świetnie napisane FAQ i HowTo.
Realne dane z polskiego rynku
Z naszych obserwacji prowadzonych przez kilka miesięcy 2026 roku wynika, że dobrze skonstruowane HowTo (5-9 kroków, każdy z opisem 30-80 słów, z parametrem totalTime) zwiększało prawdopodobieństwo cytowania w Perplexity o 40-60% względem tej samej treści bez schematu. Dla FAQ analogiczny efekt wynosił 25-35%, ale w ChatGPT, gdzie model bardziej premiuje krótkie, dyskretne jednostki informacji. Liczby zależą od kategorii, ale kierunek jest spójny: ustrukturyzowane treści wygrywają z amorficznymi.
Kontekst polskiego rynku komplikuje fakt, że wiele zapytań po polsku jest tłumaczonych przez modele wewnętrznie na angielski, co dodaje warstwę szumu. Tu pomaga konsekwentne nazewnictwo terminów (jeden termin na koncepcję, bez synonimowych przeskoków) oraz publikowanie kanonicznych definicji w sekcjach Słownik. Anatomię odpowiedzi w polskich AI Overviews opisaliśmy szczegółowo w artykule AI Overviews Polska 2026: anatomia odpowiedzi i czynniki cytowań.
Decyzja w praktyce: matryca wyboru
Aby ułatwić decyzję na poziomie redakcji, używamy prostej matrycy z dwiema osiami: charakter treści oraz typ intencji. Poniżej rozpisana w formie tabeli, która pomaga w 90% przypadków podjąć szybką decyzję bez długich dyskusji w zespole.
| Charakter treści | Intencja użytkownika | Format schemata |
|---|---|---|
| Słownik pojęć | Definicja, krótkie wyjaśnienie | FAQPage |
| Porównanie narzędzi | Wybór między opcjami | FAQPage (po jednej parze pytanie-odpowiedź na atrybut) |
| Instrukcja konfiguracji | Wykonanie zadania | HowTo |
| Procedura audytowa | Przeprowadzenie checku | HowTo |
| Case study | Inspiracja, wnioski | Article (bez FAQ/HowTo) |
| Często zadawane pytania o produkt | Rozwianie wątpliwości zakupowych | FAQPage |
Dla case studies celowo nie rekomendujemy ani FAQ, ani HowTo. Case ma swoją logikę narracyjną i każda próba upchania go w sekwencję kroków wypacza historię. Modele radzą sobie z dobrze napisanym case na podstawie samego Article, o ile zawiera jasne kotwice tematyczne i daty. Jak to wygląda w praktyce, pokazujemy w naszym studium przypadku, jak weszliśmy do AI Overviews w 90 dni dla klienta B2B SaaS.
Praktyczne szablony JSON-LD
Poniżej przykładowe szablony obu typów, które stosujemy jako bazę. W produkcji generujemy je dynamicznie z pól wtyczki SEO, ale w trakcie audytu pomocne jest zobaczenie skompresowanej wersji.
FAQPage: szablon
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [{
"@type": "Question",
"name": "Jakie są limity bezpłatnego planu?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Bezpłatny plan obejmuje 100 zapytań dziennie i 5 projektów. Brak ograniczenia czasowego, bez karty kredytowej."
}
}]
}HowTo: szablon
{
"@context": "https://schema.org",
"@type": "HowTo",
"name": "Jak skonfigurować RankMath pod LLM",
"totalTime": "PT15M",
"step": [{
"@type": "HowToStep",
"position": 1,
"name": "Włącz schemę Article",
"text": "Przejdź do Titles & Meta, wybierz Posts i ustaw Schema Type na Article."
}]
}Pole totalTime w formacie ISO 8601 (np. PT15M, PT1H30M) jest często pomijane, a w rzeczywistości pomaga modelom oszacować zakres procedury. Pełna referencja typów dostępna jest w dokumentacji Schema.org pod adresem schema.org/HowTo oraz schema.org/FAQPage.
Specyficzne przypadki: gdy żaden z formatów nie jest dobry
W praktyce redakcyjnej zdarzają się treści, dla których ani FAQ, ani HowTo nie są właściwym wyborem. Warto je rozpoznać, bo próba siłowego dopasowania schemata szkodzi bardziej niż brak schemata w ogóle.
Pierwszy taki przypadek to artykuły opiniotwórcze i analityczne, gdzie dominującym składnikiem jest argumentacja autora. Przekuwanie analizy w zestaw pytań i odpowiedzi rozbija logikę narracji, a sztywne układanie jej w sekwencję kroków sugeruje, że istnieje jedna poprawna ścieżka rozumowania, czego w analizie nie ma. Tu wystarczy poprawnie opisany Article z polem author, dateModified i citation, jeśli tekst odwołuje się do zewnętrznych źródeł.
Drugi przypadek to długie raporty branżowe i white papers. Tekst, który ma 5-8 tysięcy słów, kilkanaście wykresów i dziesiątki cytatów, nie zmieści się w żadnej z prostych struktur Schema.org poza Article z odpowiednimi rozszerzeniami (np. CreativeWork, Report). LLM-y dobrze radzą sobie z takimi tekstami, jeśli mają wyraźne nagłówki, podtytuły i kotwice tematyczne.
Trzeci przypadek to strony przeglądowe (kategorie, listy artykułów, hub pages). Tu schema CollectionPage albo ItemList jest właściwsze niż próba upchania pytań. Modele rozumieją hierarchię i z chęcią przechodzą głębiej, jeśli widzą jasno opisaną strukturę nadrzędną.
Wniosek jest pragmatyczny: schema ma służyć treści, nie odwrotnie. Lepiej publikować Article bez FAQ niż wymuszać FAQ tam, gdzie nie pasuje, bo modele penalizują rozjazdy między formą deklarowaną a treścią rzeczywistą.
Co dalej w strategii AIO
Schema FAQ vs HowTo to fundament, ale tylko jeden element większej układanki AI Overviews. Aby naprawdę zwiększyć udział głosu redakcji w odpowiedziach LLM, trzeba zadbać o kilka warstw jednocześnie: spójną architekturę treści, dane autorstwa, konsekwentne cytowania źródeł, monitorowanie odpowiedzi modeli oraz iteracyjne aktualizacje. Pojedyncze zmiany w schemacie mogą przesunąć kilka procentowych punktów cytowalności, ale dopiero całościowe podejście pozwala zbudować trwały autorytet.
Praktyczny program prac w naszych redakcjach wygląda następująco: kwartalny audyt typów schemata na 50 najważniejszych adresach URL, miesięczny przegląd pytań FAQ pod kątem realnego rezonansu z zapytaniami użytkowników, tygodniowy log cytowań w trzech głównych modelach (ChatGPT, Perplexity, Gemini) oraz natychmiastowa korekta każdej rozjeżdżonej pary schema-treść.
FAQ
Czy nadal warto dodawać FAQ schema, skoro Google ograniczyło rich results?
Tak, ale z innej przyczyny niż dawniej. Google rzeczywiście ograniczył wyświetlanie FAQ w klasycznych SERP, lecz LLM-y aktywnie czytają FAQPage podczas budowy odpowiedzi. Strony z dobrze opisanymi pytaniami częściej są cytowane przez ChatGPT i Perplexity, co przekłada się na realny ruch i widoczność marki, mimo braku gwiazdek pod wynikiem.
Kiedy wybrać HowTo zamiast FAQ?
Wybierz HowTo wtedy, kiedy artykuł opisuje sekwencję kroków prowadzącą do konkretnego rezultatu (np. konfiguracja narzędzia, przeprowadzenie audytu, wdrożenie procesu). Jeśli treść składa się z niezależnych pytań i odpowiedzi bez wymuszonej kolejności, lepszym wyborem jest FAQPage. Decyduje istnienie zależności krok od kroku.
Czy można połączyć FAQ i HowTo na jednej stronie?
Technicznie tak, ale w praktyce się to nie opłaca. Modele preferują strony z jednym dominującym typem treści, a hybryda rozcieńcza klasyfikację i obniża szansę cytowania. Lepiej napisać dwa osobne artykuły z jednoznacznymi typami schemata niż jeden z miksem, który nie wygrywa w żadnej kategorii.
Jak długie powinny być odpowiedzi w FAQ?
Optymalna długość to 40-90 słów na odpowiedź. Krótsze są zbyt zdawkowe, by model mógł je zacytować jako pełną informację, dłuższe przestają być traktowane jako zwięzła jednostka i model zaczyna je fragmentować. Trzymaj się jednego wątku w jednej odpowiedzi i unikaj wątków pobocznych.
Czy schema musi być w head, czy może być w body?
Oba miejsca są dopuszczalne. JSON-LD w head jest przetwarzany szybciej przez crawlery, ale schema w body, generowane na poziomie szablonu posta, jest łatwiejsze do utrzymania w synchronizacji z treścią. W WordPressie standardem jest dynamiczna generacja przez wtyczkę SEO, która zwykle umieszcza skrypt na końcu sekcji head.
Jak weryfikować, czy LLM-y faktycznie cytują naszą treść?
Najprostsza metoda to ręczne sprawdzanie zapytań w ChatGPT, Perplexity i Gemini z bezpośrednim odwołaniem do tematów artykułów. Bardziej zaawansowane podejście polega na zbudowaniu pipeline’u, który automatycznie wysyła zestaw zapytań kontrolnych raz dziennie i loguje, czy domena pojawia się jako źródło. Logi serwera od user-agentów GPTBot, ClaudeBot i PerplexityBot dodatkowo potwierdzają indeksację.
