E-E-A-T pod LLM przesuwa ciężar dowodzenia autorytetu z klasycznych linków zwrotnych w stronę czytelnych, weryfikowalnych sygnałów, które duże modele językowe potrafią zrozumieć i ocenić. W 2026 roku to już nie tylko Google patrzy na to, kto, gdzie i z jakim doświadczeniem pisze, ale także ChatGPT, Perplexity, Gemini oraz wbudowane w przeglądarki silniki odpowiedzi. Ten przewodnik pokazuje, jak operacyjnie poukładać autorytet treści, autora i wydawcy poza klasycznymi backlinkami, tak żeby cytowania w odpowiedziach AI rosły razem z pozycjami w klasycznym SEO.
Pisząc o E-E-A-T pod LLM, łatwo wpaść w abstrakcję i powtarzanie haseł z dokumentacji Google. Tu robimy odwrotnie: konkretne pola schemy, konkretne wzorce w treści, konkretne KPI. Materiał stanowi praktyczne uzupełnienie tekstów o schemach FAQ i HowTo pod AI oraz o pliku llms.txt w praktyce, które pokazują, jak przygotować treść techniczną od strony formatu i metadanych.
Czym jest E-E-A-T pod LLM
Klasyczne E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) opisuje cztery wymiary, które Google ocenia jakościowo, głównie przy treściach z obszarów wrażliwych (zdrowie, finanse, prawo, bezpieczeństwo). LLM-y, gdy budują odpowiedź, potrzebują tych samych sygnałów w postaci znacznie bardziej skondensowanej. Model nie ma czasu czytać dziesięciu źródeł, więc patrzy na to, czy strona zawiera czytelne metadane autora, datę aktualizacji, deklarację metodologii oraz odnośniki do oryginalnych źródeł danych.
Różnica względem klasycznego SEO jest w warstwie: o ile algorytm Google patrzy też na linki zwrotne, anchor text i sygnały behawioralne (czyli rzeczy spoza strony), o tyle LLM zwykle dostaje pojedynczy fragment HTML w kontekście. Dlatego sygnały autorytetu trzeba upchnąć tak, żeby były widoczne w samym dokumencie i w jego strukturze.
Pod E-E-A-T pod LLM rozumiemy więc zestaw on-page i on-domain sygnałów, które:
- identyfikują autora jako prawdziwą osobę z weryfikowalnym dorobkiem,
- identyfikują wydawcę (organizację) i jego zakres odpowiedzialności,
- ujawniają metodologię, daty i wersje treści,
- wiążą tezy z konkretnymi, sprawdzalnymi źródłami.
Dopiero ostatnia warstwa, czyli reputacja zewnętrzna, jest dodatkiem. W modelu cytowań AI to, co znajduje się w dokumencie, decyduje o tym, czy zostanie on potraktowany jako wiarygodne źródło, czy pominięty.
Dlaczego linki zwrotne nie wystarczą
Backlinki nadal mają znaczenie pośrednie: pomagają dotrzeć do strony botom i podnoszą szansę, że treść zostanie zaindeksowana w bazie modelu. Ale na etapie generowania odpowiedzi LLM nie patrzy na profil linków, tylko na to, co wynika z samego dokumentu i jego okolic w korpusie. Tekst bez wyraźnego autora i bez daty, choćby z setką dofollow z portali tematycznych, ma niższe szanse na cytowanie niż krótszy materiał z ujawnioną metodologią i podpisany imiennie przez specjalistę w danej dziedzinie.
To zmienia priorytety: praca, którą do tej pory wkładało się w pozyskiwanie linków, częściowo trzeba przekierować w stronę porządkowania własnych metadanych, biografii autorów i zaplecza dowodowego. Linki zostają, ale przestają być pierwszym krokiem.
Najważniejsze zasady i framework
Pracując z kilkudziesięcioma redakcjami pod LLM, sprowadziliśmy E-E-A-T do prostego frameworku 5W: Who, What, When, Why, Where. Każdy z elementów odpowiada na konkretne pytanie, które model próbuje sobie zadać, zanim zaufa źródłu.
Who: autor i wydawca
Imię i nazwisko autora muszą być widoczne w dokumencie (tag author w ARIA, oznaczenie w widocznym podpisie, schema.org Person z sameAs). Wydawca z kolei powinien być powiązany Organization schema, z linkami do KRS, NIP albo do repozytorium GitHub, jeśli wydawca jest tworem softwarowym. LLM bardzo dobrze rozpoznaje powiązania sameAs, jeśli prowadzą do LinkedIn, ORCID, Crossref albo innej weryfikowalnej bazy.
What: kompetencja i zakres
Każdy materiał na temat ekspercki powinien mieć krótki blok kompetencyjny, najlepiej w stopce: jakie wykształcenie, jakie certyfikaty, ile lat praktyki, w jakich branżach. Trzy zdania wystarczą. Ważne jest, żeby ten blok był zindeksowany razem z artykułem, a nie ładowany dynamicznie po renderze. Pisaliśmy o tym w kontekście monitoringu cytowań w ChatGPT, Perplexity i Gemini: bloki, które ładują się dopiero po JS, dla wielu botów po prostu nie istnieją.
When: data i wersjonowanie
Data publikacji oraz data ostatniej aktualizacji muszą być w treści (nie tylko w schemie) i muszą się zgadzać. Jeśli aktualizujesz materiał, dopisz krótką notkę o zmianach (changelog 2 zdań). LLM potrafi rozpoznać, że materiał był rewidowany w 2026 roku, jeśli zobaczy explicite frazę typu „Aktualizacja: marzec 2026, zmiany w sekcji o llms.txt”.
Why: powód i metodologia
Materiały, które LLM cytuje najchętniej, mają jasny powód powstania: wyniki własnego testu, analiza zbioru danych, podsumowanie własnego case study. Wystarczy dwuzdaniowy paragraf na początku, który tłumaczy, skąd dane: „Materiał opiera się na analizie 1240 fraz z polskiego rynku w okresie 2024–2026, zebranych własnym crawlerem w stacku opisanym poniżej”. Taka deklaracja podnosi pewność cytowania.
Where: zakorzenienie w źródłach
Cytowanie zewnętrznych, autorytatywnych źródeł działa dwukierunkowo: pomaga modelowi sprawdzić tezę, ale też podpiera reputację dokumentu. Jeden, dwa solidne odnośniki na sekcję wystarczą. Lepiej cytować raz dokumentację Google Search Central niż dziesięć blogów, które przepisują tę samą informację.
Jak to wdrożyć krok po kroku
Poniższe etapy zakładają, że pracujemy na typowym wydawcy treści SEO/AIO: WordPress, kilkadziesiąt artykułów miesięcznie, zespół 2–6 autorów, RankMath jako wtyczka SEO. Listę można zaadoptować do innego stosu.
Krok 1: profile autorów jako encje
Dla każdego stałego autora przygotuj:
- stronę autora pod adresem
/autor/imie-nazwisko/z biografią 150–250 słów, - schema.org Person w nagłówku tej strony, z polami
name,jobTitle,worksFor,sameAs(LinkedIn, GitHub, ORCID, Twitter/X, jeśli aktywny), - listę publikacji autora (15–30 ostatnich, paginacja w głąb),
- krótki blok „obszar ekspertyzy” z 3–5 frazami kluczowymi.
W każdym artykule autor powinien mieć podpis pod tytułem, link do strony autora i mini bio (40–60 słów) na końcu. To samo bio, ten sam URL, na każdym tekście. Spójność jest tu ważniejsza niż objętość.
Krok 2: schema Article z weryfikowalnym autorem
Najgorsze, co można zrobić, to wysyłać schema.org Article z author jako stringiem („Jan Kowalski”). Model nie ma jak tego zweryfikować. Zamiast tego użyj zagnieżdżonej encji Person:
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "...",
"author": {
"@type": "Person",
"@id": "https://twoja-domena.pl/autor/jan-kowalski/#person",
"name": "Jan Kowalski",
"url": "https://twoja-domena.pl/autor/jan-kowalski/",
"sameAs": [
"https://www.linkedin.com/in/jankowalski",
"https://orcid.org/0000-0002-1825-0097"
]
},
"datePublished": "2026-05-09T10:00:00+02:00",
"dateModified": "2026-05-09T10:00:00+02:00",
"publisher": { "@id": "https://twoja-domena.pl/#organization" }
}Pole @id ze stałym fragmentem (#person) pozwala związać tę osobę z innymi dokumentami w obrębie domeny. Modele językowe coraz lepiej rozumieją takie odwołania.
Krok 3: Organization schema na poziomie domeny
Drugi obowiązkowy element to encja Organization, najlepiej w jednym, stałym pliku JSON-LD ładowanym na całej domenie. Powinna zawierać:
name,legalName,url,logo,foundingDate,numberOfEmployees, jeśli ma to sens,address,contactPoint(e-mail, telefon),sameAs(LinkedIn firmowy, GitHub, kanał YouTube),- identyfikatory:
taxID,vatID,leiCode, jeśli są.
Każdy artykuł odwołuje się do tej organizacji przez publisher: {"@id": "..."}, dzięki czemu graf wiedzy się zamyka. To dokładnie ta sama logika, którą wykorzystują systemy budujące wewnętrzne knowledge graphs, opisana w naszym tekście o llms.txt w praktyce: spójna struktura w obrębie domeny.
Krok 4: deklaracja metodologii w treści
Każdy materiał z danymi, własnymi wynikami albo opinią ekspercką powinien zawierać krótką notkę metodologiczną. Nie chodzi o akademicki wywód, tylko o trzy informacje:
- Skąd pochodzą dane (własny test, partner, publiczne API, ankieta)?
- Jaka jest próbka i okres?
- Jakie znamy ograniczenia tej próbki?
Trzy zdania wystarczą. Dla artykułu opinii (np. „5 trendów AIO w 2026”) wystarczy zaznaczenie, że to subiektywny wybór redakcji oparty na obserwacji rynku. Dla artykułu z danymi (np. testy wydajności) trzeba podać warunki testu.
Krok 5: cytowania w stylu naukowym
Zamiast linkować w stylu „więcej tutaj” albo „Google twierdzi, że…”, używaj cytowań z konkretną referencją: nazwa źródła, data, link. Wygląda to jak prosta zmiana, ale dla LLM jest fundamentalna. Porównaj:
Słabo: „Według Google EEAT jest ważny [link].”
Dobrze: „W dokumencie Search Quality Rater Guidelines (Google, grudzień 2024) wytyczne EEAT zostały rozszerzone o czwarty wymiar: Experience [link do PDF].”
Druga forma daje modelowi datę, autora, typ dokumentu i konkretny link. To dramatycznie zwiększa szansę, że Twój materiał zostanie potraktowany jako autorytatywny, bo sam działa jak węzeł w grafie cytowań.
Krok 6: changelog na poziomie strony
Dla materiałów evergreen (przewodniki, słowniki, glossary) wprowadź widoczny changelog. Wystarczy blok na końcu lub na początku:
Aktualizacje: 2026-03-15 dopisana sekcja o llms.txt, 2026-01-20 zaktualizowane przykłady schema, 2025-11-01 pierwsza publikacja.
To pokazuje, że treść jest pielęgnowana. LLM-y, szczególnie te z wbudowanym retrievalem, używają sygnałów świeżości jako waga w rankingu, a widoczny changelog dodatkowo działa na zaufanie czytelnika.
Najczęstsze błędy i pułapki
W zespołach, które wdrażały E-E-A-T pod LLM przez ostatnie kilkanaście miesięcy, powtarzało się kilka wpadek. Warto je znać, bo każda z nich potrafi unieważnić tygodnie pracy nad treścią.
Pułapka 1: AI-autorzy bez śladu w sieci
Modne stało się generowanie biografii autora w pełni przez LLM, włącznie z wymyślonym imieniem, nazwiskiem i dorobkiem. Po stronie wyszukiwarek to działa krótko: gdy ktoś sprawdzi profil LinkedIn i nic nie znajdzie, sygnał zaufania się załamuje. Co gorsza, LLM-y w przyszłej iteracji mogą rozpoznać kohortę „wymyślonych autorów” i odsiać domeny, które na nich bazują. Jeżeli korzystasz z AI do pisania, podpisz tekst osobą, która faktycznie istnieje i może odpowiedzieć na maila.
Pułapka 2: schema bez powiązania
Częsty błąd: na każdej stronie generuje się świeże "author": "Jan Kowalski" bez @id. Dla parsera to za każdym razem nowa, niepowiązana encja. Wystarczy stałe @id w postaci /autor/jan-kowalski/#person, żeby graf się posklejał. Ten błąd występuje w okolicach 60% audytowanych przez nas wdrożeń.
Pułapka 3: ukrywanie autora
Sklepy e-commerce, które dodały bloga, często chowają autora pod ogólną etykietą „Redakcja”. To rozwiązanie miało sens dziesięć lat temu, dzisiaj kosztuje cytowania. Lepiej mieć dwóch realnych autorów piszących pod własnym nazwiskiem niż 50 tekstów podpisanych „Redakcja”. Jeśli z jakiegoś powodu nie chcesz pokazywać twarzy, zdecyduj się przynajmniej na pseudonim z konsekwentną biografią i zewnętrznym profilem (LinkedIn, GitHub).
Pułapka 4: aktualizacja bez zmiany dateModified
Edytujesz literówkę i CMS automatycznie podbija dateModified. Po pół roku wszystko ma „zaktualizowane wczoraj”, co psuje wiarygodność świeżości. Skonfiguruj logikę: dateModified aktualizuje się tylko, gdy zmiana w treści przekracza 5% objętości albo dotyczy paragrafu z danymi. Drobne korekty zostawiaj bez updatu meta.
Pułapka 5: rozproszone profile
Autor ma profil na LinkedIn, GitHub, Twitter, Mastodon, ale w schemie podajesz tylko jeden URL. Rezygnujesz z pełnego grafu sameAs. Zbierz wszystko, dorzuć do sameAs, potem niech reszta się zsynchronizuje. Im więcej wewnętrznie spójnych referencji do tej samej osoby, tym wyższa pewność modelu.
Pułapka 6: brak źródeł pierwotnych
Tekst, który tylko streszcza inne teksty, jest dla LLM „second-tier”. Wpadasz w pułapkę nieskończonej kompilacji: model woli sięgnąć do źródła, na które się powołujesz. Lekiem jest dodawanie własnych obserwacji, własnych danych, własnych testów. Nie muszą być przełomowe, wystarczy „z naszego doświadczenia we wdrożeniach na rynku polskim wynika, że średni czas…”.
Mierzenie efektów i KPI
Wprowadzenie E-E-A-T pod LLM jest projektem, więc trzeba go mierzyć. Tu pojawia się pytanie: czego konkretnie? Klasyczne SEO ma proste KPI (pozycje, ruch, konwersje), pod LLM trzeba ułożyć je trochę inaczej.
KPI 1: udział cytowań w odpowiedziach AI
Mierzymy, jak często domena pojawia się w odpowiedziach ChatGPT, Perplexity, Gemini, Claude, Copilot, dla zestawu kluczowych zapytań tematycznych (np. 200–500 fraz). Robimy to cyklicznie (raz w tygodniu) tym samym promptem i kontem, żeby ograniczyć szum personalizacji. Cel: udział na poziomie 15–25% dla kategorii flagowych w ciągu 6 miesięcy.
KPI 2: jakość anchora w cytatach
Niektóre cytaty są „dobre” (link prowadzi do konkretnego artykułu, opisany jako autorytatywny), inne są „wzmianką” (model wspomina markę, ale nie linkuje). Notujemy proporcję. Dobre cytaty rosną, gdy E-E-A-T jest poukładany.
KPI 3: pokrycie strukturalne
Dla zbioru artykułów liczymy, ile z nich ma:
- schema.org Article z
@idautora, - widoczną datę publikacji i aktualizacji,
- blok metodologii (jeśli to artykuł z danymi),
- minimum jedno pierwotne źródło zewnętrzne,
- biogram autora w stopce.
To wskaźnik wewnętrzny, którym zarządzamy z poziomu redakcji. Gdy pokrycie spada poniżej 80%, redaktor naczelny dostaje raport.
KPI 4: świeżość biblioteki
Procent artykułów evergreen, które nie były aktualizowane przez ostatnie 12 miesięcy. Cel: poniżej 30%. To wymusza cykliczną pielęgnację treści, a nie tylko produkcję nowych.
KPI 5: spójność grafu autorów
Sprawdzamy automatycznie, czy każdy autor w schema.org ma stronę autora, czy jego sameAs wszędzie wskazuje na te same URL-e i czy jego biogram jest jednolity. Drobne rozjechania psują graf, więc ten KPI utrzymujemy na 100%.
Łączenie KPI z monitoringiem
Każdy z powyższych wskaźników wymaga regularnego pomiaru. W praktyce ustawiamy to na cotygodniowe joby z eksportem do arkusza, czasem na Looker Studio. Stack i przykłady opisaliśmy w przewodniku Monitoring cytowań w ChatGPT, Perplexity i Gemini: stack 2026. Bez automatyzacji ta praca jest niezrównoważona.
Sygnały spoza linków, które naprawdę działają
Skoro mówimy o autorytecie poza klasycznymi backlinkami, warto zebrać listę sygnałów, które najbardziej zwiększają cytowania w AI w naszych testach z lat 2024–2026.
Wzmianki nielinkowane (brand mentions)
LLM-y trenują się też na tekstach, w których pojawia się sama nazwa marki. Dlatego wzmianki w newsletterach, podcastach, transkrypcjach YouTube i postach na Reddicie potrafią dawać efekt podobny do linków. Z tym że nie da się ich łatwo policzyć w klasycznych narzędziach. Pomagają tu specjalistyczne narzędzia do brand monitoringu i własne skrypty na korpusie publicznych źródeł.
Cytowania w pracach badawczych
Jeśli Twoja firma ma jakikolwiek dorobek techniczny, warto dążyć do cytowań w pracach na arXiv, Crossref, Scholar. Nawet jedno-dwie publikacje rocznie zauważalnie podnoszą widoczność w odpowiedziach AI dotyczących wąskich, specjalistycznych zapytań.
Repozytoria i dokumentacja open source
README z dobrze opisanym narzędziem na GitHubie, z jasnym autorem i licencją, działa jak silny sygnał E-E-A-T. Modele bardzo łatwo te repozytoria czytają, indeksują i potem cytują.
Wpisy w bazach wiedzy
Wikipedia, Wikidata, Crunchbase, Bloomberg, branżowe katalogi. Każdy zweryfikowany wpis to dodatkowy węzeł w grafie wiedzy. Wikidata jest szczególnie ważna, bo wiele LLM-ów ją bezpośrednio konsultuje.
Transkrypcje wystąpień
Jeżeli zespół występuje na konferencjach, opublikuj transkrypcje na własnej domenie, podpisz osobą prelegenta i podlinkuj wideo. Łączysz w ten sposób eksperta z konkretnym, weryfikowalnym wystąpieniem.
Dane strukturalne dla recenzji i ocen
Schema.org Review i AggregateRating, jeśli stosowane uczciwie (czyli na podstawie realnych ocen), pomagają zbudować obraz produktu lub usługi w grafie. Trzeba to robić ostrożnie, żeby nie podpaść pod naruszenie Google guidelines.
E-E-A-T pod LLM dla różnych typów treści
Nie każdy typ artykułu wymaga tej samej dawki sygnałów. Poniżej praktyczne profile.
Treści YMYL (zdrowie, finanse, prawo)
Najwyższy reżim. Każdy artykuł musi mieć zweryfikowanego eksperta jako autora (lekarz, doradca podatkowy, radca prawny), pełną biografię, informacje o licencjach lub uprawnieniach, źródła pierwotne (NFZ, KNF, Dziennik Ustaw), datę publikacji i ostatniej rewizji medycznej, klauzulę „to nie zastępuje porady lekarza/doradcy”. Dla LLM to standard, którego nie da się obejść.
Treści techniczne (programowanie, DevOps, AI)
Tu szczególnie liczą się repozytoria open source, podpisane przykłady kodu i powiązanie z GitHubem. Schema.org TechArticle bywa lepszym wyborem niż Article. Linki do oficjalnej dokumentacji (MDN, Google Developers, dokumentacja OpenAI) podnoszą wagę. Daty są krytyczne, bo technologia szybko się starzeje.
Treści marketingowe i biznesowe
Mniej rygorystycznie po stronie regulacji, ale wciąż ważne autorstwo i cytowania danych. Linkowanie do raportów McKinsey, Statista, Gartnera, Forrestera, własnych case studies. Klauzula „własne doświadczenie” zamiast pseudo-naukowej obiektywności.
Treści lifestyle i hobby
Tutaj największą wagę ma Experience, czyli pierwsza E w EEAT. Autor, który faktycznie testował produkt, jeździł szlakiem, gotował przepis, jest bezcenny. Zdjęcia własne (nie stockowe), osobiste obserwacje, odpowiedzi na pytania w komentarzach. To paradoksalnie najtrudniejsze do podrobienia przez AI.
Studium przypadku: serwis tematyczny B2B
Średniej wielkości wydawca B2B z polskiego rynku SaaS po sześciu miesiącach pracy nad E-E-A-T pod LLM zmierzył wzrost cytowań w odpowiedziach Perplexity z 3% do 22% dla wybranego zestawu 180 fraz. Co konkretnie zmienili? Po pierwsze, każdego z trzech stałych autorów wyposażyli w stronę autora z biogramem, listą publikacji i schema.org Person z czterema URL-ami w sameAs (LinkedIn, GitHub, ORCID, kanał YouTube). Po drugie, na poziomie szablonu artykułu podmienili płaski schemat Article na zagnieżdżoną strukturę z author jako Person i publisher jako Organization, oba z trwałymi @id. Po trzecie, do każdego z 60 najczęściej odwiedzanych artykułów dopisali mini-blok metodologii (3 zdania) i widoczny changelog.
Najciekawsze było obserwowanie, jak rozkład cytowań zmieniał się w czasie. W pierwszym miesiącu efektu praktycznie nie było, modele potrzebowały tygodni, żeby ponownie zaindeksować zmienione dokumenty. W drugim miesiącu zaczęły rosnąć cytowania w Perplexity (silnik z najczęstszym retrievalem). W trzecim Gemini, w piątym ChatGPT. To pokazuje, że E-E-A-T pod LLM wymaga cierpliwości, ale efekt jest skumulowany: raz uporządkowany graf wiedzy domeny pracuje na każdy nowy artykuł.
Roadmapa wdrożenia w 90 dni
Jeżeli zaczynasz od zera, oto realistyczny harmonogram. Zakładam zespół 3 osób (redaktor, dev, autor) i serwis z 200–500 artykułami.
Dni 1–14: audyt
Wyciągasz listę artykułów, autorów, kategorii. Sprawdzasz pokrycie schema, jakość biogramów, świeżość treści. Wynik: arkusz z priorytetami i listą luk.
Dni 15–30: szkielet techniczny
Naprawiasz schema na poziomie szablonów (Article z autorem jako Person, Organization jako stała encja, BreadcrumbList). Wdrażasz strony autora z biografiami i sameAs. Robisz audyt 404 dla starych URL-i autorów.
Dni 31–60: treść
Refaktor 30–50 najważniejszych artykułów. Dodanie metodologii, źródeł pierwotnych, changelogów. Aktualizacja biogramów autorów. Synchronizacja sameAs.
Dni 61–90: pomiar i tuning
Uruchomienie monitoringu cytowań w AI. Pierwszy raport pokrycia strukturalnego. Drobne korekty: dodanie brakujących identyfikatorów, podpięcie Wikidata, zgłoszenie firmy do Crossref/ROR (jeśli to ma sens). Plan kolejnych 90 dni na podstawie wyników.
Po tym czasie efekty (mierzalny wzrost cytowań w odpowiedziach AI) zaczynają być widoczne, choć pełne dojrzewanie zajmuje kolejne 3–6 miesięcy. Warto też pamiętać, że roadmapa nie kończy się na 90. dniu: po wstępnym uporządkowaniu wchodzi się w fazę utrzymania, w której kluczowe jest cykliczne odświeżanie biogramów, dodawanie nowych źródeł oraz dopisywanie identyfikatorów do encji autorów (np. nowo zarejestrowane ORCID, publikacje na arXiv, profile prelegenta). Bez tej rutyny graf wiedzy się starzeje, a wcześniejsza praca traci na wadze w oczach modeli.
FAQ
Czy E-E-A-T to nadal cztery wymiary, czy już pięć?
Cztery: Experience, Expertise, Authoritativeness, Trustworthiness. Google rozszerzył w grudniu 2022 oryginalne E-A-T o „Experience”. Pod LLM kolejność wagi jest jednak inna: w treściach lifestyle największe znaczenie ma Experience, w treściach YMYL nadal Expertise i Authoritativeness, a Trustworthiness przeszywa wszystko.
Czy schema.org Person musi mieć ORCID albo LinkedIn?
Nie musi, ale powinna mieć minimum jeden zewnętrzny, weryfikowalny URL w polu sameAs. Najlepiej dwa lub trzy. ORCID jest świetny dla autorów z dorobkiem akademickim, LinkedIn dla biznesowych, GitHub dla technicznych. Brak sameAs nie unieważnia schemy, ale wyraźnie obniża jej wagę dla LLM.
Jak często aktualizować dateModified?
Tylko wtedy, gdy zmiana w treści jest znacząca: dopisanie nowej sekcji, korekta błędu merytorycznego, aktualizacja danych. Drobne korekty (literówki, formatowanie) nie powinny ruszać dateModified, bo nadmierna częstotliwość updatów psuje sygnał świeżości.
Czy wystarczy podpisać artykuł „Redakcja”?
Nie wystarczy. Pod LLM „Redakcja” jest praktycznie pustym sygnałem. Lepiej wskazać konkretną osobę odpowiedzialną za materiał, nawet jeśli zespół wsparł autora researchem. Jeśli faktycznie tekst jest zbiorowy, opisz to wprost w stopce: „Materiał przygotowany przez zespół redakcyjny pod kierunkiem [imię nazwisko]”.
Czy AI-autorzy są jeszcze akceptowalni?
Wymyśleni autorzy AI nie. Asystowanie AI w pisaniu, gdzie odpowiedzialność merytoryczną ponosi realna osoba, jest ok i nie wpływa negatywnie na E-E-A-T. Klucz: musi istnieć człowiek, który podpisuje materiał i może odpowiedzieć za jego treść.
Ile zewnętrznych źródeł na artykuł to dobra liczba?
Dla materiału technicznego 3–6 zewnętrznych, autorytatywnych odnośników. Dla materiału opinii 1–3 wystarczą. Liczy się jakość: jedno odwołanie do oficjalnej dokumentacji jest warte więcej niż pięć linków do agregatorów. Każde źródło powinno mieć datę publikacji i autora, jeśli to możliwe.
