Audyt techniczny strony 2026: pełny przewodnik krok po kroku (AISO, logi, Core Web Vitals)

Audyt techniczny SEO w 2026 obejmuje 12 obszarów — od crawlingu i indeksacji po warstwę AI Search Optimization (AISO) — i zwykle skraca diagnozę błędów krytycznych do około 24 godzin przy serwisach poniżej 10 000 URL‑i, o ile istnieją pełne dostępy do GSC/logów i środowiska testowego. Zapytanie „audyt techniczny strony” dostaje odpowiedź poprzez analizę logów serwera z minimum 30 dni historii, crawl 1–5 mln URL‑i oraz porównanie Chrome User Experience Report (CrUX) i Lighthouse dla TTFB, LCP i INP — przy celach orientacyjnych: LCP ≤ 2,5 s i INP ≤ 200 ms (wg zaleceń Google/web.dev).

W środowiskach Single Page Application (SPA)/Server‑Side Rendering (SSR) audyt sprawdza renderowanie, kolejność hydracji i zgodność z Mobile‑First Index — standard obowiązuje od 31 października 2023 r. dla wszystkich indeksowanych domen. Kontrola linkowania wewnętrznego, canonicali, noindex, robots.txt i sitemap pomaga ograniczyć typowe straty budżetu crawl na URL‑e o niskiej wartości.

Raport z audytu porządkuje zadania według wpływu na ruch i kosztu wdrożenia, nadając priorytety P0–P2, estymacje godzinowe i wskaźniki monitoringu w oknach 7/28/90 dni. Przed startem wymagany jest dostęp do GSC (rola „Właściciel domenowy”), logów HTTP z co najmniej 30 dni rotacji i środowiska testowego — to pozwala bezpiecznie odtworzyć błędy i potwierdzić poprawki bez ryzyka regresji produkcyjnej.

„Audyt techniczny SEO” — w tym kontekście — to zorganizowany zestaw testów indeksacji, renderu i wydajności obejmujący 12 obszarów, którego wyniki mapuje się na priorytety P0–P2 z estymacjami godzinowymi.

Jak przebiega audyt techniczny strony krok po kroku

Audyt techniczny SEO to uporządkowana diagnoza crawlingu, indeksacji, renderowania i wydajności — jej celem jest usunięcie barier widoczności prowadzących do utraty około ≥15% ruchu organicznego. Wpływ oceny obejmuje TTFB i INP w danych CrUX (75. percentyl) oraz widoczność w AI Overview — różne systemy mogą inaczej interpretować JS, dlatego wnioski formułuje się warunkowo. W praktyce zaczyna się od blokad indeksacji, Core Web Vitals i parytetu mobilnego, a następnie optymalizuje szablony i warstwę AISO.

Jakie są etapy audytu od szybkiej diagnozy do pełnej analizy?

Proces przechodzi od triage błędów P0 do pełnej analizy 12 obszarów z warstwą AISO. Dla serwisów poniżej 1 000 URL‑i pierwsza diagnoza P0 zamyka się zwykle w ciągu 4–8 godzin; dla 10 000+ URL‑i pełny cykl orientacyjnie trwa 2–4 tygodnie robocze.

  1. Szybka diagnoza (dzień 1–2): Google Search Console (Coverage, Crawl Stats), robots.txt, statusy 5xx/4xx, indeksacja kluczowych szablonów — cel orientacyjny: lista P0 w ciągu ~24 godzin przy pełnych dostępach.
  2. Pełny crawl (dzień 3–5): mapowanie architektury URL‑by‑URL, paginacja, kanonikalizacja, parametry URL, sitemap, linkowanie wewnętrzne — narzędzia: Screaming Frog lub Sitebulb.
  3. Renderowanie (dzień 4–6): SPA, SSR, dynamiczne renderowanie i statyczna generacja (SSG — Static Site Generation); test HTML po renderze, wykrywanie blank HTML i zasobów blokowanych w robots.txt.
  4. Wydajność (dzień 5–7): Core Web Vitals z CrUX (75. percentyl), INP zastępujący FID od marca 2024 r. (wg Google/web.dev), historyczny FID do porównań.
  5. Warstwa AISO (dzień 6–8): wzorce treści generowanych przez AI, ustawienia meta dla botów, dostępność schema.org.
  6. Porównanie narzędzi (dzień 7–9): Lighthouse (lab) vs CrUX (field), różnice w TTFB i INP — bywa 20–50% rozbieżności; parytet Mobile‑First Index.
  7. Priorytetyzacja ICE i dokumentacja (dzień 8–14): backlog z P0–P2, estymacje godzinowe, akceptowalne regresje, rekomendacje schema.org z testami walidacji.
Zobacz także:  Informacyjne vs transakcyjne: mapowanie słów kluczowych do szablonów stron

W liczbach: dla serwisów poniżej 1 000 URL‑i zwykle wystarcza 1 pełny crawl i weryfikacja MFI — przy 10 000+ pomocna jest korelacja z logami i testy renderu, co dodaje 3–5 dni pracy analitycznej.

ZakresAudyt techniczny SEOPełny audyt SEO
WarstwaInfrastruktura i render (12 obszarów)Technika + content + linki zewnętrzne
Czas trwania~2 tygodnie (orientacyjnie; do ~6 tygodni w enterprise)~4–10 tygodni (orientacyjnie)
EfektIndeksacja, CWV, budżet crawl, INP ≤ 200 ms (cel orientacyjny wg web.dev)Pozycje, ruch organiczny, konwersje

Zakresy w tabeli są przykładowe i zależą od architektury serwisu oraz jakości dostępnych danych.

Kiedy audyt staje się audytem diagnostycznym z analizą logów serwera?

Tryb diagnostyczny uruchamia się w 4 przypadkach: strona ma 10 000+ URL‑i, nastąpiła migracja domeny, Google Core Update spowodował spadek ruchu o około ≥15%, lub budżet crawl marnuje się na URL‑e z parametrami (próg orientacyjny: ≥20% hitów Googlebota). Analiza logów serwera staje się konieczna, gdy dane Crawl Stats w GSC nie pokrywają się z realnym ruchem bota — w enterprise monitoring logów często prowadzi się co ~3 miesiące.

W średnich organizacjach i enterprise analizuje się korelację kodów 304/200/404 z mapą linków wewnętrznych oraz segmentację SPA/SSR — to pozwala ustalić listy wykluczeń, reguły robots.txt i priorytety renderowania po stronie serwera. Sygnały ilościowe wymagające analizy logów: udział parametrów w hitach Googlebota ≥20% (wartość orientacyjna), odsetek stron 404 w crawl Googlebota ≥10% (wartość orientacyjna), lub stosunek stron zindeksowanych do crawlowanych poniżej ~60%.

Jakie błędy krytyczne trzeba wyłapać w pierwszej kolejności?

Priorytet P0 obejmuje blokery indeksacji i renderu powodujące natychmiastową utratę widoczności: błędne robots.txt, meta noindex oraz kody 5xx/4xx na kluczowych szablonach. W pierwszym kroku sprawdza się też canonicale, przekierowania 302 zamiast 301 i parytet Mobile‑First Index — jeden błąd robots.txt potrafi zablokować całą sekcję serwisu i wyzerować jej widoczność w ciągu 1–2 cykli crawlu (zazwyczaj 3–14 dni).

  • Blokady robots.txt lub meta noindex na szablonach kategorii i produktu.
  • Puste HTML po renderze SPA bez SSR lub błędne dynamiczne renderowanie — częsty problem w projektach React/Vue pozbawionych SSR.
  • Pętle canonical, 302 zamiast 301 w głównych ścieżkach, 5xx na sitemap.xml.
  • Rozjazdy Mobile‑First Index: brak parytetu contentu/linków między mobile a desktop.
  • Core Web Vitals: INP > 200 ms, LCP > 2,5 s, CLS > 0,1 — cele wg Google/web.dev; wartości orientacyjne.
  • Nieprawidłowe schema.org skutkujące utratą rich results.

Audyt techniczny SEO — jako fundament obok content marketingu oraz link buildingu — dostarcza mierzalny backlog P0–P2 z rekomendacjami wdrożeniowymi, który zespół realizuje w sprintach 2‑tygodniowych.

Jak przygotować dane i środowisko do audytu

Do audytu potrzebne są pełne dostępy i plan próbkowania gotowy na dzień 0 — bez nich diagnoza P0 może się opóźnić o 2–5 dni roboczych. Start przyspiesza, gdy na dzień 0 istnieje lista priorytetowych URL‑i (minimum 100 reprezentatywnych adresów), potwierdzona wersja mobile/desktop i zakres subdomen. Komplet dostępów ogranicza większość opóźnień komunikacyjnych.

Jakie dostępności i konta są potrzebne przed startem?

Prace ruszają po nadaniu ról „Właściciel domenowy” do Google Search Console, dostępu edytorskiego do CMS i repozytorium konfiguracji robots.txt oraz sitemap. Lista musi obejmować logi serwera (produkcyjny i CDN z minimum 30 dni rotacji), narzędzie crawlingu (np. Screaming Frog lub Sitebulb), system tagów (GTM lub równoważny) i dane Core Web Vitals z CrUX wraz z INP i archiwalnym First Input Delay (FID — do porównań trendów).

  1. Konto GSC: własność domenowa, dostęp do Coverage, Crawl Stats, Removals i raportu Indeksacja.
  2. Serwer/CDN: logi HTTP z UA i IP Googlebota, rotacja minimum 30 dni — dla 10 000+ URL‑i zalecane ~90 dni.
  3. CMS i repo: edycja robots.txt, mapa strony XML, możliwość wdrożenia schema.org i testowania zmian w środowisku staging.
  4. Narzędzia: Screaming Frog/Sitebulb do crawlingu, raporty Lighthouse/CrUX, podgląd renderu (GSC).

Bez logów i własności domenowej GSC część ustaleń pozostaje hipotezą bez możliwości weryfikacji — co opóźnia priorytetyzację P0–P2.

Jak zebrać próbki danych z GSC, crawla i logów?

Plan próbkowania obejmuje 1–5% adresów z kluczowych szablonów (minimum 500 URL‑i na szablon przy serwisach powyżej 50 000 stron) — wraz z eksportem GSC z ostatnich 90 dni. Eksport logów serwera powinien zawierać statusy 200/304/404/5xx i pełne ścieżki, aby zweryfikować budżet crawl, zachowanie SPA/SSR oraz dynamiczne renderowanie i statyczną generację.

  • GSC: wyciąg indeksacji, strony wykluczone, statystyki skanowania z 16 tygodni, błędy renderu.
  • Crawl: pełny run + próbka kontrolna, paginacja, kanonikalizacja, parametry URL — Screaming Frog obsługuje duże wolumeny.
  • Logi: filtr Googlebot po polu User‑Agent, częstotliwość hitów per segment URL, nietrafione URL‑e z sitemap.
Zobacz także:  SEO vs SEM – jak wybrać najlepszą strategię dla firmy?

W liczbach: próbka 1–5% często ujawnia większość błędów krytycznych — pod warunkiem że segmentacja obejmuje wszystkie typy szablonów (kategoria, produkt, artykuł, landing, strona techniczna).

Jak przygotować zakres dla małej, średniej i dużej strony?

Zakres dla małej strony (do 1 000 URL‑i) to jeden pełny crawl, kontrola Mobile‑First Index i lista P0 metodą ICE — czas pracy orientacyjnie: 8–16 godzin. Dla średnich organizacji (1 000–50 000 URL‑i) cykl audytu bywa dłuższy, z budżetem na dwa crawle różnicowe oraz testy AISO pod AI Overview — czas pracy: około 3–5 dni.

WielkośćLiczba URL‑iZakresCzas pracy
Małado 1 0001 pełny crawl, GSC, próbka logów 30 dni8–16 godzin (orientacyjnie)
Średnia1 000–50 0002 crawle różnicowe, CrUX/Lighthouse, analiza logów ~90 dni3–5 dni (orientacyjnie)
Enterprise50 000+Stała analiza logów, crawl różnicowy co 4–6 tygodni, testy renderu SPA/SSR10–20 dni (orientacyjnie) + monitoring ciągły

Zakresy w tabeli są przykładowe i zależą od architektury serwisu oraz jakości danych wejściowych.

Brak logów serwera przy serwisie 10 000+ URL‑i to sygnał ostrzegawczy: bez nich audyt może pominąć realny rozkład budżetu crawl i nie wykryć pułapek parametrów marnujących w skrajnych przypadkach do ~47% hitów Googlebota.

Co sprawdzić w indeksacji, robots.txt i sitemap.xml

W bloku indeksacji sprawdza się dostępność URL‑i dla crawlerów, poprawność reguł robots.txt i jakość sitemap.xml pod kątem indeksowalności — bez wyjątków dla żadnego szablonu. Audyt rozszerza to o analizę linkowania wewnętrznego, kanonikalizacji i renderowania SPA/SSR, by nie marnować budżetu indeksacji — straty potrafią sięgać orientacyjnie 20–40% na URL‑e bez wartości SEO. Często spotykane wzorce: ukryte blokady CSS/JS oraz niespójne canonicale wskazujące na wiele wersji tego samego URL.

Jak wykryć blokady crawlerów i błędne reguły robots.txt?

Plik robots.txt sprawdza się pod kątem 5 krytycznych wzorców: pozostawionej po testach reguły „Disallow: /”, blokowania CSS lub JavaScript (utrudnia render MFI), błędnych dyrektyw Sitemap, blokady botów AI i reguł case‑sensitive. Analiza logów oraz raport Crawl Stats w GSC pokazują realne hity Googlebota i zablokowane zasoby — wpływa to na indeksację i odczyt danych strukturalnych. Zmiana jednej reguły Disallow może przywrócić indeksację dziesiątek tysięcy URL‑i w ciągu 1–2 tygodni.

Jak znaleźć problemy z canonicalami, noindex i duplikatami?

Tag rel=canonical, meta robots i nagłówki X‑Robots‑Tag trzeba zestawić z HTTP 200 oraz wynikiem renderu — SPA bez SSR generują czasem pusty HTML i soft 404. Budżet indeksacji zużywany na URL‑e o niskiej wartości bywa wysoki (orientacyjnie 20–40%), a łączność hreflang często zawiera błędy — kontrole szablonów i parametryzacji są obowiązkowe dla serwisów z 500+ URL‑i.

Jak ocenić sitemap.xml, linkowanie wewnętrzne i pułapki indeksacyjne?

Sitemap.xml powinien zawierać wyłącznie URL‑e indexable (0 adresów z noindex, 404 lub 5xx) i odzwierciedlać kanonikalne adresy bez parametrów — Google rekomenduje maksymalnie 50 000 URL‑i na jeden plik sitemap (limit 50 MB nieskompresowanego XML). Zgodnie z dokumentacją Google (Search Central) limity 50 000 URL‑i i 50 MB na plik to twarde wymagania specyfikacji sitemap. Struktura linkowania wewnętrznego powinna kierować budżet crawl na strony o wysokiej wartości — pożądana głębokość kluczowych URL‑i to do ~3 kliknięć od strony głównej (wartość orientacyjna).

  • robots.txt: brak „Disallow: /”, brak blokady CSS/JS, obecne wskazanie sitemap.xml z pełną ścieżką HTTPS.
  • sitemap.xml: URL‑e ze statusem 200 i indexable, bez duplikatów i parametrów, plik < 50 MB / < 50 000 URL‑i (wg dokumentacji Google).
  • Indeksacja: spójne canonicale (1 wersja URL), brak noindex w kluczowych szablonach, kontrola soft 404.
  • Budżet crawl: eliminacja parametrów odpowiadających orientacyjnie za ≥20% hitów Googlebota oraz stron thin content.

Połączenie tych kontroli często daje mierzalne efekty w ciągu 4–8 tygodni: wzrost odsetka stron indexable i zmniejszenie rozbieżności w GSC Coverage.

Jak ocenić Core Web Vitals, renderowanie i Mobile-First Index

Audyt techniczny SEO ocenia Core Web Vitals, renderowanie JavaScriptu i zgodność z Mobile‑First Index — celem jest wyższa indeksowalność i stabilniejsza widoczność w Google. Mierzone są LCP (cel orientacyjny: ≤ 2,5 s), INP (cel orientacyjny: ≤ 200 ms) i CLS (cel orientacyjny: ≤ 0,1) z danymi z CrUX na 75. percentylu rzeczywistych użytkowników — rekomendacje wg Google/web.dev; wartości orientacyjne. Rozbieżności między Lighthouse a CrUX bywają 20–50% dla metryki INP i wynikają z różnic urządzeń, sieci i zachowań użytkowników.

Zobacz także:  Analiza profilu linków: jak rozpoznać i usunąć toksyczne linki

Jak porównać Lighthouse z danymi CrUX i interpretować rozbieżności?

Porównanie Lighthouse (środowisko laboratoryjne, symulowane urządzenie i łącze) z CrUX (rzeczywiste dane 28‑dniowe, 75. percentyl) odsłania wpływ realnych sieci, urządzeń i historii użytkowników. Interpretacja rozjazdów wymaga oceny TTFB (dobrze: ≤ 800 ms — wartość referencyjna wg web.dev), wag JS/CSS i wpływu skryptów third‑party. Od marca 2024 r. kluczowa jest metryka INP zamiast FID. Jeden skrypt third‑party potrafi dodać +100–200 ms INP na urządzeniach mobilnych — to różnica między oceną „dobry” a „wymaga poprawy”.

Jak sprawdzić renderowanie JavaScriptu w SPA, SSR i CSR?

Weryfikacja SPA obejmuje 4 strategie renderowania: SSR (Server‑Side Rendering — render po stronie serwera), CSR (Client‑Side Rendering — render po stronie klienta), dynamiczne renderowanie (osobna wersja dla botów) i statyczną generację (SSG — Static Site Generation, build‑time). Wiele botów AI (np. GPTBot, ClaudeBot, AppleBot) może nie renderować JS — serwis bez SSR/SSG bywa dla nich mniej widoczny; zachowanie botów może się zmieniać. Test zawiera inspekcję HTML po renderze (narzędzie: podgląd w GSC), wykrycie bardzo ubogiego HTML oraz identyfikację zasobów blokowanych w robots.txt — i porównanie statusu HTTP z treścią po renderze.

Jak zweryfikować zgodność mobilną po zakończeniu Mobile-First Index?

Kontrola MFI sprawdza parytet 4 elementów między mobile a desktop po 31.10.2023 r.: treści głównej (tekst, nagłówki, dane strukturalne), linków wewnętrznych (różnice w nawigacji), schema.org (wersja mobile musi zawierać tożsame znaczniki) oraz CWV na urządzeniach mobilnych (CrUX/Lighthouse). Gdy parytet nie jest zachowany — Google indeksuje wersję mobilną, co może skutkować utratą części treści z indeksu — korekty planuje się przed pracami nad CWV.

Jak czytać raport audytu i wdrażać rekomendacje po audycie

Raport łączy diagnozę z planem wdrożenia i metrykami sukcesu: LCP ≤ 2,5 s i INP ≤ 200 ms z CrUX (75. percentyl), odsetek stron indexable ≥ 90% w GSC Coverage — to cele wg Google/web.dev, traktowane jako orientacyjne. Odwołuje się do danych GSC (Crawl Stats, indeksacja z 90 dni) oraz logów serwera w celu weryfikacji efektów przed i po wdrożeniu. Porównanie stanu „przed” i „po” w oknach 7/28/90 dni najczęściej pozwala wykryć regresje w ciągu 48–72 godzin od wdrożenia, pod warunkiem skonfigurowanych alertów i dashboardów (GSC/CrUX/logi).

Jak powinien wyglądać dobry raport i dokumentacja techniczna z audytu?

Dobry raport zawiera 6 elementów: priorytetyzowaną listę zadań P0–P2 (minimum 10–50 pozycji z szacunkami czasowymi), podsumowanie dla zarządu (1–2 strony), plan wdrożeniowy z podziałem na sprinty 2‑tygodniowe, sesję transferu wiedzy (2–4 godziny), testy akceptacyjne i 30–90 dni wsparcia po wdrożeniu. Dokumentacja dołącza uzasadnienia oparte na danych (nie opiniach), testy akceptacyjne, mierzalny wpływ na LCP/INP oraz wskazania zmian w robots.txt, schema.org i renderowaniu SPA/SSR — z przykładami implementacji na kluczowych szablonach.

Jak ustawić priorytety wdrożenia i kolejność zadań?

Zadania punktuje się metodą ICE (Impact 1–10, Confidence 1–10, Ease 1–10) i poziomami P0–P2, z uwzględnieniem zależności technicznych i ryzyka regresji. Kolejność układają 3 sprinty: Sprint 1 — blokady indeksacji P0 i błędy 5xx (tydzień 1–2), Sprint 2 — CWV/INP i linkowanie wewnętrzne (tydzień 3–4), Sprint 3 — refaktoryzacja JS i warstwa AISO (tydzień 5–6). W praktyce 2–3 sprinty 2‑tygodniowe zamykają znaczną część zadań P0 i P1 w serwisach do 50 000 URL‑i.

Jak monitorować efekty po wdrożeniu poprawek?

Monitoring opiera się na 4 źródłach danych: CrUX (75. percentyl LCP/INP/CLS, aktualizacja co 28 dni), GSC (Crawl Stats tygodniowo, Coverage — zmiany ±5% jako alert), analiza logów serwera (filtr Googlebot, hity per segment) i alerty 5xx (próg orientacyjny: ≥0,1% żądań) — z adnotacjami czasowymi pod Core Updates Google. Kontrola po wdrożeniu obejmuje przeglądy post‑release po 7 dniach (alerty krytyczne) i 28 dniach (metryki CrUX), z przykładowymi kryteriami rollback: wzrost błędów 5xx > 0,5%, spadek indeksacji > 10% lub regres LCP > 0,5 s.

Ile kosztuje audyt techniczny i jak wybrać audytora

Audyt techniczny SEO kosztuje orientacyjnie 3 000–5 000 PLN za szybki przegląd (do 1 000 URL‑i, 1–3 dni pracy), 5 000–10 000 PLN za audyt średni (1 000–50 000 URL‑i, 1–2 tygodnie) i 10 000–50 000 PLN w enterprise (50 000+ URL‑i, 4–6 tygodni). Cykl powtarzania: około 6 miesięcy dla średnich organizacji i ~3 miesiące w enterprise. Różnice w budżecie wynikają z liczby URL‑i, potrzeby analizy logów serwera (orientacyjnie dodatkowe 1 000–3 000 PLN), zakresu 12 obszarów, testów SSR/CSR i pracy na wielu środowiskach (staging, produkcja, CDN).

Od czego zależy wycena audytu technicznego strony?

Wycena zależy od 6 czynników: wolumenu URL‑i (każde 10 000 URL‑i to orientacyjnie +1–2 dni pracy), złożoności SPA/SSR (testy renderu: +0,5–1 dzień), obecności AISO (analiza botów: +0,5 dnia), liczby środowisk (każde środowisko staging: +0,5 dnia), obowiązkowej analizy logów przy 10 000+ URL‑i (+1–3 dni) oraz zakresu wsparcia po wdrożeniu (30 dni: +10–15% wartości audytu). Dobór audytora warto oprzeć na: próbkach raportów, zakresie testów (CWV, logi, render), transparentnych kryteriach akceptacyjnych i planie wdrożeń ze sprintami oraz miernikach sukcesu opartych o dane GSC/CrUX (wg zaleceń Google/web.dev — wartości traktowane jako orientacyjne).

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *