Dlaczego moja strona nie jest indeksowana przez Google i jak to naprawić?
Czym jest indeksowanie i jak działa w Google?
Nie martw się, zaraz to wyjaśnimy. Indeksowanie to prosty łańcuch: Google najpierw skanuje (crawl) Twoją stronę, potem przetwarza treści, a na końcu dodaje wybrane URL-e do indeksu. Dopiero wtedy możesz pojawić się w wynikach wyszukiwania i w miejscach takich jak Google Discover. Jeśli adres nie jest w indeksie, dla Google praktycznie nie istnieje.
Ważne: Google nie indeksuje wszystkiego. Zwykle utrzymuje jedną wersję kanoniczną treści (np. wariant bez parametrów). Duplikaty, strony z noindex albo zablokowane w robots.txt mogą być pominięte celowo. To normalne i nie zawsze jest błędem.
Czas oczekiwania na indeksację bywa zmienny – od kilku dni do kilku tygodni. W przypadku nowych lub ważnych URL-i warto w Google Search Console (GSC) kliknąć „Poproś o zindeksowanie”. To nie jest gwarancja, ale często przyspiesza sprawy.
Ułatw Google odkrywanie witryny. Zadbaj, by strona główna była zindeksowana, nawigacja była kompletna i logiczna, a linkowanie wewnętrzne prowadziło do kluczowych podstron. Im krótsza ścieżka do ważnych treści, tym lepiej.
W skrócie: jeśli chcesz zrozumieć mechanizm, zajrzyj do oficjalnego przewodnika Google „Jak działa wyszukiwarka Google”:
- How Search Works: https://www.google.com/search/howsearchworks/
- Raport „Indeksowanie stron” w GSC: https://support.google.com/webmasters/answer/7440203?hl=pl
Jak sprawdzić status indeksowania swojej strony?
Szybki przegląd: operator site:
Na początek wpisz w Google: site:twojadomena.pl lub site:twojadomena.pl/sciezka. To da Ci orientacyjny przegląd, które URL-e są widoczne. Pamiętaj: to przybliżone dane, dlatego nie traktuj tego jako jedynego źródła prawdy.
- Szybki sygnał problemu: brak wyników dla
site:twojadomena.plmoże oznaczać blokady robots.txt, noindex lub świeżą domenę bez linków. - Weryfikacja sekcji: sprawdź, czy kluczowe kategorie albo wpisy blogowe pojawiają się w wynikach z operatorem
site:. Jeśli nie – to miejsca do audytu.
Przykład: jeśli site:mojsklep.pl/buty zwraca 0 wyników, a kategoria jest ważna sprzedażowo, sprawdź jej meta robots, tag canonical i linki wewnętrzne.
GSC: raport „Indeksowanie stron”
To Twoja baza diagnostyczna. W GSC otwórz raport „Indeksowanie stron” i zobacz:
-
Zindeksowane vs. niezindeksowane URL-e – skala problemu.
-
Powody braku indeksacji – Google podaje listę „Dlaczego strony nie są indeksowane”.
-
Ważne pozycje raportu:
-
„Strona zeskanowana, ale jeszcze niezindeksowana” – Google widziało stronę, ale odłożyło decyzję (często przy thin content lub nowych witrynach).
-
„Strona wykryta – obecnie niezindeksowana” – Google zna URL, ale go nie skanowało (problem z odkrywalnością lub budżetem crawl).
-
„Błąd serwera (5xx)” – problem po stronie hostingu.
-
„Pozorny błąd 404 (soft 404)” – strona wygląda jak pusta lub ma bardzo słabą wartość.
-
Dokumentacja Google o raporcie: https://support.google.com/webmasters/answer/7440203?hl=pl
Tip: kliknij w konkretną przyczynę i przejrzyj przykładowe adresy. To szybki sposób na wzorce błędów.
GSC: „Sprawdzanie adresu URL”
Dla pojedynczego URL-a użyj narzędzia „Sprawdzanie adresu URL”. Zobaczysz:
- Ostatnie skanowanie, status kanoniczności, ewentualne blokady robots.txt i noindex, przekierowania.
- Wykonaj „Test wersji opublikowanej” (live test), by sprawdzić aktualny stan (bez czekania na kolejne skanowanie).
- Jeśli wszystko gra, kliknij „Poproś o zindeksowanie” – zwłaszcza przy nowych lub naprawionych stronach.
- Dokumentacja: https://support.google.com/webmasters/answer/9012289?hl=pl
Przykład: strona produktu zwraca 200 OK, ma meta robots: index, follow, ale GSC pokazuje „Google wybrał inną kanoniczną”. Sprawdź tag canonical, treść zbliżona do innej wersji? Doprecyzuj unikatowe elementy (opis, parametry, opinie).
Audyt techniczny: Screaming Frog
Przeskanuj serwis narzędziem Screaming Frog i porównaj wyniki z GSC. To pomaga wyłapać:
- Statusy HTTP (200/301/302/404/5xx),
- Meta robots, x-robots-tag, duplikaty tytułów/opisów,
- Łańcuchy przekierowań i pętle,
- Strony osierocone (brak linków wewnętrznych).
Pamiętaj: GSC pokazuje, co „widzi” Google. Screaming Frog pokaże Ci, co „istnieje” i jak Twoja strona prowadzi robota. Zestawienie obu perspektyw daje pełny obraz.
Najczęstsze przyczyny braku indeksacji (i szybkie diagnozy)
Blokady po stronie witryny
Tu często leży najprostszy winowajca.
- Zbyt restrykcyjny robots.txt – komunikat w GSC: „URL zablokowany przez robots.txt”. Sprawdź tester: https://support.google.com/webmasters/answer/6062596?hl=pl
Ważne: robots.txt blokuje skanowanie, ale nie zawsze indeksację. Lepiej stosować noindex na stronach, których nie chcesz w indeksie. - Meta robots: noindex lub x-robots-tag – jeśli przez przypadek jest na szablonie, wycina całe sekcje.
Przykład: noindex na „/blog/” powoduje zniknięcie wszystkich wpisów. - Dostępność: 401/403/hasło – robot nie przejdzie dalej. Stosuj ochronę tylko tam, gdzie to konieczne (np. staging).
- Blokady skryptów (JS/CSS/obrazy) w robots.txt – utrudniają zrozumienie treści i mogą opóźniać decyzje indeksacyjne.
Pamiętaj: zawsze najpierw zdejmij blokadę, potem poproś o ponowną indeksację kluczowych URL-i.
Błędy techniczne i dostępność
Słaby serwer lub błędy konfiguracji to częsty hamulec.
- 5xx (timeout/odrzucenie) – gdy serwer „nie wyrabia”. Zobacz Statystyki indeksowania: https://support.google.com/webmasters/answer/9679690?hl=pl oraz Stan hosta w GSC.
Rozwiązanie: lepszy hosting, CDN, cachowanie, optymalizacja zapytań. - 404/soft 404 – realny brak strony lub bardzo uboga treść.
Dokumentacja soft 404: https://support.google.com/webmasters/answer/181708?hl=pl - Błędy przekierowań – pętle, zbyt długie łańcuchy 301/302, mieszanie http/https i www/bez www.
W skrócie: maks. jedno przekierowanie, reszta do korekty w .htaccess lub konfiguracji serwera.
Ważne: niestabilność hostingu wpływa na crawl budget – robot wraca rzadziej, a indeksacja się ślimaczy.
Duplikacja i kanonikalizacja
Google nie chce trzymać pięciu wersji tej samej treści.
- Brak/błędny tag canonical – Google może wybrać „inną kanoniczną”, a Twoja wersja wyleci z indeksu.
- Parametry URL tworzące duplikaty – np.
?kolor=niebieskibez wartościowej różnicy treści. - Sprzeczne sygnały: canonical + noindex – nie łącz. Canonical mówi „to kopia”, a noindex mówi „nie indeksuj”. Google dostaje sygnały w konfliktcie.
Przykład: filtrowanie w e-commerce generuje tysiące URL-i. Zdecyduj, co ma wartość (np. „buty do biegania męskie rozmiar 43”) i resztę kontroluj noindex lub przez robots.txt.
Mapa witryny i odkrywalność
Bez odkrywalności nie ma skanowania, a bez skanowania – indeksu.
- Brak lub błędna sitemap.xml – nieaktualne, zablokowane, 404 w mapie.
Pamiętaj: jedna mapa może mieć max. 50 000 URL-i lub 50 MB (skompresowana). - Strony osierocone – brak linków wewnętrznych, nikt do nich nie prowadzi.
- Słaba architektura nawigacji – ważne strony są głęboko ukryte (4+ kliknięcia od strony głównej).
Ważne: prześlij mapę w GSC i regularnie ją odświeżaj – to sygnał dla Google, co jest priorytetem.
Renderowanie i zasoby
Treści generowane przez JS często wymagają pełnego renderu.
- Blokowanie JS/CSS/obrazów w robots.txt utrudnia zrozumienie strony.
- Wolny serwer i ciężkie skrypty – wydłużają renderowanie i zmniejszają szanse na szybkie włączenie do indeksu.
- Testuj w PageSpeed Insights: https://pagespeed.web.dev/ i Lighthouse: https://developer.chrome.com/docs/lighthouse/overview
Przykład: opis produktu ładuje się dopiero po akcji JS; robot go nie widzi w HTML. Rozważ server-side rendering (SSR) albo hydrację krytycznych treści.
Naturalne opóźnienia i budżet crawl
Czasem trzeba po prostu… poczekać i poprawić jakość.
- Nowe domeny/URL-e – na starcie Google jest ostrożny.
- Niski crawl budget – dużo URL-i niskiej jakości, mało linków, przeciążenia serwera.
- Thin content – treści „na trzy zdania” bez wartości dodanej.
W praktyce: wzmacniaj linkami, rozbuduj treść o realne odpowiedzi dla użytkownika i porządkuj duplikaty. Wtedy indeksacja przyspiesza.
Jak to naprawić – plan działania krok po kroku
1) Zacznij od GSC
- Otwórz „Indeksowanie stron” i wejdź w konkretną przyczynę.
- Przejrzyj przykładowe URL-e (do 1000) – znajdź wspólne wzorce.
- Wejdź w „Statystyki indeksowania” i „Stan hosta” – sprawdź błędy serwera, skoki opóźnień.
2) Usuń blokady i oczywiste błędy
- Popraw robots.txt – nie blokuj kluczowych sekcji (skorzystaj z testera).
- Zdejmij noindex z ważnych szablonów (np. kategorie, blog).
- Napraw 5xx/4xx, skróć łańcuchy 301, uporządkuj .htaccess.
- Wykonaj live test w „Sprawdzaniu adresu URL”, a potem „Poproś o zindeksowanie”.
Przykład: blog nie indeksuje się, bo motyw zawierał noindex na „/blog/”. Po zdjęciu i kliknięciu „Poproś o zindeksowanie” – pierwsze wpisy pojawiły się po 48–72 h.
3) Uporządkuj odkrywalność
- Przygotuj aktualną sitemap.xml – tylko kanoniczne, działające URL-e.
- Zadbaj o linkowanie wewnętrzne – dodaj sekcje „Powiązane artykuły”, linki w treści, menu okruszkowe.
- Ustal spójne canonical – usuń sprzeczności, nie mieszaj z noindex.
Tip: w e-commerce linkuj z opisów kategorii do priorytetowych podkategorii (np. „buty do biegania męskie”), by skrócić ścieżkę i podnieść wagę.
4) Zadbaj o renderowanie i szybkość
- Odblokuj ważne JS/CSS/obrazy w robots.txt.
- Przenieś krytyczne treści do HTML lub zastosuj SSR.
- Popraw Core Web Vitals – lepsza szybkość = większa szansa na skuteczne skanowanie.
5) Wzmocnij jakość i sygnały zewnętrzne
- Usuń duplikaty i thin content – łącz podobne treści, rozbuduj o dane, przykłady, FAQ.
- Pozyskaj jakościowe linki zewnętrzne (branżowe katalogi, partnerzy, PR).
- Publikuj regularnie – świeżość i spójność pomagają w harmonogramie skanowania.
6) Zweryfikuj poprawki
- W GSC kliknij „Sprawdź poprawkę” (sekcja Weryfikacja).
- Monitoruj statusy: Rozpoczęto, Powodzenie, Niepowodzenie.
- Dla najważniejszych URL-i dodatkowo użyj „Poproś o zindeksowanie”.
7) Sprawdź bezpieczeństwo i kary
- Wejdź w GSC: „Bezpieczeństwo i ręczne działania”.
- Jeśli są naruszenia, usuń problem (np. malware, spam w treści/linkach) i złóż wniosek o ponowne rozpatrzenie.
- Po czyszczeniu – ponowna prośba o indeksację.
Przykład: witryna po migracji na HTTPS bez właściwych przekierowań 301 – Google widzi duplikaty http/https. Po wdrożeniu stałych 301 i aktualizacji mapy witryny – liczba zindeksowanych URL-i wraca do normy w 1–2 tygodnie.
Pamiętaj: nie celuj w 100% indeksacji. Celuj w indeksację kanonicznych, wartościowych stron, które realnie mogą przyciągnąć klientów.
Kluczowe wnioski i wiarygodne źródła do dalszej nauki
- Zacznij od prostych rzeczy. Najczęściej winne są robots.txt, noindex, błędy przekierowań lub 5xx. GSC + operator site: szybko to ujawnią.
- Nie każda strona musi być w indeksie. Google zwykle utrzymuje tylko wersje kanoniczne. To normalne, że warianty z parametrami zostaną pominięte.
- Czytaj komunikaty GSC. „Strona zeskanowana, ale jeszcze niezindeksowana”, „Wykryta – obecnie niezindeksowana”, „Błąd przekierowania” – każdy status ma wskazówki w pomocy Google (Raport „Indeksowanie stron”: https://support.google.com/webmasters/answer/7440203?hl=pl).
- Używaj właściwych narzędzi. Do audytu technicznego: Screaming Frog. Do monitoringu duplikatów/treści: Ahrefs Site Audit. Do wydajności i renderu: PageSpeed Insights i Lighthouse.
- Kontekst biznesowy ma znaczenie. Indeksuj to, co naprawdę może rankować i sprzedawać: kategorie, kluczowe produkty, poradniki z intentem zakupowym. Reszta może być noindex lub dostępna, ale poza indeksem.
Źródła godne zaufania:
- Jak działa wyszukiwarka Google: https://www.google.com/search/howsearchworks/
- Raport „Indeksowanie stron” (GSC): https://support.google.com/webmasters/answer/7440203?hl=pl
- Sprawdzanie adresu URL (GSC): https://support.google.com/webmasters/answer/9012289?hl=pl
- Statystyki indeksowania: https://support.google.com/webmasters/answer/9679690?hl=pl
- Soft 404: https://support.google.com/webmasters/answer/181708?hl=pl
- PageSpeed Insights: https://pagespeed.web.dev/
- Lighthouse: https://developer.chrome.com/docs/lighthouse/overview
W praktyce firm, które wspieramy, 70–80% problemów zniknęło po zdjęciu blokad, uporządkowaniu przekierowań i dopracowaniu linkowania wewnętrznego. Reszta to kwestia jakości treści i cierpliwości.
Na co zwrócić uwagę w codziennej pracy
- Miej checklistę. Co miesiąc sprawdzaj GSC, mapę witryny, robots.txt, błędy 5xx/404 i główne statusy w raporcie indeksowania.
- Priorytetyzuj. Najpierw napraw strony, które mogą przynieść ruch/sprzedaż. Potem reszta.
- Dostarczaj wartość. Każdy ważny URL powinien mieć unikatową treść, sensowny nagłówek H1, logiczne linkowanie wewnętrzne i szybkie ładowanie.
- Reaguj szybko. Po wdrożeniach (nowy motyw, migracja, zmiany w .htaccess) od razu zrób audyt: Screaming Frog, GSC – Sprawdzanie adresu URL, „Poproś o zindeksowanie”.
Dzięki temu Twoja strona szybciej trafi do indeksu Google, a Ty przestaniesz tracić ruch na rzecz konkurencji. Jeśli coś wciąż nie działa – wróć do GSC, czytaj komunikaty i eliminuj przeszkody po kolei. Tu naprawdę wygrywa konsekwencja i prostota.



































