Robot.txt: Kompletny przewodnik dla SEO

Robot.txt: Kompletny przewodnik dla SEO

18.03.2026 Arkadiusz 2 min czytania

Plik robots.txt to kluczowy element technicznego SEO. Poprawnie skonfigurowany robots.txt pomaga robotom Google indeksować Twoją stronę, podczas gdy niewłaściwa konfiguracja może utrudnić indeksację.

Czym jest robots.txt?

Robots.txt to plik tekstowy znajdujący się w głównym katalogu domeny, który instruuje roboty wyszukiwarek, które obszary strony mogą indeksować.

Kluczowe dyrektywy robots.txt

User-agent

Dyrektywa User-agent określa, do której wyszukiwarki skierowana jest instrukcja. Aby skierować do wszystkich robotów, użyj:

User-agent: *

Disallow

Dyrektywa Disallow instruuje roboty, aby nie indeksowały określone obszary. Przykład:

Disallow: /admin/
Disallow: /private/

Allow

Dyrektywa Allow pozwala na indeksację konkretnych obszarów nawet w sekcjach oznaczonych jako Disallow:

Disallow: /admin/
Allow: /admin/sitemap.xml

Sitemap

Dyrektywa Sitemap wskazuje lokalizację mapy strony:

Sitemap: https://twoja-strona.pl/sitemap.xml

Błędy do uniknięcia

  • Nie blokuj ważne podstrony przez Disallow
  • Upewnij się, że mapa strony jest dostępna i aktualna
  • Unikaj konfliktów z dyrektywą noindex w meta tagach
Powiązane wpisy

Polecam zapoznać się również

Zadzwoń Wycena