0
0
|
Jak naprawić podstawowe błędy robots.txt |
Robots.txt to przydatne i potężne narzędzie służące do instruowania robotów wyszukiwarek, jak chcesz, aby przeszukiwały Twoją stronę internetową. Zarządzanie tym plikiem to kluczowy element dobrej technicznej optymalizacji SEO. Nie jest ono wszechwiedzące - w słowach samego Google, "nie jest to mechanizm służący do wykluczania strony internetowej z Google" - ale może pomóc w zapobieganiu przeciążeniu Twojej strony lub serwera wynikającemu z zbyt wielu żądań robota.