Forum hosting 4un.eu
plik robots.txt - Wersja do druku

+- Forum hosting 4un.eu (http://www.4un.eu/forum)
+-- Dział: Inne (/Forum-Inne)
+--- Dział: Pozycjonowanie i promowanie strony (/Forum-Pozycjonowanie-i-promowanie-strony)
+--- Wątek: plik robots.txt (/Thread-plik-robots-txt)



plik robots.txt - deros - 04-09-2012 11:38 PM

Plik robots.txt pozwala poinformować wyszukiwarki, które pliki mają zostać zaindeksowane, a które życzylibyśmy sobie, żeby nie były indeksowane przez nie. Oczywiście nie zawsze wyszukiwarki się dostosują, ale warto je stosować.
Dla Każdej wyszukiwarki można stworzyć osobną regułę.
User-Agent: * ta reguła określa, że pliki dotyczą wszystkich wyszukiwarek. Jeśli zamiast gwiazdki wpiszemy nazwę robota sieciowego reguły zawarte będą odnosiły się tylko do niego.
np. User-Agent: yahoo reguły będą się odnosić się tylko do robota Yahooo.
Sitemap: http://www.x.pl/sitemap.xml gdzie x to nazwa naszej domeny informumuje wyszukiwarki, gdzie znajduje się mapa naszej witryny.
Disallow: określa katalog, do którego dana wyszukiwarka nie ma dostępu.
np. Disallow: /panel/* odnosi się do wszystkich plików w katalogu panel.
Oczywiście zamiast gwiazdki można podać nazwę konkretnego pliku.
Plik robots.txt nie jest zabezpieczeniem przed indeksowaniem plików, do tego celu lepiej stosować miejsca wymagające logowania lub umieszczać w katalogach niewidocznych w sieci. Stosowanie tego pliku odpowiada metatagom robots ułatwia pracę przy edycji tych plików..


RE: plik robots.txt - czesio - 12-04-2012 01:42 PM

Dobry tutek choć z tego co gdzieś czytałem w robots mamy tylko wskazówki jak chcemy żeby na 100% nic googlebot nie zobaczył trzeba zastosować inne metody.