Så här använder du Robots.Txt för att blockera underdomäner
En webbplats är ett bra sätt att marknadsföra ditt lilla företag, samt visa dina produkter och unika kvalifikationer. Om du hanterar en stor webbplats brukar du använda några underdomäner och varje underdomän har sin egen mapp på din webbhotell. Om du inte vill att sökrobotar ska analysera och indexera vissa underdomäner kan du använda robots.txt-filen för att blockera dem.
1.
Klicka på Start-knappen längst ned till vänster på skärmen.
2.
Skriv "Anteckningsblock" i sökrutan längst ner på Start-menyn.
3.
Klicka på "Anteckningar" i avsnittet Program högst upp på Start-menyn för att starta Anteckningar. Ett nytt dokument skapas automatiskt i Anteckningar.
4.
Sätt in dessa två rader i anteckningsblocket för att blockera alla robotar från att analysera underdomänen:
Användaragent: * Tillåt: /
5.
Tryck på "Ctrl-S" för att öppna fönstret "Spara som".
6.
Skriv "robots.txt" i rutan "Filnamn", välj en mapp där du vill spara filen och klicka på "Spara" för att spara den.
7.
Ladda upp robots.txt-filen du sparade i rotkatalogen för varje domän som du vill skydda från sökrobotar. Rotsmappen är den översta katalogen.
Tips
- Du kan ladda upp filen med hjälp av någon FTP-klientprogramvara eller till och med värdens webbfilhanterare.