Webmester honlap - Robots-Text
Egy robots.txt feladata abból áll, hogy a keresők spider-jaival szemben bizonyos oldalakhoz vagy jegyzékekhez a hozzáférést megtagadja. Ez nem jelent automatikus védelmet a hozzáférés ellen, sőt minden websurfer, akit érdekel, le tudja hivni egy browser segítségével. Egy robots.txt elkészitése nem feltétlenül szükséges, de ajánlatos, hiszen a spider-ek automatikusan keresik őket, és először ott tudakozódnak. Programozásuk nagyon körűltekintöen végzendő, mert egy túl agresszívan dolgozó spider könnyen túlterheli a szervert, amelyen a letöltött dokumentumok találhatók.
A User-Agent a Spider-re vonatkozik. A * mint egy Joker használandó és azt jelenti, hogy a megadott adatok minden Spider-re érvényesek. 
minden robot felkérve
Egy üres fájl ugyanazt a célt zolgálja. 
User-agent: *
Disallow: 
minden robot kizárva
User-agent: * 
Disallow: / 
bizonyos jegyzékektöl minden robotot távol tartani
User-agent: *
Disallow: /nem fontos
Disallow: /cgi-bin/ 
Egy bizonyos robot kizárva (pl. Scooter) 
User-agent: Scooter
Disallow: /
Egy bizonyos robotot felkérni (pl. WebCrawler)  
User-agent: Slurp.so
Disallow: 
Többféle fájlt kizárni
# az én robotom Info
User-agent: *
Disallow: /janos.htm
Disallow: /abc.htm
Kommentárokat így illeszthet be: 
# az én kommentárom
Tartalom:













