Ero sivun ”Robots.txt” versioiden välillä

[katsottu versio][katsottu versio]
Poistettu sisältö Lisätty sisältö
Ei muokkausyhteenvetoa
rm link spam
Rivi 1:
'''Robotin rajausstandardi''' (<code>robots.txt</code>) on [[WWW-palvelin|WWW-palvelimen]] juurihakemistoon sijoitettava [[tiedosto]], jolla voidaan antaa tietoja ja rajoituksia [[hakurobotti|hakuroboteille]] ja muille [[verkkosivu]]ja tutkiville [[botti|boteille]]. Sillä voidaan esimerkiksi kieltää kaikkia robotteja tai vain yksittäisiä [[hakukone]]ita tutkimasta joitakin verkkosivuston kansioita tai tiedostoja.<ref>{{Verkkoviite|osoite=https://xtool.ru/blog/kak-sozdat-pravilnyj-fajl-robots-txt-dlya-sajta/|nimeke=Как создать правильный файл robots txt для сайта|julkaisu=|viitattu=}}</ref>
 
robots.txt-standardi sai alkunsa sähköpostilistalla www-talk käydyistä keskusteluista vuonna 1994, eikä sitä valvo tai kehitä mikään virallinen elin. Alkuperäiseen standardiin kuuluu vain kaksi ilmaustyyppiä: <tt>Disallow</tt> kertoo mitä botilta kielletään ja <tt>User-agent</tt> mitä bottia kielto koskee. Sittemmin suosituimmat hakukoneet ovat alkaneet huomioida uusia komentoja, joita kaikki botit eivät kuitenkaan tunnista.