ROBOTS.TXT-TARKASTAJA

Esimerkki: websiteplanet.com/robots.txt

01

Helppokäyttöinen:

Robots.txt-tiedostosi tarkkuuden testaaminen ei ole koskaan ollut näin helppoa. Kopioi vain täysi URLisi ja lisää /robots.txt, paina Enter, ja selvityksesi valmistuu pikimmiten.
02

100% tarkkuus:

Robots.txt-testaaja ei ainostaan löydä kirjoitusvirheistä, epäselvistä lauserakenteista tai loogisista virheistä johtuvia ongelmia, vaan se myös antaa sinulle hyödyllisiä optimisaatiovinkkejä.
03

Täsmällinen:

Ottamalla huomioon sekä robotin rajausstandardin että yksittäisille "hämähäkeille" ominaiset tiedostopäätteet, kehittämämme Robots.txt-tarkastaja luo helppolukuisen reportin, joka auttaa sinua korjaamaan robots.txt-tiedostossasi mahdollisesti olevata virheet.
Usein kysytyt kysymykset

Robots.txt -testaustyökalulla tarkistat robots.txt -tiedostosi virheiden varalta. Robots.txt on osa jokaista verkkosivustoa, ja sen tehtävä on tuottaa hakukoneille sopivat indeksointisäännöt. Näin toimimalla voidaan varmistaa, että sivuston sisältö päätyy hakukoneeseen tärkeysjärjestyksessä.

Työkalua on helppoa käyttää, ja se tuottaa sinulle raportin muutamassa sekunnissa – kirjoita vain sivustosi osoite /robots.txt -tekstillä varustettuna (esim. sivusto.fi/robots.txt) ja klikkaa sitten tarkista-painiketta. Robots.txt -työkalumme löytää tiedostosta mahdolliset virheet (lyöntivirheet, syntaksivirheet ja loogiset virheet) ja antaa sinulle vinkkejä robots.txt -tiedoston optimointiin.

Robots.txt -tiedostossa esiintyvät virheet – tai koko tiedoston olemattomuus – heikentää sivustosi hakukoneoptimointia. Tämä tarkoittaa sitä, että sivustosi näkyy hakukoneiden tuloksissa muita alempana. Heikko sijoitus johtuu siitä, että ilman robots.txt -tiedostoa hakukone saattaa indeksoida sivustoltasi epäolennaisia asioita, jolloin tärkeä sisältö ei välttämättä ollenkaan päädy hakukoneeseen.

Kun tarkistat tiedoston ennen sivustosi indeksointia, vältät epätoivottavia tilanteita sivuston indeksoinnissa – kuten että hakukone indeksoi koko sivustosi, vaikka haluat indeksoida vain muutaman tärkeän sivun. Sivustollasi saattaa esimerkiksi olla sivu, johon vierailijat pääsevät vasta jonkin lomakkeen täytön jälkeen – vaikkapa olemassa olevien käyttäjien kirjautumissivu – etkä halua indeksoida tällaista sivua hakukoneeseen. Se kuitenkin päätyy indeksoitavaksi, ellet jätä sitä pois robots.txt -tiedostossa.

Robots.txt -tiedostosta voi löytyä useita erilaisia virheitä, ja työkalu osaa myös varoittaa tietyistä ”parhaan käytännön” asioista. Virheet saattavat vaikuttaa hakukoneoptimointiin ja siksi ne kannattaa korjata. Varoitukset ovat vähemmän kriittisiä, niiden tehtävä on lähinnä opastaa sinua paremman robots.txt -tiedoston kirjoittamisessa.

Voit saada tällaisia virheviestejä:

Invalid URL (virheellinen URL-osoite) – Näet tämän viestin, mikäli robots.txt puuttuu kokonaan.

Potential wildcard error (mahdollinen asteriskivirhe) – Periaatteessa tämä on lähinnä varoitus eikä virhe, mutta yleensä se kuitenkin viittaa robots.txt -tiedoston Disallow-kentässä olevaan asteriskiin (*) (esim. Disallow: /*.rss). Tämä on yksi ”parhaan käytännön” asioista – Google sallii asteriskit Disallow-kentässä, mutta niiden käyttö ei ole suositeltua.

Generic and specific user-agents in the same block of code (yleisiä ja erityisiä käyttäjäagentteja samassa koodilohkossa) – Tämä viittaa robots.txt -tiedostossa olevaan syntaksivirheeseen, ja virhe on korjattava jotta sivuston indeksointi onnistuu oikein.

Voit saada tällaisia varoitusviestejä:

Allow: / – Allow-komennon (salli) käyttö ei vaikuta sivustoosi tai heikennä sen sijoitusta hakukoneissa, mutta tavallisesti sitä ei kuitenkaan käytetä. Googlen ja Bingin kaltaiset suuret hakukoneet hyväksyvät tämän komennon, mutta kaikki hakukoneet sitä ei tunne – ja yleisesti ottaen robots.txt -tiedoston kannattaa olla yhteensopiva kaikkien hakukoneiden kanssa, ei pelkästään suurimpien.

Field name capitalization (nimissä pienet alkukirjaimet) – Kenttien nimien ei välttämättä tarvitse alkaa isolla alkukirjaimella, mutta jotkin hakukoneet saattavat kuitenkin vaatia tätä, ja siksi ne on hyvä kirjoittaa aina isolla.

Sitemap support (sivukartan tuki) – Moni robots.txt pitää sisällään myös sivuston sivukartan, mutta tätä ei pidetä parhaana käytäntönä. Google ja Bing kuitenkin tukevat ominaisuutta.

Robots.txt -tiedoston virheiden korjaaminen riippuu käyttämästäsi alustasta. Jos käytät WordPressiä, virheet kannattaa korjata jollakin liitännäisellä, joita ovat esimerkiksi WordPress Robots.txt Optimization sekä Robots.txt Editor. Jos yhdistät sivustosi Googlen Search Consoleen, pääset muokkaamaan robots.txt -tiedostoa myös siellä.

Jotkin kotisivukoneet, esimerkiksi Wix, eivät salli käyttäjän suoraan muokata robots.txt -tiedostoa, mutta voit kuitenkin lisätä indeksoinnin estävän tagin haluamillesi sivuille.