Semalt: Hogyan blokkolható a Darodar Robots.txt

A Robots.txt fájl egy tipikus szöveges fájl, amely utasításokat tartalmaz arra vonatkozóan, hogy a webrobotok vagy robotok miként kell bejárni egy webhelyet. Alkalmazásuk egyértelmű a keresőmotorokban, amelyek számos optimalizált webhelyen gyakoriak. A robotok kizárási protokolljának (REP) részeként a robots.txt fájl elengedhetetlen szempontot képvisel a webhely tartalmának indexálásában, és lehetővé teszi a szerver számára a felhasználói kérelmek ennek megfelelő hitelesítését.
Julia Vashneva, a Semalt ügyfélszolgálat vezetője elmagyarázza, hogy az összekapcsolás a Search Engine Optimization (SEO) egyik aspektusa, amely magában foglalja a forgalom megszerzését a saját niche- jének más területein. A linkek levélének „követése” linkre elengedhetetlen egy robots.txt fájl beillesztése a webhely tárhelyére, hogy oktatóként szolgáljon a szerver és az Ön webhelye közötti interakcióról. Ebből az archívumból az utasítások az egyes felhasználói ügynökök viselkedésének engedélyezésével vagy tiltásával állnak rendelkezésre.
A robots.txt fájl alapvető formátuma
A robots.txt fájl két alapvető sort tartalmaz:
Felhasználói ügynök: [felhasználói ügynök neve]
Tiltás: [Az URL-karakterláncot nem szabad feltérképezni]
A teljes robots.txt fájlnak tartalmaznia kell ezt a két sort. Néhányuk azonban tartalmazhat több sor felhasználói ágenst és irányelvet. Ezek a parancsok olyan aspektusokat tartalmazhatnak, mint az engedélyezés, a tiltás vagy a bejárási késleltetés. Általában van egy sorszakadás, amely elválasztja az egyes utasításokat. Az engedélyezés vagy tiltás utasítások mindegyikét elválasztja ez a sortörés, különösen a több soros robots.txt esetén.

Példák
Például egy robots.txt fájl tartalmazhat olyan kódokat, mint:
Felhasználói ügynök: darodar
Tiltás: / plugin
Tiltás: / API
Tiltás: / _kommentációk
Ebben az esetben ez egy blokkoló robots.txt fájl, amely korlátozza a Darodar webrobot hozzáférését az Ön webhelyéhez. A fenti szintaxisban a kód blokkolja a weboldal olyan aspektusait, mint a pluginok, az API és a megjegyzések szakasz. Ezen ismeretek alapján számos előnye elérhető a robot szövegfájljának hatékony végrehajtásával. A Robots.txt fájlok számos funkciót tudnak végrehajtani. Például készen állhatnak:
1. Engedélyezze az összes internetes bejáró tartalmát egy weboldalon. Például;
Felhasználói ügynök: *
Letiltás:
Ebben az esetben az összes felhasználói tartalomhoz bármilyen webrobot hozzáférhet, amelyet felkérnek egy webhely elérésére.
2. Blokkolja egy adott webtartalmat egy adott mappából. Például;
Felhasználói ügynök: Googlebot
Tiltás: / példa almappa /
Ez a Googlebot felhasználói ügynöknevet tartalmazó szintaxis a Google-hoz tartozik. Ez korlátozza a bot hozzáférését a www.ourexample.com/example-subfolder/ karakterláncban található bármely weboldalhoz.
3. Blokkolja az adott webrobotot egy adott weboldalról. Például;
Felhasználói ügynök: Bingbot
Tiltás: / példa almappa / blokkolt oldal.html
A Bing bot felhasználói ügynök a Bing internetes robotokhoz tartozik. Az ilyen típusú robots.txt fájl korlátozza a Bing webrobotot abban, hogy hozzáférjen egy adott oldalhoz a www.ourexample.com/example-subfolder/blocked-page karakterlánccal.
Fontos információ
- Nem minden felhasználó használja a robts.txt fájlt. Egyes felhasználók dönthetnek úgy, hogy figyelmen kívül hagyják. Az ilyen webrobotok többsége trójaiak és rosszindulatú programok.
- Ahhoz, hogy egy Robots.txt fájl látható legyen, a felső szintű webhely könyvtárában kell elérhetőnek lennie.
- A "robots.txt" karakterek kis- és nagybetűket különböznek. Ennek eredményeként nem szabad megváltoztatnia őket, ideértve egyes szempontok nagybetűit is.
- A "/robots.txt" nyilvános. Bárki megtalálhatja ezeket az információkat, ha hozzáteszi azokat bármely URL tartalmához. Nem szabad indexelnie azokat a lényeges részleteket vagy oldalakat, amelyekről azt akarja, hogy privátak maradjanak.