Artificial IntelligenceSearch Marketing

Hvað er Robots.txt skrá? Allt sem þú þarft til að skrifa, senda inn og endurskoða vélmennaskrá fyrir SEO

Við höfum skrifað ítarlega grein um hvernig leitarvélar finna, skríða og skrá vefsíður þínar. Grunnskref í því ferli er robots.txt skrá, gátt fyrir leitarvél til að skríða síðuna þína. Það er mikilvægt að skilja hvernig eigi að búa til robots.txt skrá á réttan hátt í leitarvélabestun (SEO).

Þetta einfalda en öfluga tól hjálpar vefstjórum að stjórna því hvernig leitarvélar hafa samskipti við vefsíður sínar. Það er nauðsynlegt að skilja og nota robots.txt skrá á skilvirkan hátt til að tryggja skilvirka flokkun vefsíðu og sem besta sýnileika í niðurstöðum leitarvéla.

Hvað er Robots.txt skrá?

Robots.txt skrá er textaskrá sem er staðsett í rótarskrá vefsíðunnar. Megintilgangur þess er að leiðbeina leitarvélarskriðrum um hvaða hluta síðunnar ætti eða ætti ekki að skríða og verðtryggja. Skráin notar Robots Exclusion Protocol (REP), staðlaðar vefsíður sem nota til að eiga samskipti við vefskriðara og önnur vefvélmenni.

REP er ekki opinber internetstaðall en er almennt viðurkenndur og studdur af helstu leitarvélum. Það sem næst viðurkenndum staðli er skjöl frá helstu leitarvélum eins og Google, Bing og Yandex. Fyrir frekari upplýsingar, heimsækja Robots.txt upplýsingar frá Google Mælt er með.

Af hverju er Robots.txt mikilvægt fyrir SEO?

  1. Stýrð skrið: Robots.txt gerir eigendum vefsíðna kleift að koma í veg fyrir að leitarvélar fái aðgang að ákveðnum hlutum vefsvæðis þeirra. Þetta er sérstaklega gagnlegt til að útiloka tvítekið efni, einkasvæði eða hluta með viðkvæmum upplýsingum.
  2. Fínstillt skriðkostnaðarhámark: Leitarvélar úthluta skriðkostnaðarhámarki fyrir hverja vefsíðu, fjölda síðna sem leitarvélboti skríður á síðu. Með því að banna óviðeigandi eða minna mikilvæga hluta hjálpar robots.txt að fínstilla þetta skriðkostnaðarhámark og tryggja að mikilvægari síður séu skreyttar og verðtryggðar.
  3. Bættur hleðslutími vefsíðu: Með því að koma í veg fyrir að vélmenni fái aðgang að mikilvægum auðlindum getur robots.txt dregið úr álagi netþjóna, hugsanlega bætt hleðslutíma síðunnar, mikilvægur þáttur í SEO.
  4. Koma í veg fyrir skráningu á óopinberum síðum: Það hjálpar til við að koma í veg fyrir að óopinber svæði (eins og sviðsetningarsíður eða þróunarsvæði) séu verðtryggð og birtast í leitarniðurstöðum.

Robots.txt Nauðsynlegar skipanir og notkun þeirra

  • Leyfa: Þessi tilskipun er notuð til að tilgreina hvaða síður eða hlutar vefsvæðisins ættu að fá aðgang að vefskriðlum. Til dæmis, ef vefsíða er með sérstaklega viðeigandi hluta fyrir SEO, getur 'Allow' skipunin tryggt að það sé skrið.
Allow: /public/
  • Ekki leyfa: Andstæðan við 'Allow', þessi skipun skipar vélmennum leitarvéla að skríða ekki ákveðna hluta vefsíðunnar. Þetta er gagnlegt fyrir síður án SEO gildi, eins og innskráningarsíður eða skriftuskrár.
Disallow: /private/
  • Jokertákn: Jokertákn eru notuð til að passa mynstur. Stjarnan (*) táknar hvaða röð stafa sem er og dollaramerkið ($) táknar lok vefslóðar. Þetta er gagnlegt til að tilgreina fjölbreytt úrval vefslóða.
Disallow: /*.pdf$
  • Veftré: Að setja vefkortsstaðsetningu með í robots.txt hjálpar leitarvélum að finna og skríða allar mikilvægar síður á vefsvæðinu. Þetta er mikilvægt fyrir SEO þar sem það hjálpar til við hraðari og fullkomnari flokkun vefsvæðis.
Sitemap: https://martech.zone/sitemap_index.xml

Robots.txt Viðbótarskipanir og notkun þeirra

  • Umboðsmaður notanda: Tilgreindu hvaða skriðar reglan á við. 'User-agent: *' beitir reglunni á alla crawlers. Dæmi:
User-agent: Googlebot
  • Noindex: Þó að það sé ekki hluti af venjulegu robots.txt samskiptareglunum, skilja sumar leitarvélar a noindex tilskipun í robots.txt sem leiðbeining um að skrá ekki tilgreinda vefslóð.
Noindex: /non-public-page/
  • Skriðtöf: Þessi skipun biður skriðara um að bíða ákveðinn tíma á milli heimsókna á netþjóninn þinn, gagnlegt fyrir síður með vandamál með hleðslu netþjóns.
Crawl-delay: 10

Hvernig á að prófa Robots.txt skrána þína

Þó það sé grafið í Google leitartól, leitarvél býður upp á robots.txt skráarprófara.

Prófaðu Robots.txt skrána þína í Google Search Console

Þú getur líka sent inn Robots.txt skrána þína aftur með því að smella á punktana þrjá til hægri og velja Biðja um endurskoðun.

Sendu inn Robots.txt skrána þína aftur í Google Search Console

Prófaðu eða sendu inn Robots.txt skrána þína aftur

Er hægt að nota Robots.txt skrána til að stjórna gervigreindarvélum?

Hægt er að nota robots.txt skrána til að skilgreina hvort AI vélmenni, þar á meðal vefskriðarar og aðrir sjálfvirkir vélmenni, geta skriðað eða notað efnið á síðunni þinni. Skráin leiðbeinir þessum vélmennum og gefur til kynna hvaða hluta vefsíðunnar þeim er leyft eða bannað að fá aðgang að. Skilvirkni robots.txt sem stjórnar hegðun gervigreindar vélmenna fer eftir nokkrum þáttum:

  1. Aðild að bókuninni: Virtustu leitarvélaskriðararnir og margir aðrir gervigreindarbottar virða reglurnar sem settar eru
    robots.txt. Hins vegar er mikilvægt að hafa í huga að skráin er meira beiðni en aðfararhæf takmörkun. Vélmenni geta hunsað þessar beiðnir, sérstaklega þær sem reknar eru af minna vandlátum aðilum.
  2. Sérhæfni leiðbeininga: Þú getur tilgreint mismunandi leiðbeiningar fyrir mismunandi vélmenni. Til dæmis gætirðu leyft sérstökum gervigreindarvélmennum að skríða síðuna þína á meðan þú bannar öðrum. Þetta er gert með því að nota User-agent tilskipun í robots.txt skráardæmi hér að ofan. Til dæmis, User-agent: Googlebot myndi tilgreina leiðbeiningar fyrir skrið Google, en User-agent: * myndi gilda um alla vélmenni.
  3. Takmarkanir: Þó robots.txt getur komið í veg fyrir að vélmenni skríði tiltekið efni; það felur ekki innihaldið fyrir þeim ef þeir vita nú þegar URL. Að auki veitir það enga leið til að takmarka notkun efnisins þegar búið er að skríða það. Ef krafist er efnisverndar eða sérstakra notkunartakmarkana gætu aðrar aðferðir eins og lykilorðsvernd eða flóknari aðgangsstýringaraðferðir verið nauðsynlegar.
  4. Tegundir bots: Ekki eru allir gervigreindarbottar tengdir leitarvélum. Ýmsir vélmenni eru notaðir í mismunandi tilgangi (td gagnasöfnun, greiningar, efnisskrapun). Robot.txt skrána er einnig hægt að nota til að stjórna aðgangi fyrir þessar mismunandi gerðir vélmenna, svo framarlega sem þeir fylgja REP.

The robots.txt skrá getur verið áhrifaríkt tól til að gefa til kynna óskir þínar varðandi skrið og nýtingu á efni vefsvæðis af gervigreindarvélmennum. Hins vegar er möguleiki þess takmörkuð við að veita leiðbeiningar frekar en að framfylgja ströngu aðgangseftirliti og skilvirkni þess veltur á því hvort vélmenni uppfylli Robots Exclusion Protocol.

Robots.txt skráin er lítið en öflugt tól í SEO vopnabúrinu. Það getur haft veruleg áhrif á sýnileika vefsíðu og frammistöðu leitarvéla þegar hún er notuð rétt. Með því að stjórna hvaða hlutum vefsvæðis er skriðað og verðtryggt geta vefstjórar tryggt að verðmætasta efnið þeirra sé auðkennt og bætt SEO viðleitni þeirra og afköst vefsíðunnar.

Douglas Karr

Douglas Karr er CMO af OpenINSIGHTS og stofnandi Martech Zone. Douglas hefur hjálpað tugum farsælra MarTech sprotafyrirtækja, hefur aðstoðað við áreiðanleikakönnun yfir $5 milljarða í kaupum og fjárfestingum Martech og heldur áfram að aðstoða fyrirtæki við að innleiða og gera sjálfvirkan sölu- og markaðsáætlanir sínar. Douglas er alþjóðlega viðurkenndur stafrænn umbreytingu og MarTech sérfræðingur og ræðumaður. Douglas er einnig útgefinn höfundur Dummie's guide og bók um leiðtogaviðskipti.

tengdar greinar

Til baka efst á hnappinn
Loka

Auglýsingablokk greind

Martech Zone er fær um að útvega þér þetta efni að kostnaðarlausu vegna þess að við afla tekna af síðunni okkar með auglýsingatekjum, tengdatenglum og kostun. Okkur þætti vænt um ef þú myndir fjarlægja auglýsingablokkann þinn þegar þú skoðar síðuna okkar.