揚(yáng)州網(wǎng)站優(yōu)化,robots對(duì)seo的影響

閱讀 ?·? 發(fā)布日期 2018-12-10 15:04 ?·? admin

揚(yáng)州網(wǎng)站優(yōu)化,robots對(duì)seo的影響,很多新手朋友在剛做seo優(yōu)化的時(shí)候?qū)τ趓obots協(xié)議一定很困惑,我剛進(jìn)入seo行業(yè)也是這樣,看了百度站長(zhǎng)平臺(tái)對(duì)于robots的規(guī)則也是云里霧里的,那時(shí)候一般就用討巧的方法,看別人網(wǎng)站robots怎么寫(xiě)我就怎么寫(xiě),現(xiàn)在想一想還是挺有意思的。

  要了解robots就一定要知道什么是robots,搜索引擎訪(fǎng)問(wèn)一個(gè)網(wǎng)站的時(shí)候,最先訪(fǎng)問(wèn)的文件就是robots.txt。robots告訴搜索引擎蜘蛛,哪些網(wǎng)站頁(yè)面可以被抓取,哪些禁止抓取。表面來(lái)看,這個(gè)功能作用有限。但是從搜索引擎優(yōu)化的角度來(lái)看,可以通過(guò)屏蔽頁(yè)面,提高蜘蛛的爬行效率,從而達(dá)到集中權(quán)重的作用,所以說(shuō)robots文件還是非常重要的。

  如何自己寫(xiě)robots文件呢?User-agent表示定義哪個(gè)搜索引擎,如User-agent:Baiduspider,定義百度蜘蛛。Disallow表示禁止訪(fǎng)問(wèn)。Allow表示運(yùn)行訪(fǎng)問(wèn)。通過(guò)以上三個(gè)命令,可以組合多種寫(xiě)法,允許哪個(gè)搜索引擎訪(fǎng)問(wèn)或禁止哪個(gè)頁(yè)面。一般寫(xiě)好的robots文件都是放在網(wǎng)站的根目錄下面,這樣方面搜索引擎蜘蛛第一時(shí)間抓取。

  相信通過(guò)以上的文章大家對(duì)于robots文件也有一定的了解,希望大家能好好運(yùn)用。