如何使用Robots避免蜘蛛黑洞?

2427次閱讀

蜘蛛黑洞:

蜘蛛黑洞指的是網(wǎng)站通過極低的成本運(yùn)營,制造出大量和內(nèi)容相識(shí)但參數(shù)不同的動(dòng)態(tài)URL ,像一個(gè)無限循環(huán)的“黑洞”將蜘蛛困住,蜘蛛花費(fèi)太多的時(shí)間在網(wǎng)站,浪費(fèi)了大量資源抓取的網(wǎng)頁為無效網(wǎng)頁。

如果你的網(wǎng)站存在蜘蛛黑洞現(xiàn)象,盡快的處理好,蜘蛛黑洞不利于網(wǎng)站的收錄,也會(huì)影響搜索引擎對(duì)網(wǎng)站的評(píng)分。

?

如何使用Robots避免蜘蛛黑洞?

如何利用Robots避免蜘蛛黑洞操作:

普通的篩選結(jié)果頁基本都是使用靜態(tài)鏈接,比如:

http:// bj.XXXXX. com/category/zizhucan/weigongcun

當(dāng)用戶選擇不同排序后,會(huì)自動(dòng)生成帶有不同參數(shù)的動(dòng)態(tài)鏈接,即使選擇是同一種排序條件,生成的參數(shù)也有不同的,比如:

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

把帶有不同參數(shù)的結(jié)果排序頁面使用robots規(guī)則拒絕,告知搜索引擎,讓搜索引擎只抓取篩選結(jié)果頁,為用戶和搜索引擎節(jié)省時(shí)間。

?

Robots文件寫法中Disallow: /*?* 禁止訪問網(wǎng)站中所有包含問號(hào) (?) 的網(wǎng)址,通過這種方式,如果網(wǎng)站的無效頁面不希望被搜索引擎收錄,可以屏蔽掉低質(zhì)量的頁面,告訴搜索引擎哪些頁面可以抓取,有效的避免黑洞的形成。

閱讀本文的人還可以閱讀:

Robots.txt 文件應(yīng)放在哪里?

robots.txt文件有什么必要?

robots.txt

本文由夫唯團(tuán)隊(duì)編輯,如發(fā)現(xiàn)錯(cuò)誤,歡迎通過客服微信反饋。

夫唯于2024年12月停止百度SEO研究和培訓(xùn)。道別信: 夫唯:再見了百度SEO!

2025年1月正式啟動(dòng)Google SEO培訓(xùn)課程,一千零一夜帶領(lǐng)大家一起出海。

感興趣的同學(xué),請(qǐng)?zhí)砑诱猩头∧⑿牛簊eowhy2021。 微信掃碼添加客服人員

我們的目標(biāo):讓大家獨(dú)立站出海不再“望洋興嘆”。

国产综合亚洲欧洲区精品无码,欧美一级免费一区二区,精品一级片高清无码,亚洲成片在线无码看 www.sucaiwu.net
Processed in 0.121415 Second , 65 querys.