QQ在線客服

當(dāng)前位置:首頁> 建站> SEO

robots禁止后還能索引收錄,是什么原因?

2019-07-09 10:53 來源: qclog 瀏覽(742)人   

SEO優(yōu)化中很多細(xì)節(jié)容易被人忽略,比方說robots文件。如果網(wǎng)站的robots協(xié)議文件禁止了搜索引擎蜘蛛,那么無論你怎么優(yōu)化都不會(huì)被收錄。

有時(shí)候不希望搜索引擎抓取某些內(nèi)容可以寫robots.txt文件放到根目錄,按理蜘蛛會(huì)首先讀取這個(gè)文件,按照robots協(xié)議抓取相應(yīng)的內(nèi)容。https://www.idiancai.com

但很多時(shí)候搜索引擎抓取收錄了你 robots.txt 不允許抓取的內(nèi)容,不是因?yàn)闄C(jī)器人不遵守,而是從抓取到索引到展現(xiàn)這個(gè)過程需要一段時(shí)間,當(dāng)搜索引擎已經(jīng)抓取了,你才更新,那么之前抓取的是不會(huì)那么快刪掉的,刪除周期并不規(guī)律,一般是算法更新后生效的情況多些。但是許多站長們發(fā)現(xiàn),蜘蛛并不太遵守這個(gè)協(xié)議。

下面說下幾個(gè)新手可能會(huì)需要的信息。

1、robots.txt 怎么寫?在線配資平臺

各大搜索引擎的站長平臺(英文叫 webmasters )都有詳細(xì)說明,也有生成工具。

2、怎樣確定 robots.txt 有效?

站長平臺都有抓取 robots.txt 的工具,也會(huì)有“抓取工具”來確認(rèn)某個(gè)頁面是不是可以正確抓取。

3、怎樣通知搜索引擎 robots.txt 已更新?股票配資

和上面的一樣,通過站長平臺的抓取工具重新抓?。ㄓ械氖恰案隆保┘纯伞?/p>

4、讓搜索引擎抓取了不應(yīng)該抓取的內(nèi)容怎么辦?

5、整站禁止抓取,如何操作更有效?

有的搜索引擎索引是不遵守 robots.txt 的,只有在展現(xiàn)的時(shí)候遵守,也就是說,就算你 robots.txt 寫明了禁止抓取,你會(huì)發(fā)現(xiàn)還是有機(jī)器人來爬。

所以如果是大目錄或者是整站禁止抓取,建議在服務(wù)器軟件(如 nginx)的代碼段中直接判斷搜索引擎 UA 并返回錯(cuò)誤代碼。這樣一方面可以減輕服務(wù)器壓力,一方面可以真正禁止抓取。


【版權(quán)與免責(zé)聲明】如發(fā)現(xiàn)內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息發(fā)郵件至 kefu@2898.com ,我們將及時(shí)溝通與處理。 本站內(nèi)容除了2898站長資源平臺( www.afrimangol.com )原創(chuàng)外,其它均為網(wǎng)友轉(zhuǎn)載內(nèi)容,涉及言論、版權(quán)與本站無關(guān)。
投稿

關(guān)注我們

站長資源平臺微信公眾號

微信二維碼