robots禁止后還能索引收錄,是什么原因?
SEO優(yōu)化中很多細(xì)節(jié)容易被人忽略,比方說robots文件。如果網(wǎng)站的robots協(xié)議文件禁止了搜索引擎蜘蛛,那么無論你怎么優(yōu)化都不會(huì)被收錄。
有時(shí)候不希望搜索引擎抓取某些內(nèi)容可以寫robots.txt文件放到根目錄,按理蜘蛛會(huì)首先讀取這個(gè)文件,按照robots協(xié)議抓取相應(yīng)的內(nèi)容。https://www.idiancai.com
但很多時(shí)候搜索引擎抓取收錄了你 robots.txt 不允許抓取的內(nèi)容,不是因?yàn)闄C(jī)器人不遵守,而是從抓取到索引到展現(xiàn)這個(gè)過程需要一段時(shí)間,當(dāng)搜索引擎已經(jīng)抓取了,你才更新,那么之前抓取的是不會(huì)那么快刪掉的,刪除周期并不規(guī)律,一般是算法更新后生效的情況多些。但是許多站長們發(fā)現(xiàn),蜘蛛并不太遵守這個(gè)協(xié)議。
下面說下幾個(gè)新手可能會(huì)需要的信息。
1、robots.txt 怎么寫?在線配資平臺
各大搜索引擎的站長平臺(英文叫 webmasters )都有詳細(xì)說明,也有生成工具。
2、怎樣確定 robots.txt 有效?
站長平臺都有抓取 robots.txt 的工具,也會(huì)有“抓取工具”來確認(rèn)某個(gè)頁面是不是可以正確抓取。
3、怎樣通知搜索引擎 robots.txt 已更新?股票配資
和上面的一樣,通過站長平臺的抓取工具重新抓?。ㄓ械氖恰案隆保┘纯伞?/p>
4、讓搜索引擎抓取了不應(yīng)該抓取的內(nèi)容怎么辦?
5、整站禁止抓取,如何操作更有效?
有的搜索引擎索引是不遵守 robots.txt 的,只有在展現(xiàn)的時(shí)候遵守,也就是說,就算你 robots.txt 寫明了禁止抓取,你會(huì)發(fā)現(xiàn)還是有機(jī)器人來爬。
所以如果是大目錄或者是整站禁止抓取,建議在服務(wù)器軟件(如 nginx)的代碼段中直接判斷搜索引擎 UA 并返回錯(cuò)誤代碼。這樣一方面可以減輕服務(wù)器壓力,一方面可以真正禁止抓取。