什么是百度spider?
百度spider是百度搜索引擎的自動程序,主要是訪問互聯網上的網頁,建立索引數據庫,讓用戶在百度搜索引擎中能訪問到你的網站。
?
百度spider遇到的問題有哪些?
1、為什么spider一直抓取網站?
答:如果你的網站上不斷的產生新的頁面,spider就會持續(xù)的抓取??梢酝ㄟ^觀察網絡日志spider訪問是否正常,會出現惡意冒充spider來抓取網站,如果發(fā)現異常,可以在百度搜索資源平臺反饋中心反饋。
?
2、網站上某些頁面不想被spider訪問,要怎么處理?
答:網站不想被spider抓取的頁面,可以利用robots.txt文件禁止spider訪問。
?
3、網站已經加了robots.txt,為什么還能在百度搜索出來?
答:搜索引擎索引數據庫更新需要時間。雖然網站上設置了robots.txt禁止spider訪問,但在百度搜索引擎數據庫中已經建立的網頁索引信息,短時間內不能快速清除的,也可以檢查robots設置是否正確。
?
4、網站的內容只想被百度索引,不想被快照保存。
答:可以使用meta robots協議。在網頁中設置meta,百度顯示只對該網頁建索引,不會在搜索結果中顯示網頁快照。
?
5、為什么spider抓取會造成寬帶堵塞?
答:正常抓取的情況下是不會造成寬帶堵塞的現象,除非是有人冒充spider抓取網站。如果遇到這類現象,提供網站該時段的訪問日志給百度搜索資源平臺反饋中心。
?
百度spider會遇到的問題總結了以上五點,問題是源源不斷的,后續(xù)還會繼續(xù)給大家總結更多的問題以及解決方案。
閱讀本文的人還可以閱讀: