robots.txt:如何讓搜索引擎不要抓取沒用的頁面

1483次閱讀

robots.txt.

| 什么是robots文件?

Robots是站點與spider溝通的重要渠道,是網(wǎng)站與搜索引擎爬蟲之間的協(xié)議,告知哪些可抓取哪些不允許。


| 為什么要做robots文件?

網(wǎng)站上總有一些頁面是禁止蜘蛛抓取的。例如:搜索頁面、篩選頁面、后臺登錄地址等。


| 如何制作 robots文件?

編寫robots.txt文件并上傳到網(wǎng)站根目錄。

 

| 制作 robots.txt注意事項

● 所有搜索引擎則用星號表示

● Allow(允許)和Disallow(不允許)優(yōu)先級

● 至少屏蔽一個,可以屏蔽:搜索結(jié)果頁面/404頁面

● 記得將sitemap放到Robots文件中

● 可以陸續(xù)放入更多,而不是一次性決定所有

● 網(wǎng)站后臺地址/圖片地址/下載文件地址/錯誤鏈接

 

本文的視頻課程地址:https://ke.seowhy.com/play/9492.html

閱讀本文的人還可以閱讀:

什么是robots文件?設(shè)置搜索robots協(xié)議的后果

robots.txt文件用法舉例,百度官方資料截圖版

robots.txt概念和10條注意事項

Robots.txt 文件應(yīng)放在哪里?

如何使用Robots避免蜘蛛黑洞?

本文由夫唯SEO特訓(xùn)營編輯整理。

搜外專注SEO培訓(xùn)和SEO周邊Saas服務(wù)解決方案,10年來超過五萬學(xué)員在此獲得技術(shù)提升和人脈圈子。

SEO課程包含移動搜索、零基礎(chǔ)建站、群站SEO思維、搜外6系統(tǒng)、SEM入門等。

192期A班報名時間7月1日-7月15日,請?zhí)砑诱猩头∧⑿牛簊eowhy2021。 微信掃碼添加客服人員

我們的目標(biāo)是:讓非技術(shù)人員輕松學(xué)會互聯(lián)網(wǎng)技術(shù)。

  • 搜外會員SEO交流群(免費)

    微信掃碼添加客服人員
  • 小程序運營交流群(免費)

    微信掃碼添加客服人員
  • 搜外會員SEM競價交流群(免費)

    微信掃碼添加客服人員
  • 夫唯學(xué)員SEO交流群(VIP)

    微信掃碼添加客服人員

掃碼獲取資源

微信掃碼添加客服人員
  • SEO技術(shù)實戰(zhàn)微信群

    微信掃碼添加客服人員
  • 大站流量總監(jiān)群(審核身份)

    微信掃碼添加客服人員
  • Google獨立站英文SEO群

    微信掃碼添加客服人員
  • SEO團(tuán)隊KPI管理表格

    微信掃碼添加客服人員
  • 工業(yè)品網(wǎng)站友情鏈接群

    微信掃碼添加客服人員
  • 本地生活服務(wù)業(yè)友鏈群

    微信掃碼添加客服人員

跟夫唯老師系統(tǒng)學(xué)習(xí)群站SEO
成為互聯(lián)網(wǎng)運營推廣大咖

掌握SEO技巧、建站前端、群站霸屏、SEM入門、新聞源推廣……
Processed in 0.118227 Second , 41 querys.