robots.txt主要作用

 二維碼 177
發(fā)表時間:2016-01-21 21:02作者:敖游來源:遨游建站網址:http://aquaponicswiki.com

  有些人會問,既然robots文件沒弄好,或出錯了,會影響整個網站的收錄,那為什么還要這個文件呢?
  其實robots是為有特別情況的站長準備的,因為有些網站,有一些頁面是站長不想被任何搜索引擎收錄的,所以才有了這個robots文件。
  robots.txt文件用法舉例:
  例1、禁止所有搜索引擎訪問網站的任何部分
  User-agent: *
  Disallow: /
  例2、允許所有的robot訪問
  User-agent: *
  Disallow:
 ?。ɑ蛘咭部梢越ㄒ粋€空文件 "/robots.txt" file)
  例3、禁止某個搜索引擎的訪問
  User-agent: BadBot
  Disallow: /
  例4、允許某個搜索引擎的訪問
  User-agent: Baiduspider
  Disallow:
  User-agent: *
  Disallow: /
  例5、假設某個網站有三個目錄對搜索引擎的訪問做了限制,可以這么寫:
  User-agent: *
  Disallow: /cgi-bin/
  Disallow: /tmp/
  Disallow: /joe/
  需要注意的是,對每一個目錄必須分開聲明,而不要寫成:“Disallow: /cgi-bin/ /tmp/”。
  User-agent:后的*(通配符) 具有特殊的含義,代表“any robot”,所以在該文件中不能有 “Disallow: /tmp/*” or “Disallow: *.gif ”這樣的記錄出現。
  另外,robots.txt主要作用是保障網絡安全與網站隱私,百度蜘蛛遵循robots.txt協(xié)議。通過根目錄中創(chuàng)建的純文本文件robots.txt,網站就可以聲明哪些頁面不想被百度蜘蛛爬行并收錄,每個網站都可以自主控制網站是否愿意被百度蜘蛛收錄,或者指定百度蜘蛛只收錄指定的內容。當百度蜘蛛訪問某個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內容來確定訪問的范圍。


廣告投放問題
網站建設問題
小程序設計問題

以信載商,良心建站。遨游始終秉承“一次建站、終身維護”的宗旨,竭誠為客戶提供最優(yōu)質的互聯網服務。遨游建站率先植入seo優(yōu)化理念,讓你的網頁更利于搜索引擎抓取,關鍵詞排名更靠前。可仿站、可定制。無論是傳統(tǒng)型企業(yè)官網、集團型品牌官網,還是營銷型網站、電商型網站、定制型網站、特殊行業(yè)網站(醫(yī)療、教育),全部搞定。

公司:網站建設_小程序設計_競價托管代運營公司;郵箱:1013601535@qq.com

手機:17073547034;QQ: 1013601535

在線留言咨詢,24小時內回復
我想咨詢
*
企業(yè)名稱
手機號碼
*
您的姓名
所在城市
提交
最新發(fā)布
注冊體驗
企業(yè)郵箱
域名注冊
SSL證書
地圖標注
網站備案
服務器
友情鏈接
我們是中小企業(yè)可信賴的合作伙伴!始終專注一件事,一站式互聯網信息技術服務商
17073547034
全國統(tǒng)一服務熱線
遨游建站是全國高端網站建設公司,提供廣州企業(yè)網站建設/小程序開發(fā)/購物網站設計制作與競價托管代運營服務;秉承“一次建站,終身維護”的宗旨,有償提供互聯網技術支持。
本站部分圖片、音頻、視頻來源于網絡,版權歸原作者,如有侵權請聯系我們刪除。