免费人成网站在线观看不卡-中文字幕av无码一区二区三区-少妇无码太爽了在线播放-久久久久久久久久久久久久动漫

8年
SEO網站優化推廣經驗

haizr.站內優化技巧

站內SEO優化設置技巧分享

填寫您的業務需求

網站robots文件編寫詳解以及注意事項

來源: http://www.xtcyw.cn | 時間:2019.04.22 | 瀏覽數:127

robots.txt文件是一個文本文件,使用任何一個常見的文本編輯器,比如Windows系統自帶的Notepad,就可以創建和編輯它  。robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。

600網站robots文件編寫詳解以及注意事項

        一:學習robots文件編寫,前提是得熟悉網站url和Url的原理以及網站程序目錄。為什么?很簡單蜘蛛是通過url抓取的。文件具體形式,以阿里云主機根目錄為例,格式表示如下:

        技巧:域名=根目錄。

        /htdocs/=域名

        /htdocs/skin/=域名/skin/

        /htdocs/skin/css/=域名/skin/stivle.css/

        二:robots寫法注意點:冒號后面有一個空格 , 必須全英文模式書寫,字母大小寫要注意,這是比較嚴謹的,需要特別注意。例如

        Disallow:  /ab/abc/

        Allow:  /ab/abc/

        User-agent:  Baiduspider

三:操作流程以及寫法:桌面新建一個.txt文件,在文件上寫robots規則。

        1:下面先來看看名詞定義解釋,不同的搜索引擎有不同的蜘蛛。

        【1】:User-Agent:  對蜘蛛進行的規定(1)對百度蜘蛛的規定User-agent:  Baiduspider 。(2)谷歌User-Agent:  Googlebot   (3)必應User-agent:               Bingbot (4)360    User-Agent: 360Spider (5)宜搜User-Agent:   Yisouspider(6)搜狗User-Agent: Sogouspider (7)雅虎User-Agent: Yahoo!               Slurp

         User-Agent:  * 指對所有的蜘蛛

        【2】:Disallow:  指禁止抓取。

        【3】:Allow:  指允許抓取 。

2:寫法:以上三個格式綜合使用,例如:我們要屏蔽/skin/文件夾里面的一部分文件,但是又希望抓取到/skin/文件夾里面的/css/文件夾,書寫技巧:先禁止抓取/skin/文件夾,后面再允許抓取/css/ 文件夾就可以了。

        Disallow: /skin/ 表示禁止抓取/skin/文件夾

        Allow: /css/表示允許抓取/skin/文件夾里面的/css/文件夾

        注意點:前后都有斜杠表示文件夾。

3:符號名詞解釋:

        (1)*通配符 : 代表所有的 。 例如:

          User-Agent: * 就是表示對所有的蜘蛛

          Allow: /skin/* 表示允許包括/skin/文件夾以下的所以文件

        (2)$終止符: 表示結束。例如不允許抓取.js結尾的文件,寫成: Disallow: /*.js$

四:常見屏蔽對象:

        1:中文的鏈接-路徑,抓取不友好,或者我們不需要它來排名。例如屏蔽“聯系我們”:Disallow: /lianxi/

        2:搜索結果頁面,重復的質量低的。例如:

        https://www.shiguangkey.com/course/search?key=%E5%BB%BA%E7%AD%91&cateKey=%E5%BB%BA%E7%AD%91

        https://www.shiguangkey.com/course/search?key=%E4%BD%A0%E5%A5%BD&cateKey=%E4%BD%A0%E5%A5%BD

        技巧:先找到規律。假如我們不允許抓取以下的 ,寫成:  Disallow: /course/search?key=*

        3:動態路徑,鏈接規律:?%/ ?等等  例如屏蔽帶有?號的動態鏈接: Disallow: /*?*

        4:js文件的  Disallow: /*.js$  備注:官方的說法,關于js使用建議

        5:網站的目錄:模板目錄、插件目錄、后臺目錄。。。。。。

(1):wordpress:如圖
562333
(2)織夢程序的。如圖:
55222

五:編寫誤區:

        區別性:例如

        Disallow: /ab=Disallow: /ab*

        Disallow: /ab/ 前后有斜杠的/ab/代表單個文件夾

        Disallow: /ab = Disallow: /* 斜杠代表了整個網站,范圍更廣。

        例:

        Disallow: /ab 這個規則對于以下兩個鏈接都是屏蔽的:Disallow: /abc   Disallow: /ab/123

        Disallow: /ab/ 這個規則,只對 Disallow: /ab/123 生效,對于Disallow: /abc是無效的。

六:網站安全:Disallow: /dede 就知道網站是織夢做的,就會暴露網站程序。

        1:織夢后臺是可以修改程序的,例:Disallow: /dede 把dede改成ffff 即:Disallow: /ffff

        2:wordpress 呢, 例: Disallow: /wp_admin 修改成:Disallow: /*admin

七:檢測:寫完robots文件后,記得檢測一下文件。我們可以到百度站長平臺校驗,地址是:http://ziyuan.baidu.com/robots

八:由于蜘蛛首先抓取的是robots文件,所以我們需要把我們網站地圖【網站鏈接集成】寫入到robots文件里面,可以放在文件最底部,方便蜘蛛更快抓取和更好收          錄。

        總之robots.txt文件是個比較嚴謹,書寫過程嚴格按照規則來,當然最重要的是寫好之后要檢查,以防書寫錯誤,導致蜘蛛抓取不到。

文章標簽:無錫網站優化,關鍵詞優化,關鍵詞排名,海之睿
30 總評論數
留言列表
Loading...
頁 共30
海之睿無錫網站SEO優化推廣營銷公司

—— 海之睿微信公眾號 ——

海之睿SEO優化推廣申請

  • 公司名稱
  • 姓名
  • 手機號
  • 聯系郵箱
  • 推薦人

    無推薦人的話寫:無

*為了準確獲取解決方案,請注意填寫有效信息!

主站蜘蛛池模板: 灌云县| 阜康市| 揭东县| 垫江县| 泗阳县| 额济纳旗| 大田县| 新昌县| 义马市| 峨眉山市| 南开区| 宿州市| 洛宁县| 双峰县| 北碚区| 晋宁县| 阿瓦提县| 阿拉善左旗| 高邑县| 台安县| 鹤岗市| 牡丹江市| 芒康县| 吉木乃县| 吉安市| 哈密市| 新营市| 凤庆县| 清河县| 岱山县| 桓台县| 西乌| 吉安市| 永靖县| 贵定县| 绥宁县| 裕民县| 永兴县| 宁国市| 六安市| 天长市|