怎样写好网站的robots.txt文件做网站

作者: 日期:2020-08-28 浏览:

怎样写好网站的robots.txt文件做网站

做网站当然希望搜索引擎抓取我们网站的内容,但我们做SEO优化 SEO优化时候并不希望所有的信息都公布于众,比如后台隐私,或者其它一些杂七杂八的信息。
=================================================

那么这时候我们就可以能过robots.txt 文件来控制网站在搜索引擎中的展示,robots.txt是一个纯文本文件,通过在这个文件中声明该网站中不想被搜索引擎 robots 访问的部分。

“*”的一种写法:

=================================================

User-agent: *

Disallow: /ad*

Allow: /ad/img/

Disallow: /*.php$

Disallow: /*.jsp$

Disallow: /*.css$

=================================================

这种写法允许所有蜘蛛访问,但会限制以“ad”开头的目录及文件,并限制抓取.php文件、.jsp文件和.css文件。其中 Disallow: /ad* 会连同附件目录(即你上传的图片、软件等)一起限制抓取,如果想让搜索引擎抓取img目录中的内容,需要将写上第三行“Allow: /ad/img/“

较合理的一种写法:

=================================================

User-agent: *

Disallow: /admin

Disallow: /content/plugins

Disallow: /content/themes

Disallow: /includes

Disallow: /?s=

Sitemap: http://www.ememarket.com/classroom432.aspx

 

=================================================

采用这种写法允许所有搜索引擎抓取,并逐一列举需要限制的目录,同时限制抓取网站的搜索结果,最后一行代码是你网站的 Sitemap 路径,大多数搜索引擎都会识别它。

如果对自己写的robots.txt不放心,建议你使用 Google管理员工具中的工具 -> 测试 robots.txt”来对你的 robots.txt进行测试,确保你的修改正确。

路普建站为郑州网站建设公司,自2007年开始为企业提供以网站建设,网站设计,网站制作为核心的一站式高端建站服务,全程无忧合作,服务客户满意为止!
版权声明:本站文章【平台网站建设有哪些-怎样写好网站的robots.txt文件做网站】,由 河南秒速网络整理发表(信息来自互联网)
网页标签:平台网站建设有哪些
网页地址:https://www.hzmscm.com
主页
电话
微信
联系