关键词快速排名优化,按天收费倡导者>>> 网站地图

当前位置: 网站首页 > 网站优化 >

深圳网站优化之死链文件制作及提交

发布时间:2020-07-29 19:49
作者:管理员

发现死链
人工下发现死链,采用sie指令查询收录后发现死链文件,或者在访问自己或外部网站的时候发现自己网站死链文件,均要随手记下。当然人工方法只适合页面比较少的站点。
对于大站点来说显然只是一种补充方案,更好的方法是使用死链检测工具,如Linkheckers或者自已开发爬虫程序遍历整个网站,检测死链。

2.死链提交
百度站长工具提供了3种提交方式。
文件提交:提交txt或xml格式的死链文件。
规则提交:以规则形式批量提交死链,目前支持以斜杠或问号?两种形式结尾的死链规则。

模板提交:提交站点内容死链页面的模板链接,一类内容死链只需提交一条模板链接。(详细内容参考百度站长QA问答规范文件htp/ hanzhang, baidu. com/college/courseinfo?id 
h2 article Title I0)。 

站点地图 Sitemap介绍

站点地图通常有三种后缀,即xml、html、tx,包含网站上的所有链接、图片和文件的索引,并且应该具有与网站同样的结构。站点地图文件通常命名为 Sitemap.xmltampa. html. Sitemap. txt或者是 Sitemap. php,它应该放在Web主机的网站根目录下,以便于搜索引擎能够直接发现该文件。比如,站点地图文件地址可能是www.sitename.comSitemap.xml, SHename com是站长自己的域名。站点地图文件可以手动创建,不过多数情况下是借助于站点地图工具来创建,比如 WordPress就自带有 Google和百度站点地图插件也可以使用免费的站点地图生成器,例如www.xml-Sitemaps.com或者Sitemap。


2.自动生成站点地图
这里以wwwxmk-Sitemaps.com为例来分步介绍如何自动生成站点地图。 
(1)打开浏览器,在地址栏中输入wwxm- Sitemaps. com,进入到站点地图生成页面,
 
(2)可以看到网页上具有" Please enter details for Sitemap generation"的句子,指示用 户需要输入所要生成的XM站点地图的相关信息。其中包含如下4个输入内容。
站点的URL:所要生成站点地图的站点URL更新频率:网站的更新频率,比如可以是每日更新或者是每周更新。最后一次更新时间:既可以选择服务器响应时间,也可以指定一个时间
优先级:指定优先级选项单击 Start按钮,将开始生成站点地图文件, 


(3)生成站点地图完成后,将产生一个站点地图文件的链接,单击这个链接可以下载站点地图XML文件,然后将其上传到网站的根目录下,比如www.yousite.com/Sitemap 
xml, 

可以看到在 Download Sitemap下面有多种不同的站点地图文件,可以将所有的文件下载回来,然后全部上传到网站根目录下。

注意:谷歌站点地图文件为 Sitemap. xml文件,而百度可提交txt和xml格式的地图文件。

站点地图类型

有多种不同类型的站点地图文件可以用来创建和上传到网站服务器。这些地图文件中的每一种都可能包含特定类型的链接。XML站点地图能够包含图片站点地图,它包含了网站上的图片链接和信息。还有一类视频站点地图、新闻站点地图和移动站点地图。站长可以上传多个XM站点地图文件到同样的网站根目录下,并且提交这些站点地图到搜索引擎以吸引蜘蛛。当网站更新后,站长必须也更新并重新上传站点地图文件到网站根目录下,现在有很多工具可以自动产生站点地图文件,并自动更新和提交。
 
 robots.txt文件的制作 

robots.xt文件是一个文本文件,这个文件用来告诉搜索引擎蜘蛛网站的哪些部分应该被抓取,哪些部分不用抓取。比如说,如果有很多网站源文件,抓取可能会增加服务器的负载,且会耗费搜索引擎爬虫的时间来索引网站文件。站长可以使用文本编辑器创建一个名为 robots. txt的文件,比如 Note Pad+或记事本等工具。 

注意: robots. txt实际上是搜索引擎访问网站的时候要查看的第1个文件,当一个搜索蜘蛛访问一个网站时,它会首先检查该站点根目录下是否存在 robots. txt文件,如果存在就会按照该文件中的内容来确定访问的范围。


robots. txt文件制作与上传

打开 Windows的记事本工具,在记事本中添加如下代码,然后将其保存为 robots txt文件。
User-agent 
Disallow: /video/ 
Disallow:/sources/ sources/ 
在记事本编写 robots. txt文件效果。

保存好 robots. txt文件后,将其上传到网站的根目录下,就可以控制搜索引擎蜘蛛的爬行轨迹了

鉴于 robots. txt中包含了很多指令,互联网上也有很多在线的工具用来生成这个文件,如Chinaz的站长工具,网址为http://tool.chinaz.com/robots/因此上面的示例可以用这 个工具轻松实现。

在编写完成后,单击下面的“生成”按钮,将会在页面底部的文本框控件中生成robots. txt文件内容,将其复制到文本文件中并保存,即可创建 robots. txt件。
分享按钮