关键词快速排名优化,按天收费倡导者>>> 网站地图

当前位置: 网站首页 > 网络推广 >

网页大小对SEO的影响

发布时间:2020-07-29 17:50
作者:管理员

网页大小可以用文件大小(单位KB)来表示,也可以用字数来表示,这是由页面中的文字与代码决定的。在2003年时,搜索引擎对过大的网页很敏感,在网络上一直流传着个说法,超过A00KB的页面内容收录不全,可能是当时带宽比较窄,搜索引擎抓取较大的数据会有负担。如今,带宽都比较宽,信息量也比较大,门户网站的首页大小多在100KB以上。

网站首页较大,这是正常的,但具体内容页面,则应该追求精简,过大的页面不仅打开速度会下降,在搜索排名中还要落后于较小的页面。有许多方法可以让网页变得更小,如可以采用压缩页面代码、内容分页等手段去处理,也可以使用网页“减肥”软件等工具进行自动处理。新闻中心在搜索结果中所呈现的内容。



如何使用 robots. txt robots. txt是一个纯文本文件,当一个搜索 robot访间一个站点时,它首先爬行来检查该站点根目录下是否存在 robots txt。如果存在,搜索 robot就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索 robot就沿着链接抓取。


robots. txt必须放置在一个站点的根目录下,而且文件名必须全部小写。< meta name=" robots" content="al">指令表示搜索 robot可以沿着该页 面上的链接继续抓取下去。那么如何设置网站中不想被 robot访间的部分呢?2008年传得沸沸扬扬的淘宝和百度决裂事件之后,不少人都发现在淘宝的目录下出现了阻止百度搜索引擎抓取的命令。

这样的类似指令是如何实现的呢?首先创建一个纯文本文件 robots. txt,在这个文件中声明该网站中不想被 robot访问的部分。 robots txt文件应该放在网站根目录下。bots. txt文件包含一条或更多的记录,这些记录通过空行分开(以crl、或n作为结束符),每条记录的格式为"<field>: <optionalspace><value><optionalspace> 在该文件中可以使用“#”进行注解,具体使用方法和UNⅨ中的惯例样。

该文件中的记录通常以一行或多行 User-agent开始,后面加上若干Disallow行,详细情况如下。 ●User- agent 该项的值用于描述搜索引擎 robot的名字。在 robots. txt文件中,如果有多条 User-agent记录,说明有多个obot会受到该协议的限制。对该文件来说,至少要有一条 User-agent记录。如果该项的值设为“*”,则该协议对任何 robot均有效,在 robots. txt文件中, User-agent:这样的记录只能有一条。


 ● Disallow 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的。任何以 Disallow开头的URL均不会被robot访问到。例如 Disallow:/hep对 help. html和 help/index. html都不允许 搜索引擎访问,而 Disallow:hep则允许 robot访问 help. html,而不能访 间 help/index. html任何条 Disallow记录为空,说明该网站的所有部分都允 许被访问。在 robots. txt文件中,至少要有一条 Disallow记录。如果 robots.wt 是个空文件,则对于所有的搜索引擎 robot,该网站都是开放的。
分享按钮