怎么样做一个让搜索引擎喜欢的网站

(3)
主页 > SEO > SEO技术 > 阅读: 作者: CRAZYSEO 发布日期: 2017-03-09 14:16:37
SEO诊断、外包、顾问业务 请联系QQ:3534790242
怎么样做一个让搜索引擎喜欢的网站 如何做一个让搜索引擎喜欢的网站,我们就要学会换位思考,从搜索引擎蜘蛛的角度去看待一个网站的页面结构,在蜘蛛在我们网站的爬行遇到什么...

怎么样做一个让搜索引擎喜欢的网站

如何做一个让搜索引擎喜欢的网站,我们就要学会换位思考,从搜索引擎蜘蛛的角度去看待一个网站的页面结构,在蜘蛛在我们网站的爬行遇到什么问题,如何解决这些问题让我们的网站最适合百度蜘蛛的爬行和抓取。

 

A.搜索引擎蜘蛛能不能找到网页。要想让搜索引擎发现我们网站的首页,就必须要有外链的链接来连接到我们网站的首页,找到了网站的首页后,蜘蛛就能沿着链接找到网站更深的内容页,网站的结构就要做的比较良好符合逻辑,并且保证网站的页面没有死链。

 

B.找到了你的网站页面后能不能抓取。被百度蜘蛛发现的URL是必须可以被搜索引擎抓取的,数据库的动态生成带有相对过多的参数的URL、FLASH、FRAME、大量的复制内容等等都可能导致你的网站被搜索引擎讨厌。如果你不希望搜索引起收录你一些站的页面的话你可以活用robots这个标签。

 

C.提取有用的信息。HTML代码要尽量精简、关键词在整个网站的合理布局、一些重要标签的撰写、起码的兼容性等可以帮助搜索引擎理解网站的页面内容,提取相对有用的信息。我们要做的就是做一个清晰的导航系统们这是对网站信息架构、用户体验影响重大的。SEO也会越来越成为导航设计所考虑的因素之一。当然子域名和目录的设置也比较重要,子域名的使用会使网站变的很多,每个子域名的网站变的很小,而目录却可以让一个网站越做越大,所以一些大型门户站信息站就是目录得到了充分利用的体现。

 

D.了解搜索引擎蜘蛛。当引擎蜘蛛爬行一个网站的时候,它需要爬行的信息首先就是站内的结构,检查站内结构是否通畅,当蜘蛛爬行网站看完结构辨认是通畅的,那么它下面要做的就是判断站内信息的新鲜度,根据信息的新鲜程度进行采集,当蜘蛛把采集到的网站信息带到服务器的时候,服务器会根据文章的价值,做排名处理。根据这些特性,我们可这样做:

 

1.尽量使用静态网站,动态网站中蜘蛛不能识别的东西应做好文字注释;

 

2.站内资源尽量原创,重复内容蜘蛛不会收录的;

 

3.做好适当的关键词、权重网页等信息,不误导蜘蛛;

 

4.蜘蛛会定时爬行网站,网站更新时尽量把握在每天的同一个时间。

 

 E.吸引蜘蛛爬行自己网站。吸引蜘蛛最好的办法是写软文,软文不仅是高质量的外链,也是吸引蜘蛛爬行本站的一种方法,当我们吧写好的原创文章发布到一些权重比较高的网站时(一般权重高的网站蜘蛛会爬行的比较频繁),蜘蛛爬行时就会发现你的文章,然后循着软文中的连接地址进入你的网站,这时蜘蛛开始判断你的网站资源,然后根据你的文章的锚链接,关键词抓取你的网站。

 

说到这里,CRAZYSEO工程师提醒大家,尽量不要使用伪原创工具,虽然这些工具会很节省时间,但是网上大多数软件蜘蛛们都免疫了,它们有它们自己的算法,然后按照算法识别你的文章是否用机器伪原创了,如果有的话,蜘蛛是照样不会收录你的文章。当蜘蛛爬行完你网站后就会把采集到内容带到服务器然后进行收录,然后就会因为站内文章出现的关键词和链接地址进行提高你网站排名的工作,蜘蛛爬行的过程如下。

 

1.在一些权重比较高的原创网站上发布原创文章,然后在文章的最后加入关键词和链接地址,吸引蜘蛛爬行自己网站;

 

2.蜘蛛进入我们的网站,检查网站相关信息;

 

3.蜘蛛确认爬行,查看网站的整体结构是否符合标准,具体标准如下:

 

(1)title中嵌入关键词,关键词排序从短到长排序,做百度SEO的话就用“_”分隔符,如果做GoogleSEO就用“,”分隔符。

 

(2)meta中的keyword和desc ription,keyword和desc ription的信息,keyword写关键词,而desc ription写描述。

 

(3)网站页面中出现的图片加alt,在每一个图片中嵌入一个关键词,尽量简单描述清楚。

 

(4)次导航,在首页只出现次导航的话不会有提高首页权重的效果,次导航要用关键词命名,每一个关键词要嵌入一个超链接。

 

(5)友情链接,链接一些和本站相关,权重较高的网站。

 

4.看完代码下面蜘蛛产看网站内容,文章尽量是原创,如果不是原创可以手动伪原创,不要用机器进行伪原创就可以了,每天更新文章的时间要固定,慢慢的就可以培养蜘蛛对网站爬行了…

相关文章

QQ咨询