百度sitemap抓取失败
百度sitemap抓取失败,让站长产生一种烦恼,站长们的网站却还在百度搜索结果中显示sitemap页面的提示。Sitemap对于搜索引擎来说具有什么用呢,据站长们的说法,sitemap是通知搜索引擎,您的网站每一页都会变成一份sitemap.您的网站里遇到的问题,会在百度搜索结果中显示出来,从而方便我们搜索,可是却不知道为何?或者说sitemap效果不好怎么办,百度官方得出这样的答案,即使使用的时候没有发现这些问题,也许抓取下一页才发现出问题,这样网站还在百度搜索结果中显示sitemap并更新过来的问题,面对这些问题我们该如何处理呢?
现在很多的网站都有百度的链接提交功能,也有站长提交自己的链接,提交网站地图的效果肯定不理想,其实原因就和sitemap中的一项内容相同,重要的就是网站地图文件的递交情况,如果在网站上有大量的XML站点地图,百度肯定是不会把这些网站地图提交的。或者说,网站地图文件的地址在什么情况下可以尽量的提交?有些站长虽然提交了网站地图文件,但网站地图文件依然提交不了。这里就要问一下,如果百度蜘蛛发现网站地图文件提交不及时,百度蜘蛛怎么还要来网站吗?需要我们sitemap提交吗?如果可以提交,就要我们网站地图文件的地址?
如果百度蜘蛛不来网站,那你网站地图文件中显示的每个链接都提交不了,只能通过这样的链接提交方式让百度蜘蛛重头到自己的网站,不让这些网站的搜索引擎蜘蛛再继续抓取网站内容的话,这样就好比有些站长在自己的网站上有了大量的百度蜘蛛痕迹,但是sitemap文件没有提交,百度蜘蛛就会放弃抓取网站内容而直接放弃抓取,搜索引擎就会有这样的认识,已经出现了大量的XML站点地图收录不及时,这样的垃圾站点蜘蛛也不会抓取爬行网站。这样的网站百度蜘蛛不会再来网站了,还是需要进行robots协议的检查,屏蔽那些网络蜘蛛痕迹,通过查看网站地图可以让网站的蜘蛛更快的抓取网站内容。
二、分析Robots协议
网站在进行收录之后,需要对网站进行一个检查,看看网站有没有被百度蜘蛛所禁止,Robots协议告知百度蜘蛛对哪些页面不抓取或者抓取的页面不一定是高质量页面,是否有给目标页面排名等问题,如果存在的话,robots就是禁止抓取哪些页面。如果Robots禁止的页面进行了收录,则说明网站能够正常索引,这样的网站,就不需要存在太多的风险。
共有 0 条评论