解决网页快照不显示问题的有效方法
解决网页快照不显示问题的有效方法
1、利用robots屏蔽服务器设置。如果网站没有设置robots文件,可以用网站的百度站长工具检查一下,看看蜘蛛抓取了哪些文件。
2、更换robots文件。如果没有设置,可以尝试使用robots文件屏蔽掉。
3、更换域名。域名更换后,可以使用其他的DNS域名访问你的网站。
4、百度站长工具提交网站链接。只要提交成功,百度蜘蛛也可以访问你的网站。
5、利用抓取诊断工具检查是否存在死链。如果存在死链,还可以到百度站长工具的死链提交处进行检查。
6、重新提交网站地图。制作一个XML的地图,上传到网站根目录。同时提交给百度,更新网站地图,保证蜘蛛的频繁访问。
7、多个空间商的网站上传网站地图。注意同一个服务器的网站地图只能设置一个网站地图,百度蜘蛛会更加频繁访问你的网站。
8、robots文件设置错误。如果你网站的robots文件设置错误,百度蜘蛛可能会很短时间抓取错误的网站地图,这样会导致百度蜘蛛抓取不到。
9、利用301重定向。让www和不带www的域名转移到带www的域名上,百度蜘蛛会更加频繁访问带www的域名,这样会导致百度蜘蛛抓取不到www的网站地图。
10、删除已添加robots文件的网站地图。如果你网站中存在已添加robots文件,则可以将这些删除掉。
11、使用百度自动推送。百度自动推送有两种:主动推送和百度自动推送。第一种是主动推送,主动推送可以向百度推送数据,让蜘蛛自动完成抓取工作。第二种是百度自动推送,百度搜索会自动抓取这部分内容。
12、清除不需要的HTTP404错误。如果你网站上有一些未知或者某些页面,尤其是动态网页,需要进行HTTP404页面设置,防止百度蜘蛛再次访问这个页面时出现错误。
13、注意robots文件的设置。除了我们经常用的百度自动推送,我们还可以设置robots文件的名称、日期、用户名、日期等,让百度蜘蛛可以更好地了解这个网站的情况。
14、Robots文件的写法。很多新手网站,禁止蜘蛛抓取网站内容,都是用CSS来写,百度蜘蛛不认识这个代码,所以他们不会抓取网站内容。对于这种情况,我们可以将网站的robots.txt设置成百度蜘蛛能接受的格式,或者使用网站地图。
15、网站地图的制作方法。我们都知道,网站地图的主要作用是引导百度蜘蛛。
共有 0 条评论