网站索引量下降常见原因及解决方案( 二 )


解决:国内主机备案 , 合法符合政策经营
3、网页模板相关
【主体内容区域对蜘蛛的限制】
解决:取消登陆查看信息等限制 , 让蜘蛛便捷畅快的“采集”到己站数据
【启用了对蜘蛛不友好的技术】
解决:对需要蜘蛛识别的内容 , 不要启用对蜘蛛不友好的技术来调用 。
【响应式模板干扰蜘蛛识别页面类型(pc、移动)】
解决:提交特定的url对应关系(尽量parrten级);meta标记移动版本url及适合浏览的设备;自主适配;增强pc、移动不同模板源码标签的区分度 , 帮助百度识别页面类型
4、源码相关
【源码错误较严重 , 如编码错误、标签使用错误等;源码改动严重 , 蜘蛛“采集”数据后重新观察分析;某类url下的TD(网页title、description)变化 , 如变化比例大、变化页面量大 , 页面进行更改后会重走建索引库流程 , 如果页面质量达不到建索引库标准会从线上消失】
解决:校验源码 , 准确的源码是蜘蛛“采集”数据进行分析的基础;link内链结构、url地址形式、页面主题、页面各区域html标记等尽量维持改动前的情况;逐步、分期更换TD(网页title、description) , 结合页面主题、用户实际需求来制定合理的TD , 不欺骗不误导用户 。
5、已入库的url对蜘蛛状态有变化
【robots声明 , 禁止蜘蛛抓取】
解决:查看百度搜索资源平台工具robots及抓取情况 。
【url规则变化 , 原有url无法访问】
解决:特别是linux和win服务器之间的数据迁移 , 可能会出现大小写url支持变化 , 确保各类url规则不变化 。url必须重构的时候 , 做好旧新url301重定向 , 站长工具提交改版需求 。
【提示错误页面】
解决:由于误删 , 则可以数据恢复 , 并维持url对应网页内容的更新变化 , 提高抓取频次 。如果确定要删除 , 那么提交死链 , 删除死链后 , 再robots禁止 , 这种情况的索引下降无需担忧 。
【被入侵】
解决:防止url对蜘蛛进行非法跳转操作;防止url对应的网页内容对蜘蛛出现内容大变化 , 特别是一些违法乱纪的内容
6、DNS、服务器问题
【DNS问题】
dns不稳定;dns不安全
解决:选择可靠的dns服务;沟通强调对蜘蛛的稳定性;防止dns解析到非正常ip;防止解析的网站ip频繁变动 。防止dns管理漏洞 , 导致被恶意解析;防止dns解析挂靠在小代理等技术能力、管理规范、道德法律约束都欠缺的平台上 。
【服务器问题】
A、可访问性差
解决:尽量让目标地区所有运营商来路的用户都能在3秒内打开网站 , 最佳1秒内;监控网站运行状态 , 合理设置目标地区的所有运营商监控节点及监控项目、监控频率
B、屏蔽百度ua或ip
解决:多利用搜索资源平台工具——抓取诊断 , 查看百度抓取网页的情况 。
C、防刷压力值设定
解决:将蜘蛛解析到专用空间;如出现访问陡增的ip , 查看是否为蜘蛛再确定是否禁止访问 。
三、导致百度索引量下降的常见原因——百度方原因
1、配额再分配
同类数据量接近索引分配总额 , 配额量再分配 , 有升的就会有降的
解决:超过竞品 , 争取高额分配 。
2、数据异常错误
A、错误惩罚
应对某类作恶行为而新算法上线 , 但由于蝴蝶效应 , 导致部分站点被错误惩罚而清除大量索引 。
解决:反馈百度方 , 请求解除惩罚 。
B、地区性数据异常
部分地区数据抓取或查询异常 , 导致误判站点情况而清除相应索引数据或输出错误索引量 , 如百度dns系统升级事件 。
解决:反馈百度方 , 由百度检查各地蜘蛛执行情况 。