近日公司某项目被K,网站中大量出现200 0 64的状态码。下面是关于200 0 64 的分析:
首先可以排除网络上的64位操作系统的说法。
sc-win32-status:64的解释(百度搜索sc-win32-status可找到相关解释)
状况描述:
1 200 0 64 服务器未发送字节,也就是蜘蛛未抓取数据
2 200 0 64 所花费的时间是正常200 0 0的几十倍。
3 此情况只有百度出现,同时段google未出现任何200 0 0 64
4 此情况并非集中某一时间段,也并非同一IP蜘蛛
可能原因:
个人觉得与VPS环境有关。因为之前用的虚拟主机并未出现此问题。
为什么google没事?听一个做服务器的朋友说vps技术本身就不太靠谱,难道是百度对这类vps的抓取技术不成熟?
下面摘自网络的一段比较靠谱描述:
百度蜘蛛访问页面时在特定时间内无法完成页面全部数据的接受而最后导致访问页面协议返回正常,但在页面返回全部数据的过程中由于服务器或者网络当时的状况导致失败进而出现了200 0 64现象。而通过我长时间的观察,页面内容越是多的网页,出现这个现象的几率就越大。因此,本人认为解决此类现象的最好方法是通过正确的配置服务器,排除服务器配置原因之后,对网页也要进行适当的优化减肥。这样可以有效的降低出现200 0 64现象
后果:
K站(收录3万左右网站,次日被K只有1000+)
后续。。。。。。。。。。
准备放一个测试站到此vps,观察一周,若再次发现200 0 64基本可证明为服务器故障
常规的解决办法:
首先联系服务商,若服务商不能提供技术支持,只能更换服务器。
评论列表:
lot of completely unique content I've either authored
myself or outsourced but it appears a lot of it is popping it up all over the web without my agreement.
Do you know any techniques to help reduce content from being stolen? I'd
really appreciate it.