据中国之声《央广新闻》报道,认为奇虎360抓取复制自己网站的内容构成">不正当竞争,百度公司将奇虎告到北京市第一中级人民法院,索赔1亿元案已正式立案。案件涉及的核心争议是奇虎的作法是否违反行业内的爬虫协议。
百度诉奇虎360违反“Robots协议”,这个协议又被叫做机器人协议或者爬虫协议,也就是搜索引擎抓取网站内容的范围,这个协议作了约定,包括网站是否希望被搜索引擎抓取,哪些内容不允许被抓取,于是网络爬虫依据这个协议的内容“自觉地”来抓取或者不抓取这个网页的内容,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯。在此次索赔案件中,百度就说自己的Robots文本中已设定不允许360爬虫进入,而360的爬虫依然对“百度知道”、“百度百科”等百度网站内容进行抓取,所以提起诉讼。目前百度对360采取了反制措施,如果点击360搜索结果中的百度页面链接,会强制跳转进到百度的首页,而无法进入具体内容页面。
360相关负责人向媒体表示,这个协议是网站指导爬虫的善意的提示性TXT文件,为爬虫做出了提示。它不是法规或标准,也不是合约,不存在违反与不违反的问题。也有人分析认为,这个协议并非什么技术壁垒,而只是一种互相尊重的协议,就形容为比如私家花园的门口挂着“闲人免进”,尊重者绕道而行,不尊重者依然可以推门进入。
但是中国互联网协会有关负责人说,在互联网技术日新月异的时候,法律政策监管常常是滞后的,在法律缺位的情况下,类似这样的协议等国际通行的行业惯例或技术规范,应当得到法律与司法的尊重与支持。中国社会科学院信息化研究中心秘书长姜奇平建议,相关的搜索引擎行业规则和政策法规是亟待制定,而且政府在制定这些政策法规的时候,应站在互联网产业健康发展和个人信息开发、保护全局的高度,将这个协议内容纳入具有强制力的条款中,加强监管。