版权局:360搜索抓取百度网页快照属侵权

腾讯科技讯 在日前举行的“剑网行动”发布会上,针对百度与360之间的“3B大战”,国家版权局首次进行了表态——360此举不适用“避风港原则”,360要通过网页快照抓取,必须要取得百度公司的授权。

在今年8月29日发生的“3B”大战,曾在业界引起轩然大波。事件起因360综合搜索上线之后,迅速取得10%市场份额,且直接抓取百度网页快照。这引发百度采取反制措施,即用户通过360综合搜索访问百度知道等服务时,将会强行跳转至百度首页。

今年12月21日,版权管理司约谈360和百度负责人,听取百度关于360综合搜索提供百度网页快照的投诉情况和360的申辩意见,指出360综合搜索提供百度网页快照不适用“避风港原则”,对于百度拥有权利的作品,360要通过网页快照抓取,必须要取得百度公司的授权,未经授权随意抓取百度拥有版权的作品属侵权行为。

国家版权局表示,目前360正在按要求进行整改,将视360的整改情况再采取进一步的管理措施。国家版权局同时建议百度加强与360的合作。

国家版权局强调,政府部门规范网络版权秩序,最终目的是要有利于作品有秩序地广泛传播,既不鼓励未经授权传播,也不鼓励防碍作品传播。

所谓的“避风港原则”,是指如果侵权内容既不在ISP(网络服务提供商)的服务器上存储,又没有被告知哪些内容应该删除,则ISP不承担侵权责任。

时间: 2025-01-21 10:37:30

版权局:360搜索抓取百度网页快照属侵权的相关文章

国家版权局裁定360抓取百度内容属侵权

"剑网行动"新闻通气会现场. 12月29日,国家版权局在打击网络侵权盗版专项治理"剑网行动"新闻通气会上指出:360综合搜索提供百度网页快照不适用"避风港原则",对于百度拥有权利的作品,360要通过网页快照抓取,必须要取得百度公司的授权,未经授权随意抓取百度拥有版权的作品属侵权行为. 据了解,国家版权局已经要求360综合搜索进行整改,同时将视360的整改情况再采取进一步的管理措施.这也是自360违规抓取百度内容而引发3B大战以来,国家有关部委的首

版权局首表态:360搜索抓取百度内容须获授权

BiaNews消息12月29日,http://www.aliyun.com/zixun/aggregation/2164.html">国家 版权局等4部门昨日联合展示了2012年"剑网行动"的工作成果和视频网站主动监管工作情况.本次"剑网行动"中,国家版权局共接到 各地版权 行政执法部门报送查办的网络侵权盗版案件282件,关闭违法网站183家. 国家版权局还同时通报了对"3B大战"的最新表态,称360搜索要抓取百度内容需要获得百度

奇虎360 长期违反国际通行的Robots协议强行抓取百度快照内容

针对北京一中院受理奇虎诉百度不正当竞争案一事,百度方面回应称,奇虎360长期违反国际通行的Robots协议强行抓取百度快照内容,严重侵害了百度权益,希望360不要在成天沉迷在口水战中不能自拔. 以下为回应全文: 奇虎360长期违反国际通行的Robots协议强行抓取百度快照内容,不仅严重侵害了百度权益,对用户隐私造成极大危害,也让中国互联网产业整体形象在国际同行中蒙羞.百度起诉360不正当案今年10月已经在北京一中院开庭,相信法律很快会有公正判决! 奇虎360这次借助反诉百度转移视线,掩盖360搜

百度lee:建立符合搜索抓取习惯的网站

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 之前百度站长lee给大家介绍了搜索抓取系统工作原理,根据该工作原理今天简要介绍一下如何建立网站是符合搜索引擎抓取系统习惯的. 1.简单明了的网站结构 Spider抓取相当于对web这个有向图进行遍历,那么一个简单明了结构层次分明的网站肯定是它所喜欢的,并尽量保证spider的可读性. (1)树型结构最优的结构即"首页-频道-详情页&

洪波:搜索抓取应遵守规则 违反协议将致大乱

对于近日奇虎360综合搜索被爆出无视国际通行的Roberts协议,抓取百度.Google等搜索引擎内容,导致众多网站出于安全和隐私考虑不允许搜索引擎抓取的内网信息被泄露一事,资深互联网观察家洪波指出,做搜索就要遵守搜索行业公认的游戏规则,无视规则,肆意违反规则才是真正的不正当竞争,这种行为不能从法律和政府监管上及时制止,将引发行业大乱. 搜索引擎的原理是通过一种爬虫spider程序,自动搜集互联网上的网页并获取相关信息.而鉴于网络安全与隐私的考虑,每个网站都会设置自己的Robots协议,来明示搜

利用PHP抓取百度阅读的方法示例_php技巧

前言 这篇文章主要介绍的是,如何利用PHP抓取百度阅读的方法,下面话不多说,来一起看看吧. 抓取方法如下 首先在浏览器里打开阅读页面,查看源代码后发现小说的内容并不是直接写在页面里的,也就是说小说的内容是通过异步加载而来的. 于是将chrome的开发者工具切到network一栏,刷新阅读页面,主要关注的是XHR和script两个分类下. 经过排查,发现在script分类下有个jsonp请求比较像是小说内容,请求的地址是 http://wenku.baidu.com/content/49422a3

python抓取百度首页的方法

  本文实例讲述了python抓取百度首页的方法.分享给大家供大家参考.具体实现方法如下: ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 import urllib def downURL(url,filename): try: fp=urllib.urlopen(url) except: print('download error') return 0 op=open(filename,'wb') while 1: s=fp.read() if not

工具-【在线等/SEO】抓取百度排名快照的功能?

问题描述 [在线等/SEO]抓取百度排名快照的功能? 实在找不到好的思路去**优化抓取百度排名快照**的功能了, 只有在这里发帖了. 有没有哪位朋友做过这样的功能.或者有没有什么 API 可以接入的. 急,感激不尽.(小弟C币不多,有机会给发红包) PS:现在我通过程序能够抓取到排名的快照数据,但是太慢了.有没有其他方式能够更快的获取到排名的数据. 解决方案 // 我的问题没有描述清楚吗? // 为什么没有人来呢. 解决方案二: // 人呢? 我准备发红包了.

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版_python

百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件. 项目内容: 用Python写的百度贴吧的网络爬虫. 使用方法: 新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行. 程序功能: 将贴吧中楼主发布的内容打包txt存储到本地. 原理解释: 首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了: http://tieba.baidu.com/p/2296712428?see_lz=1&pn=