垃圾信息防不胜防 论坛的安全如何守卫

&">nbsp;   硅谷网讯 长期以来,论坛17828.html">垃圾广告帖铺天盖地,论坛遭受肆无忌惮地恶意攻击,用户账号被盗取屡禁不止,一系列恶劣现象时有发生,一方面网站的内容定位受到严重影响,给用户的正常体验很差,而剔除这些垃圾信息又会增加网站的运营成本;另一方面站长的生存环境受到巨大威胁,广告垃圾信息中经常会出现一些
违法违规的违禁内容,一旦处理不及时会给网站造成负面影响,甚至让网站面临关闭的后果。

 

    如何才能将这些广告帖违规帖等垃圾信息清理干净,保障论坛的纯净和安全,是每一位站长日思夜想的重要课题,几乎令他们寝食难安。

 

    多种手段同时启用 效果仍不理想

 

   
其实,打击和预防论坛广告帖违规帖的方法和手段很多,大部分站长都基本了解,
但是在实际操作过程中发现效果并不理想。

 

    就目前来说,使用最多的方法应该是通过增加注册、登录流程,提高发帖门槛,遏制广告垃圾信息的产生。一般情况下站点会设定用户在论坛注册时需要激活邮件,或者用手机短信验证,以及填写手机号在线申请,然后在论坛后台设置用户发帖的时间间隔、发帖最少字数、发帖验证码等,甚至还有些站点采取禁敏感词封IP的方式来减少垃圾信息。

 

    这些方式在一定程度上能有效
防止论坛垃圾信息的产生,毕竟一个邮箱地址和手机号只能注册一次,灌水机“灌水”成本较高,而敏感词的设定可以直接将违规违法帖子过滤掉。但是对于现在
大量存在的软文类广告帖效果欠佳,因为关键词设置得过多会给用户正常发帖造成
困扰,相反设置得过少又起不到过滤帖子的作用。封IP的方式就更极端了,容易“误杀”,所以以上这些方法虽然很多站点都在使用,也是不得已而为之。

 

    所以综合来看,打击论坛垃圾信息应当从两个维度考虑:效果和用户体验,就是说在做好打击论坛垃圾信息的前提下最大限度的做好用户体验,而以上的一些方法都不同程度地在伤害用户。

 

    温州论坛升级试水
Discuz! X3.1 论坛垃圾信息从70%下降到5%

 

    是否存在一种既能维护好用户体验,同时还能将大量垃圾信息阻隔在论坛之外的方法呢?柒零叁温州论坛的方法或许值得借鉴。早在9月13日,地方社区柒零叁网(www.703804.com)将论坛程序升级为Discuz! X3.1,并启用了Discuz! X3.1针对垃圾防御的各项功能,
几天之后论坛的广告垃圾信息量发生了惊人的变化,恶意帖比例由升级前的70%以上下降到5%以下。  

    据柒零叁网负责人介绍,他们运营论坛
多年,论坛垃圾信息越来越多几乎泛滥,很多方法都试过了但还是防不胜防,效果甚微,这次升级论坛也是抱着试一试的态度,没想到效果这么明显。在将论坛升级为Discuz! X3.1后,他们开启了云验证码、超级防水墙等功能,每天恶意操作拦截从75%一直提升到90%以上,命中了绝大多数恶意注册,登录以及发帖行为,极大地增加了恶意行为实施的成本。

 

    此外,超级防水墙的补杀功能根据检测到的垃圾帖的发帖人以及IP,会在5分钟内再次过滤一遍论坛主题,对于可能漏网的垃圾帖再次精准打击,这样柒零叁网的垃圾帖已经所剩无几。

 

    上面已经提到打击论坛垃圾信息不仅要看效果,也要看用户体验是否得到维护,以下这组数据可以很好地说明,云验证码对于正常用户的操作几乎没有任何负面影响,正常提交用户通过率一直保持在85%~90%之间,而用户首次输入错误率一直维持在2%~4%的极低水平。  

    当然,与论坛恶意行为的对抗是一个长期艰巨的过程,Discuz! X3.1基于云端的防水功能也不是100%,但至少性价比很高,站长不妨兼顾各方面,一方面加强人工审核,完善论坛发帖机制;另一方面通过系统升级,从性能上巩固论坛的防御能力,提升对垃圾信息打击的精准度,全面保障论坛的纯净和安全。

时间: 2024-10-15 08:56:40

垃圾信息防不胜防 论坛的安全如何守卫的相关文章

垃圾信息防不胜防 论坛的安全如何守卫?

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 长期以来,论坛的垃圾广告帖铺天盖地,论坛遭受肆无忌惮地恶意攻击,用户账号被盗取屡禁不止,一系列恶劣现象时有发生,一方面网站的内容定位受到严重影响,给用户的正常体验很差,而剔除这些垃圾信息又会增加网站的运营成本;另一方面站长的生存环境受到巨大威胁,广告垃圾信息中经常会出现一些违法违规的违禁内容,一旦处理不及时会给网站造成负面影响,甚至让网站面临

论坛杜绝注册机群发垃圾信息心得分享

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 BBS以其安装使用方便.交互性强得到众多站长的喜爱,各种行业和地方论坛不断涌现,以此同时各种各样的论坛群发软件也应运而生,一些人为了发布广告的目的利用论坛群发软件到处群发垃圾信息,令人深恶痛绝,防不胜防,相信做过论坛的站长们都深有体会.这些群发软件功能也越来越多,有些能自动注册,自动发帖,甚至有些群发软件号称可以自动识别注册码并自动输入注册码

阻断 PhpBB 论坛垃圾信息发布机的骚扰

  PhpBB是经营线上论坛的人们最喜欢的软件产品.随着散发垃圾信息的人们越来越觉得各种论坛才是他们散发商业信息的绝佳土壤,如何维持他们论坛的完整性也就成了phpBB管理员们最头疼的问题. 我会在下文按字母表的顺序列举对策,并且特别指出那些带有附加功能的方案,还有那些我自己应用过的方案.因为方案的更新,直接给出链接显然不太明智,我会用正式页面替代. 拦截用公用代理注册的人 该措施的主要功能是拦截那些试图从公用代理服务器注册的人.上一次更新是在2005年12月,但是有些人还在用它.我自己是不会使用

兼顾搜索:论坛优化如何应付那些“垃圾”信息

站长为论坛做优化,无非是最费力的,一方面在用户体验上要做的呱呱叫响,另一方面搜索引擎的优化更是要面面俱到.否则介于论坛的特殊性,两者即使缺一,那么也将注定了论坛发展的举步维艰.论坛的发展,什么是阻碍它的绊脚石呢?原因是多方面的.但若兼顾搜索来看,长存于论坛的那些"垃圾"信息无疑是最大的发展壁障.因为一个和谐发展的论坛,"干净"的交流环境是必不可少基础条件,而搜索引擎更是侧重于对"优质"站点的青睐.那么,作为一名论坛站长如何更好应付这些"

论坛优化如何应付那些“垃圾”信息

摘要: 站长为论坛做优化,无非是最费力的,一方面在用户体验上要做的呱呱叫响,另一方面搜索引擎的优化更是要面面俱到.否则介于论坛的特殊性,两者即使缺一,那么也将注定了论坛发 站长为论坛做优化,无非是最费力的,一方面在用户体验上要做的呱呱叫响,另一方面搜索引擎的优化更是要面面俱到.否则介于论坛的特殊性,两者即使缺一,那么也将注定了论坛发展的举步维艰.论坛的发展,什么是阻碍它的绊脚石呢?原因是多方面的.但若兼顾搜索来看,长存于论坛的那些"垃圾"信息无疑是最大的发展壁障.因为一个和谐发展的论坛

百度Web2.0反垃圾攻略打击垃圾信息页面

大家好,我是木子成舟.SEO行业中最怕的就是搜索引擎算法调整,因为一旦算法调整我们就需要针对搜索引擎的算法调整及时的做出转变,然后搜索引擎的算法调整又是真正利用SEO技术做好网站推广工作的福音,因为算法的调整绝对是针对搜索结果质量的调整,针对SEO作弊手法的针对制约,只要我们充分运用好白帽SEO手段,不制造垃圾信息页面,搜索引擎的调整只会利于我们正规SEO的工作. 不知道是不是为了顺应潮流,还是学习跟风,百度在谷歌推出Panda算法和企鹅算法之后,也推出了自己的一套打击垃圾信息页面的算法,主要是

垃圾信息一扫而光 Discuz! X3.1五大防御策略提前曝光

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 还在为网站充斥各种垃圾帖而彻夜难眠吗?还在为网站盗号而烦恼吗?还在为网站验证码形同虚设而痛苦吗?即日起,这如噩梦般的境遇到此结束.来自Discuz! 官方的消息,新版Discuz! X3.1将于9月23日正式上线,并于9月3日开始在Discuz! 官网内测,此版本最大的优势在于,提升论坛防御垃圾帖和恶意注册的能力,为论坛的安全和良好运营提供重

SEOER不要成为互联网垃圾信息的制造者

大家做SEO的目的是什么呢?你是不是每天互联网垃圾信息的制作者呢,或者说是为做SEO而SEO呢,其实现在做SEO己经不同以前了,靠抄袭或伪原创就能给网站做好排名,现需要做SEO的朋友素质也是越来越高了,下面老蔡就跟大家分享一下心得: 1.做SEO的目的? 其实做SEO的目的非常简单,但似乎每个人都很少去深入思考这个问题,就是每天不停的发外链,发伪原创,其实这个问题非常简单,顾名思义,SEO就是搜索引擎优化,提高网站在搜索引擎的排名,提高品牌的知名度和爆光率,促进我们信息.品牌.产品.服务的推广或

SEOer优化造就垃圾信息 搜索引擎应该惩罚

水君SEO认为在网络上最烦的不是通过搜索引擎找不到内容,最烦的应该是搜索引擎提供了很多垃圾信息,而这些垃圾信息正式SEOer们做上去的.如果这些影响了用户体验,那么如果是我,我会让搜索引擎惩罚这些制造垃圾的SEOer的网站. 我想搜索引擎一直通过算法和判定,总结出某些信息的价值意义,从而反应于搜索引擎的结果中.但搜索引擎始终是个机器,再怎么改变都会被SEOer利用,原本搜索引擎是愿意看到SEOer通过合理优化,以便自己抓取到有用的信息,但SEOer总是违背着搜索引擎的意愿.本来找到最有用的信息,