问题描述
紧急求助,在做Findbugs的一个活一直搞不懂,分析bug的时候,有个设定,就是分析精度(analysiseffort)选择Default和Minimal或者Maximal之间有啥区别。比如说,我选择Default的时候,跑出来的结果是一种;如果选择Minimal跑出来的结果又是一种。那么请问,1,如果我设定Default的时候,findbugs根据什么分类这些结果的呢,哪些问题他会分析出来,哪些分析不出来,这个根据是什么啊?2,有没有大拿能给一个findbugs使用的详细的说明,主要是分析精度方面的解释。万分感谢!
解决方案
解决方案二:
一个很好的代码质量管理的工具软件:http://blog.csdn.net/jruler/article/details/44061937
解决方案三:
去官网帮着查了一下操作手册http://findbugs.sourceforge.net/manual/running.html-effort:minThisoptiondisablesanalysesthatincreaseprecisionbutalsoincreasememoryconsumption.YoumaywanttotrythisoptionifyoufindthatFindBugsrunsoutofmemory,ortakesanunusuallylongtimetocompleteitsanalysis.-effort:maxEnableanalyseswhichincreaseprecisionandfindmorebugs,butwhichmayrequiremorememoryandtakemoretimetocomplete.大意就是:min的时候会降低一些精度,仅在你使用FindBugs时,出现内存耗尽或者非常长的时间都没有输出结果时使用。看了一下老外们好像也有类似的疑问,官网上有人回答说:Default在大多数情况下和Maximal的输出差不多没有人给予特别详细的回复,官网上的Bug描述也没有明确指出哪些Bug在什么级别下输出http://findbugs.sourceforge.net/bugDescriptions.html由于是开源软件,如果非要知道的话,估计自己检索一下那个effort参数可能能研究出来一些结果,但是可能会非常花费时间一般的项目,用这个工具;都得根据项目要求,配置一下过滤器然后max+low,把过滤器中指定的所有的Bug都找出来……http://findbugs.sourceforge.net/manual/filter.html#d0e2255