Python机器学习实战:信用卡欺诈检测

故事背景:原始数据为个人交易记录,但是考虑数据本身的隐私性,已经对原始数据进行了类似PCA的处理,现在已经把特征数据提取好了,接下来的目的就是如何建立模型使得检测的效果达到最好,这里我们虽然不需要对数据做特征提取的操作,但是面对的挑战还是蛮大的。


  1. import pandas as pd 
  2.  
  3. import matplotlib.pyplot as plt 
  4.  
  5. import numpy as np 
  6.  
  7. from sklearn.cross_validation import train_test_split 
  8.  
  9. from sklearn.linear_model import LogisticRegression 
  10.  
  11. from sklearn.cross_validation import KFold, cross_val_score 
  12.  
  13. from sklearn.metrics import confusion_matrix,recall_score,classification_report  

数据分析与建模可不是体力活,时间就是金钱我的朋友(魔兽玩家都懂的!)如果你用Python来把玩数据,那么这些就是你的核武器啦。简单介绍一下这几位朋友!

  • Numpy-科学计算库 主要用来做矩阵运算,什么?你不知道哪里会用到矩阵,那么这样想吧,咱们的数据就是行(样本)和列(特征)组成的,那么数据本身不就是一个矩阵嘛。
  • Pandas-数据分析处理库 很多小伙伴都在说用python处理数据很容易,那么容易在哪呢?其实有了pandas很复杂的操作我们也可以一行代码去解决掉!
  • Matplotlib-可视化库 无论是分析还是建模,光靠好记性可不行,很有必要把结果和过程可视化的展示出来。
  • Scikit-Learn-机器学习库 非常实用的机器学习算法库,这里面包含了基本你觉得你能用上所有机器学习算法啦。但还远不止如此,还有很多预处理和评估的模块等你来挖掘的!
  • data = pd.read_csv("creditcard.csv") data.head()

首先我们用pandas将数据读进来并显示最开始的5行,看见木有!用pandas读取数据就是这么简单!这里的数据为了考虑用户隐私等,已经通过PCA处理过了,现在大家只需要把数据当成是处理好的特征就好啦!

接下来我们核心的目的就是去检测在数据样本中哪些是具有欺诈行为的!


  1. count_classes = pd.value_counts(data['Class'], sort = True).sort_index() 
  2.  
  3. count_classes.plot(kind = 'bar') 
  4.  
  5. plt.title("Fraud class histogram") 
  6.  
  7. plt.xlabel("Class") 
  8.  
  9. plt.ylabel("Frequency" 

千万不要着急去用机器学习算法建模做这个分类问题。首先我们来观察一下数据的分布情况,在数据样本中有明确的label列指定了class为0代表正常情况,class为1代表发生了欺诈行为的样本。从上图中可以看出来。。。等等,你不是说有两种情况吗,为啥图上只有class为0的样本啊?再仔细看看,纳尼。。。class为1的并不是木有,而是太少了,少到基本看不出来了,那么此时我们面对一个新的挑战,样本极度不均衡,接下来我们首先要解决这个问题,这个很常见也是很头疼的问题。

这里我们提出两种解决方案 也是数据分析中最常用的两种方法,下采样和过采样!

先挑个软柿子捏,下采样比较简单实现,咱们就先搞定第一种方案!下采样的意思就是说,不是两类数据不均衡吗,那我让你们同样少(也就是1有多少个 0就消减成多少个),这样不就均衡了吗。

很简单的实现方法,在属于0的数据中,进行随机的选择,就选跟class为1的那类样本一样多就好了,那么现在我们已经得到了两组都是非常少的数据,接下来就可以建模啦!不过在建立任何一个机器学习模型之前不要忘了一个常规的操作,就是要把数据集切分成训练集和测试集,这样会使得后续验证的结果更为靠谱。

在训练逻辑回归的模型中做了一件非常常规的事情,就是对于一个模型,咱们再选择一个算法的时候伴随着很多的参数要调节,那么如何找到最合适的参数可不是一件简单的事,依靠经验值并不是十分靠谱,通常情况下我们需要大量的实验也就是不断去尝试最终得出这些合适的参数。

不同C参数对应的最终模型效果:


  1. C parameter: 0.01 
  2.  
  3. Iteration 1 : recall score = 0.958904109589  
  4. Iteration 2 : recall score = 0.917808219178  
  5. Iteration 3 : recall score = 1.0  
  6. Iteration 4 : recall score = 0.972972972973  
  7. Iteration 5 : recall score = 0.954545454545 
  8.  
  9. Mean recall score 0.960846151257 
  10.  
  11. C parameter: 0.1 
  12.  
  13. Iteration 1 : recall score = 0.835616438356  
  14. Iteration 2 : recall score = 0.86301369863  
  15. Iteration 3 : recall score = 0.915254237288  
  16. Iteration 4 : recall score = 0.932432432432  
  17. Iteration 5 : recall score = 0.878787878788 
  18.  
  19. Mean recall score 0.885020937099 
  20.  
  21. C parameter: 1 
  22.  
  23. Iteration 1 : recall score = 0.835616438356  
  24. Iteration 2 : recall score = 0.86301369863  
  25. Iteration 3 : recall score = 0.966101694915  
  26. Iteration 4 : recall score = 0.945945945946  
  27. Iteration 5 : recall score = 0.893939393939 
  28.  
  29. Mean recall score 0.900923434357 
  30.  
  31. C parameter: 10 
  32.  
  33. Iteration 1 : recall score = 0.849315068493  
  34. Iteration 2 : recall score = 0.86301369863  
  35. Iteration 3 : recall score = 0.966101694915  
  36. Iteration 4 : recall score = 0.959459459459  
  37. Iteration 5 : recall score = 0.893939393939 
  38.  
  39. Mean recall score 0.906365863087 
  40.  
  41. C parameter: 100 
  42.  
  43. Iteration 1 : recall score = 0.86301369863  
  44. Iteration 2 : recall score = 0.86301369863  
  45. Iteration 3 : recall score = 0.966101694915  
  46. Iteration 4 : recall score = 0.959459459459  
  47. Iteration 5 : recall score = 0.893939393939 
  48.  
  49. Mean recall score 0.909105589115 
  50.  
  51. Best model to choose from cross validation is with C parameter = 0.01 

在使用机器学习算法的时候,很重要的一部就是参数的调节,在这里我们选择使用最经典的分类算法,逻辑回归!千万别把逻辑回归当成是回归算法,它就是最实用的二分类算法!这里我们需要考虑的c参数就是正则化惩罚项的力度,那么如何选择到最好的参数呢?这里我们就需要交叉验证啦,然后用不同的C参数去跑相同的数据,目的就是去看看啥样的C参数能够使得最终模型的效果最好!可以到不同的参数对最终的结果产生的影响还是蛮大的,这里最好的方法就是用验证集去寻找了!

模型已经造出来了,那么怎么评判哪个模型好,哪个模型不好呢?我们这里需要好好想一想!

一般都是用精度来衡量,也就是常说的准确率,但是我们来想一想,我们的目的是什么呢?是不是要检测出来那些异常的样本呀!换个例子来说,假如现在医院给了我们一个任务要检测出来1000个病人中,有癌症的那些人。那么假设数据集中1000个人中有990个无癌症,只有10个有癌症,我们需要把这10个人检测出来。假设我们用精度来衡量,那么即便这10个人没检测出来,也是有
990/1000
也就是99%的精度,但是这个模型却没任何价值!这点是非常重要的,因为不同的评估方法会得出不同的答案,一定要根据问题的本质,去选择最合适的评估方法。

同样的道理,这里我们采用recall来计算模型的好坏,也就是说那些异常的样本我们的检测到了多少,这也是咱们最初的目的!这里通常用混淆矩阵来展示。

这个图就非常漂亮了!(并不是说画的好而是展示的很直接)从图中可以清晰的看到原始数据中样本的分布以及我们的模型的预测结果,那么recall是怎么算出来的呢?就是用我们的检测到的个数(137)去除以总共异常样本的个数(10+137),用这个数值来去评估我们的模型。利用混淆矩阵我们可以很直观的考察模型的精度以及recall,也是非常推荐大家在评估模型的时候不妨把这个图亮出来可以帮助咱们很直观的看清楚现在模型的效果以及存在的问题。

这可还木有完事,我们刚才只是在下采样的数据集中去进行测试的,那么这份测试还不能完全可信,因为它并不是原始的测试集,我们需要在原始的,大量的测试集中再次去衡量当前模型的效果。可以看到效果其实还不错,但是哪块有些问题呢,是不是我们误杀了很多呀,有些样本并不是异常的,但是并我们错误的当成了异常的,这个现象其实就是下采样策略本身的一个缺陷。

对于逻辑回归算法来说,我们还可以指定这样一个阈值,也就是说最终结果的概率是大于多少我们把它当成是正或者负样本。不用的阈值会对结果产生很大的影响。

上图中我们可以看到不用的阈值产生的影响还是蛮大的,阈值较小,意味着我们的模型非常严格宁肯错杀也不肯放过,这样会使得绝大多数样本都被当成了异常的样本,recall很高,精度稍低

当阈值较大的时候我们的模型就稍微宽松些啦,这个时候会导致recall很低,精度稍高,综上当我们使用逻辑回归算法的时候,还需要根据实际的应用场景来选择一个最恰当的阈值!

说完了下采样策略,我们继续唠一下过采样策略,跟下采样相反,现在咱们的策略是要让class为0和1的样本一样多,也就是我们需要去进行数据的生成啦。

SMOTE算法是用的非常广泛的数据生成策略,流程可以参考上图,还是非常简单的,下面我们使用现成的库来帮助我们完成过采样数据生成策略。

很简单的几步操作我们就完成过采样策略,那么现在正负样本就是一样多的啦,都有那么20多W个,现在我们再通过混淆矩阵来看一下,逻辑回归应用于过采样样本的效果。数据增强的应用面已经非常广了,对于很多机器学习或者深度学习问题,这已经成为了一个常规套路啦!



我们对比一下下采样和过采样的效果,可以说recall的效果都不错,都可以检测到异常样本,但是下采样是不是误杀的比较少呀,所以如果我们可以进行数据生成,那么在处理样本数据不均衡的情况下,过采样是一个可以尝试的方案!

总结:对于一个机器学习案例来说,一份数据肯定伴随着很多的挑战和问题,那么最为重要的就是我们该怎么解决这一系列的问题,大牛们不见得代码写的比咱们强但是他们却很清楚如何去解决问题。今天咱们讲述了一个以检测任务为背景的案例,其中涉及到如何处理样本不均衡问题,以及模型评估选择的方法,最后给出了逻辑回归在不用阈值下的结果。这里也是希望同学们可以通过案例多多积攒经验,早日成为大牛。

作者:佚名

来源:51CTO

时间: 2024-09-19 15:42:53

Python机器学习实战:信用卡欺诈检测的相关文章

机器学习实战(Machine Learning in Action)笔记--Chapter1:机器学习基础

Part1 分类 监督学习一般使用两种类型的目标变量:标称型(主要用于分类).数值型(主要用于回归). 非均衡分类问题 第1章 机器学习基础 专家系统 训练样本.特征.目标变量(分类问题中为类别) 训练数据和测试数据 知识表示 监督学习:分类.回归 无监督学习 将数据集合分成由类似的对象组成的多个类的过程被称为聚类 将寻找描述数据统计值的过程称之为密度估计 监督学习的用途:k-近邻算法.朴素贝叶斯算法.支持向量机.决策树.线性回归.局部加权线性回归.Ridge回归.Lasso最小回归系数估计 无

欺诈检测--大数据的安全管理

现在越来越多的银行业务依赖大数据和物联网基础设施,比如,移动支付.网上银行和智能售货机.但在这些交易过程中存在大量的个人敏感的身份信息需要保护.大数据安全是一个极大挑战的问题,因为作弊者在不断的寻求新方法来获取到有价值的数据.为了防止这些坏家伙,人们需要不断的去设计和发布新的大规模预测模型来预测作弊者的行为.不光银行需要大数据安全保护,任何含有对个人用户信息personally identifiable information (PII)处理的商业交易都要做好保护,比如,医疗机构和保险业. 最近

盘点·GitHub最著名的20个Python机器学习项目

我们分析了GitHub上的前20名Python机器学习项目,发现scikit-Learn,PyLearn2和NuPic是贡献最积极的项目.让我们一起在Github上探索这些流行的项目! Scikit-learn:Scikit-learn 是基于Scipy为机器学习建造的的一个Python模块,他的特色就是多样化的分类,回归和聚类的算法包括支持向量机,逻辑回归,朴素贝叶斯分类器,随机森林,Gradient Boosting,聚类算法和DBSCAN.而且也设计出了Python numerical和s

为什么我的计算结果是1?(机器学习实战,第3张的熵)

问题描述 为什么我的计算结果是1?(机器学习实战,第3张的熵) 想请教各位大神,我在学<机器学习实战 第三章>时,遇到一个问题,就是课程上得出的答案是0,我得出的答案却是1. 代码链接 解决方案 机器学习实战笔记1(机器学习基础) 解决方案二: 本人创建的机器学习研究QQ群445858879,欢迎爱好机器学习的朋友来此交流学习心得,群里有数据挖掘的高手跟大家切磋 解决方案三: 你看看你的数据集,你的1代表第一个特征是最好的划分.书上是第零个

《Python机器学习实践指南》——导读

前言 Python机器学习实践指南 机器学习正在迅速成为数据驱动型世界的一个必备模块.许多不同的领域如机器人.医学.零售和出版等,都需要依赖这门技术.在这本书中,你将学习如何一步步构建真实的机器学习应用程序. 通过易于理解的项目,你将学习如何处理各种类型的数据,如何以及何时应用不同的机器学习技术,包括监督学习和无监督学习. 本书中的每个项目都同时提供了教学和实践.例如,你将学习如何使用聚类技术来发现低价的机票,以及如何使用线性回归找到一间便宜的公寓.本书以通俗易懂.简洁明了的方式,教你如何使用机

Python机器学习工具:Scikit-Learn介绍与实践

本文讲的是Python机器学习工具:Scikit-Learn介绍与实践, Scikit-learn官方的解释很简单: Machine Learning in Python, 用python来玩机器学习. 什么是机器学习 机器学习关注的是:计算机程序如何随着经验积累自动提高性能.而最大的吸引力在于,不需要写任何与问题相关的特定代码,泛型算法就能告诉你一些关于数据的秘密. Scikit-learn的优点 构建于现有的NumPy(基础n维数组包),SciPy(科学计算基础包), matplotlib(

Python机器学习库

   Python在科学计算领域,有两个重要的扩展模块:Numpy和Scipy.其中Numpy是一个用python实现的科学计算包.包括: 一个强大的N维数组对象Array: 比较成熟的(广播)函数库: 用于整合C/C++和Fortran代码的工具包: 实用的线性代数.傅里叶变换和随机数生成函数.      SciPy是一个开源的Python算法库和数学工具包,SciPy包含的模块有最优化.线性代数.积分.插值.特殊函数.快速傅里叶变换.信号处理和图像处理.常微分方程求解和其他科学与工程中常用的

Android 开发者如何通过运动视觉 API 进行机器学习 - 第一部 - 人脸检测

本文讲的是Android 开发者如何通过运动视觉 API 进行机器学习 - 第一部 - 人脸检测, 在计算机科学中,机器学习是一个非常有意思的领域,它已经在我的最想学习的愿望清单中驻留已久.因为有太多来自于RxJava, Testing, Android N, Android Studio 以及其他 Android 相关的技术更新,所以我都每能花时间来学习这个.甚至在 Udacity 还专门有一个有关机器学习的课程. . 让我非常激动的发现是,目前任意一个开发人员都能基于运动视觉(Mobile

《Python机器学习——预测分析核心算法》——导读

前言 Python机器学习--预测分析核心算法 从数据中提取有助于决策的信息正在改变着现代商业的组织,同时也对软件开发人员产生了直接的影响.一方面是对新的软件开发技能的需求,市场分析师预计到2018年对具有高级统计和机器学习技术的人才需求缺口将达140000-190000人.这对具有上述技能的人员来说意味着丰厚的薪水和可供选择的多种有趣的项目.另一方面对开发人员的影响就是逐步出现了统计和机器学习相关的核心工具,这减轻了开发人员的负担.当他们尝试新的算法时,不需要重复发明"轮子".在所有