本文将简单介绍下最近学习到的矩阵分解方法。
(1)PureSvd
矩阵分解的核心是将一个非常稀疏的评分矩阵分解为两个矩阵,一个表示user的特性,一个表示item的特性,将两个矩阵中各取一行和一列向量做内积就可以得到对应评分。
那么如何将一个矩阵分解为两个矩阵就是唯一的问题了。说到这里大家就可能想起了在线代和数值分析中学到的各种矩阵分解方法,QR,Jordan,三角分解,SVD。。。
这里说说svd分解。
svd是将一个任意实矩阵分解为三个矩阵U,S,V,其中,U,V是两个正交矩阵,称为左右奇异矩阵,S是个对角阵,称为奇异值矩阵。
其实svd分解的问题可以化解为特征值分解的问题。
评分矩阵A(m*n)=U(m*k)*S(k*k)*V'(k*n)
令B(m*m)=A(m*n)*A'(n*m)
B矩阵就是一个方阵,可以利用各种简单的方法将B进行特征值分解:
Bv=av,
v是方阵B的特征向量,a是特征向量v对应的特征值。
所以奇异值s=sqrt(a),
左奇异向量u=A*v/s
同样的方法可以求得右奇异向量。
这样我们就得到了svd分解后的三个矩阵。(你可以自己写个c程序计算,当然也可以用matlab算算得到)分解后的三个矩阵都有着各自的意义,
U:每一行表示一个user的特征。
V:每一列表示一个item的特征。
S:表示对应的user和item的相关性。
所以可以考虑用U和V将S吸收进来,形成两个矩阵分别表示user的矩阵和item的矩阵。
得到这个以后后面的事情就好办了。
为什么说这个方法猥琐呢?因为我觉得,这种方法有着矩阵分解算法的表,却可以非常简单地完成矩阵的分解,然后填充稀疏的评分矩阵。但它考虑的因素太少了,不过对于简单的推荐系统,这种方法还是非常有意义的,容易实现,而且结果也不会太差。
(2)Latent Factor Model
这是真正的矩阵分解算法,经过实践检验,具有非常高的准确性和易扩展性。
正如上面提到的,实现推荐系统结果的目标是将那个稀疏的评分矩阵分解成两个矩阵,一个表示user的feature,一个表示item的feature,然后做内积得到预测。
当然要实现满足一定约束条件的矩阵分解,可不像上面的PureSVD那样容易,需要构造一个优化问题,用一些复杂的算法求解优化问题。而这些优化问题往往是NP问题,只有局部最优解。
首先构造一个优化目标函数,
考虑到最后的评价指标是预测分值和实际分值之间的误差的平方(RMSE),所以构造的目标函数也是误差的平方的函数。
为什么这样的算法可以得到更优的结果呢?因为算法可以很容易地扩展很多的feature进来,更加出色地考虑了多种影响推荐效果的实实在在的因素。
- Biases
因为有的用户总是会打出比别人高的分,或者说有的用户他的评价尺度比较宽松;同样有的item总是被打高分。这是一个普遍存在的问题,所以在构造目标函数的时候需要增加几项:所有评分的平均值miu,user的偏见分数bu,item的偏见分数bi。
比如:求用户x对电影y的打分,
所有评分电影的评分的平均分是miu=3.5,
电影y比所有评分电影平均分高bi=0.5
但是用户x是个比较严格的用户,评分总是相对偏低,所以bu=-0.3
所以用户x对电影y的打分为3.7
- Implicit feedback
用户在使用web应用的时候,会产生大量的行为,充分挖掘这部分的价值,将会很好地提升推荐的效果。
利用用户的隐式反馈,相当于充分的利用了评分矩阵中的missing value的价值,用户在页面的停留时间,检索,浏览,点击等等各种行为都可以建模,内含到目标函数中。
这里,可以将简单地用一个Boolean来描述一种行为有还是没有。
不过在使用的时候,需要进行归一化处理。
- User-associated attributes
基于用户的社会化属性进行推荐也是一种很基本的推荐,当然也可以考虑到目标函数中。
- Temporal dynamics
用户的兴趣包括长期和短期,动态地考虑一段时间内用户的兴趣是很有必要的。
上面的几个因素中随着时间变化的有,user的bias项bu=bu(t),item的bias项bi=bi(t),以及user的factor向量pu=pu(t),这里可以忽略item的factor向量的变化,因为item是比较稳定的。
- Confidence level
因为在处理上述的因素的时候,很多都是比较主观的,所以需要给每个因素添加一个置信权重,以平衡整个结果。
通过构造出这个目标函数,然后添加相应的约束条件,接下来的问题就是求解这个优化问题。
通常比较好的方法是Stochastic gradient desent。
PS:这种方法是现在学术界的主流方法,大家可以参阅Yehuda的神作(http://research.yahoo.com/Yehuda_Koren)以及上海交大在今年kddcup获奖方法的paper以及他们的开源系统(http://apex.sjtu.edu.cn/apex_wiki/svdfeature)
(3)NMF(非负矩阵分解)
很多人用这种方法是因为他们觉得只有一个非负的值对于实际的例子才会有意义。
考虑到svd或者latent factor model会得到负的值,所以这种方法的物理意义比较明确。
同样的道理,NMF也是将评分矩阵的转置矩阵分解成两个矩阵。
不同的是这两个矩阵有着和上面的矩阵不同的物理意义。
其中一个是基矩阵W,另一个是投影矩阵H,即R'(n*m)=W(n*r)*H(r*m)
W:每一列包含一个基向量,这组基向量构成一个r维的空间。
H:每一列则近似为原始数据对应的列向量在该r维空间的投影。
做这个分解的方法也是构造一个目标函数和一些约束条件,然后用梯度下降的算法来计算得到一个局部最优解。
这种方法的思路大概是这样的:
- 将评分矩阵转置然后分解成两个矩阵W和H。
- 根据基矩阵W,可以计算得到目标用户评分向量a对基矩阵W的投影向量h。
- 计算投影向量h与投影矩阵H各行之间的欧式距离,将其中距离最小的前k个用户组成目标用户a的最近邻集合。
- 然后用皮尔逊相关法将最近邻集合中的数据进行加权计算,然后排序进行推荐。
可以看出来,这种方法的思路和上面的两种还是很不相同的,主要还是在计算目标用户的最近邻集合,主要思想还是knn,只是在中间用了矩阵分解的方法降维降低了计算的时间复杂度。
CF里的矩阵分解思想是来自于IR领域的Latent Semantic Analysis(LSA)。不过
,矩阵分解的过程相当于一个软聚类的过程,得到的每一个factor相当于每一个
聚类后的分组,只是我们没有一个通用的方法来为这些分组命名。
矩阵分解的思路是把评分矩阵通过分解,用一个低秩的矩阵来逼近原来的评分矩
阵,逼近的目标就是让预测的矩阵和原来的矩阵之间的误差平方最小。(矩阵分
解一般不用数学上直接分解的办法,尽管分解出来的精度很高,但是效率实在太
低!矩阵分解往往会转化为一个优化问题,通过迭代求局部最优解。)
但是有个问题是,原来的评分矩阵的稀疏度太大,分解很容易产生overfitting
(过度拟合,意思就是为了迁就一些错误的偏僻的值导致整个模型错误)的问题
。所以现在的方法是在目标函数中增加一项regularization(正则化),来避免
overfitting问题。
其中,gamma是学习速率,lamda是正则化系数,是两个可选的参数,而且对于最
后的结果非常重要。
这里,gamma的大小不仅会影响到训练时间,还会影响到结果的收敛性。gamma太
大的话会导致结果发散,一般都会把gamma取得很小,不同的数据集取得值不同
,但大概是0.001这个量级。这样的话训练的时间会长一些,但结果会比较好。
lamda的值一般也比较小,大概取0.01这个量级就好了。
迭代开始前,需要对user和item的特征向量赋初值,这个初值很重要,会严重地
影响到计算速度。一般的做法是在所有已评分的平均分附近产生一些随机数作为
初值。
迭代结束的条件一般是loss function开始增加了,或者loss function的值小于
了某一个阈值。
当我们拿到计算出来的user,item的factor向量后,最后预测结果时有两种选择
,一种是保留计算出来的小数rating,一种是将这些小数rating四舍五入并裁减
到[1,5]这个区间内。
对于实际的推荐系统来说,结果是小数还是整数,没有所谓,因为我们并不会把
预测的分数给用户看,而只是返回一个推荐列表。
但对于线下训练参数或者做论文的童鞋来说,不同的处理方法得到的RMSE或者
MAE的值可不相同。
http://sina2sohu.diandian.com/post/2012-08-17/40035658104