浅析利用高斯核函数进行半监督分类

Laplacian Regularization

In Least Square learning methods, we calculate the Euclidean distance between sample points to find a classifier plane. However, here we calculate the minimum distance along the manifold of points and based on which we find a classifier plane.

In semi-supervised learning applications, we assume that the inputs x must locate in some manifold and the outputs y vary smoothly in that manifold. In the case of classification, inputs in the same manifold are supposed to have the same label. In the case of regression, the maps of inputs to outputs are supposed to vary smoothly in some manifold.

Take the Gaussian kernal function for example:

fθ(x)=∑j=1nθjK(x,xj),K(x,c)=exp(−∥x−c∥22h2)

There are unlabeled samples {xi}n+n′i=n+1 that also be utilized:

fθ(x)=∑j=1n+n′θjK(x,xj)

In order to make all of the samples (labeled and unlabeled) have local similarity, it is necessary to add a constraint condition:

minθ⎡⎣12∑i=1n(fθ(xi)−yi)2+λ2∥θ∥2+v4∑i,i′=1n+n′Wi,i′(fθ(xi)−fθ(xi′))2⎤⎦

whose first two terms relate to the ℓ2 regularized least square learning and last term is the regularized term relates to semi-supervised learning (Laplacian Regularization). v≥0 is a parameter to tune the smoothness of the manifold. Wi,i′≥0 is the similarity between xi and xi′. Not familiar with similarity? Refer to:

http://blog.csdn.net/philthinker/article/details/70212147

Then how to solve the optimization problem? By the diagonal matrix D, whose elements are sums of row elements of W, and the Laplace matrix L that equals to D−W, it is possible to transform the optimization problem above to a general ℓ2 constrained Least Square problem. For simplicity, we omit the details here.

n=200; a=linspace(0,pi,n/2);
u=-10*[cos(a)+0.5 cos(a)-0.5]'+randn(n,1);
v=10*[sin(a) -sin(a)]'+randn(n,1);
x=[u v]; y=zeros(n,1); y(1)=1; y(n)=-1;
x2=sum(x.^2,2); hh=2*1^2;
k=exp(-(repmat(x2,1,n)+repmat(x2',n,1)-2*x*(x'))/hh);
w=k;
t=(k^2+1*eye(n)+10*k*(diag(sum(w))-w)*k)\(k*y);

m=100; X=linspace(-20,20,m)';X2=X.^2;
U=exp(-(repmat(u.^2,1,m)+repmat(X2',n,1)-2*u*(X'))/hh);
V=exp(-(repmat(v.^2,1,m)+repmat(X2',n,1)-2*v*(X'))/hh);
figure(1); clf; hold on; axis([-20 20 -20 20]);
colormap([1 0.7 1; 0.7 1 1]);
contourf(X,X,sign(V'*(U.*repmat(t,1,m))));
plot(x(y==1,1),x(y==1,2),'bo');
plot(x(y==-1,1),x(y==-1,2),'rx');
plot(x(y==0,1),x(y==0,2),'k.');

时间: 2024-11-28 17:42:58

浅析利用高斯核函数进行半监督分类的相关文章

流形半监督学习-流形半监督分类的相关问题

问题描述 流形半监督分类的相关问题 初学者如何快速掌握流形半监督的相关理论知识?可以推荐一些网站,论文,博客等,最好是中文的.谢谢了. 解决方案 http://xueshu.baidu.com/s?tn=SE_baiduxueshu_c1gjeupa&wd=%E6%B5%81%E5%BD%A2%E5%8D%8A%E7%9B%91%E7%9D%A3%E5%88%86%E7%B1%BB&ie=utf-8 解决方案二: http://cdmd.cnki.com.cn/article/cdmd-1

半监督组稀疏表示:模型、算法与应用(ECAI 2016论文精选)| AI科技评论

ECAI 2016是欧洲展示AI科学成果的最佳场所,大会为研究人员提供了很好的机会,去介绍和听取当代最优秀的人工智能研究成果. 半监督组稀疏表示:模型.算法与应用(Semi-Supervised Group Sparse Representation:Model, Algorithm and Applications)   摘要:组稀疏表示(GSR)利用了数据中的组结构,并在许多问题上效果很好. 然而,该组结构必须事先手动给出.在许多实际情况下,如分类,样本都是根据他们的标签进行分组的.在这种情

CCAI 2017 日本理化学研究所先进智能研究中心主任杉山将:弱监督机器学习的研究进展

在本次大会上,日本人工智能和机器学习领域新一代的代表性人物--日本理化学研究所先进智能研究中心主任Masashi Sugiyama(中文名:杉山将)为参会者带来了<弱监督机器学习的研究进展>的演讲.杉山将在机器学习领域发表过很多重要的理论,是这个领域最知名的学者之一,出版了机器学习相关书籍<图说机器学习>(中文版). 以下内容根据杉山将本次主题演讲整理,略有删减: 大家早上好,我叫杉山将,非常高兴能够参加今天的大会,也很高兴和这么多中国的研究人员见面,我也特别喜欢杭州的文化和当地的

CCAI 2017 | 小数据学习对人工智能究竟有着怎样的影响?

近几年来,得益于大数据的积累.计算能力的提升,深度学习从学术到工程领域均取得了非常显著的发展与突破,尤其是诸如图像识别.语音识别等实际场景应用.但是,依赖于海量的训练数据.灵活的模型.足够的运算能力以及足以对抗维度灾难的先验经验,从很大程度上来讲妨碍了深度学习技术更为广泛的运用.为此,在全球范围内,众多人工智能领域的学术大师及业界专家上下求索,也由此催生了小数据学习(Learning from limited information),通过更少的数据以及更确定的方法让 AI 学习更加高效. 然而

AI 大师云集!CCAI 2017 中国人工智能大会盛大开幕

7月22日-23日,在中国科学技术协会.中国科学院的指导下,由中国人工智能学会.阿里巴巴集团 & 蚂蚁金服主办,CSDN.中国科学院自动化研究所承办,,独家直播的2017 中国人工智能大会(CCAI 2017)在杭州国际会议中心盛大召开. 作为由中国人工智能学会发起的人工智能领域顶级盛会,CCAI 代表着国内最高水准的产学研技术交流.本次大会更是在前两届成功经验的基础上,将全球人工智能领域的顶级专家.学者和产业界优秀人才汇聚一堂,围绕着当前 AI 热点话题.核心技术,以及与会者共同关注的科学问题

人人都在谈人工智能,这场大会有何不同?

学术引领,创新为先 人工智能技术风潮正以摧枯拉朽之势席卷全球,所及之处,颠覆行行业业,改变你我的生活.而学术研究中的每一次新理论提出,旧问题攻克,都令这股力量更强大--它是浪潮的原动力,是预知未来的风向标. 7月22-23日,本年度中国人工智能学术会议最强音--2017中国人工智能大会(CCAI 2017)即将在杭州国际会议中心唱响. 由中国科学院院士谭铁牛.阿里巴巴技术委员会主席王坚.香港科技大学计算机系主任杨强.蚂蚁金服首席数据科学家漆远.南京大学教授周志华共同甄选本年度海内外最值得关注的学

《中国人工智能学会通讯》——8.43 基于缺陷标注挖掘软件缺陷

8.43 基于缺陷标注挖掘软件缺陷 除通过描述程序的正常模式以发现软件缺陷外,另一类有效的软件缺陷挖掘技术则是通过直接对带有人工缺陷标注的程序模块进行学习建模,建立从程序模块的特征表示到软件缺陷的映射关系,以预测给定程序模块的是否可能包含缺陷. 基于缺陷标注挖掘软件缺陷的一般流程如图 1所示.首先人工对软件源代码进行详细软件测试,获得每个模块的缺陷情况标注.然后,利用软件度量 (software metric) [8] 技术提取多种与软件模块的缺陷相关的代码级统计指标 ( 如代码长度.代码分支数

第三届中国人工智能大会全程报道

2017年7月22日上午9时,备受瞩目的"第三届中国人工智能大会"在美丽的杭州国际会议中心"杭州厅"拉开序幕. DAY1: 大会首先由香港科技大学计算机系主任杨强教授代表大会组委会向所有参会者致以了诚挚的欢迎与问候. 同时表示,国务院刚刚发布新一代人工智能发展规划为我们带来了新的目标,此次大会汇聚了全球人工智能顶级专家进行深入交流和探讨,针对语言智能与应用.智能金融.人工智能科学与艺术.人工智能青年发展四个主题设立专题论坛.随后,杨强教授对今天即将发表主题报告的所有

基于图卷积网络的图深度学习

更多深度文章,请关注云计算频道: https://yq.aliyun.com/cloud 基于图卷积网络的图深度学习 先简单回顾一下,深度学习到底干成功了哪些事情! 深度学习近些年在语音识别,图片识别,自然语音处理等领域可谓是屡建奇功.ImageNet:是一个计算机视觉系统识别项目, 是目前世界上图像识别最大的数据库,并且被业界熟知. 我们先回顾一下,没有大数据支撑的欧式深度学习技术.对于一个字母"Z"的识别,我们通常是建立一个2D网格(点阵),如果将其中的点连接起来,定义这样的连接方