机器学习-监督学习-cost function

1.引言

当我们的训练集如下图1所示,可以假设hypothesis函数如图2

θ0和θ1我们称为hθ(x)函数的2个参数,h是x的函数,所以有时候也记着h(x)

对于这个已有的hypothesis,我们需要什么方法来评估这个假设函数的好坏呢?

因此我们定义了一个叫"代价函数"cost function 来评估当前hθ(x)函数

2. 代价函数

cost function也叫作loss function,就是对hθ(x)函数进行评估的一个函数。

代价函数最重要的作用就是是用来度量预测错误的程度,通常来说,模型越准确,越接近真实,其cost function的值就越小。

cost function 通常用大写字母J表示,由于cost function的大小和hθ(x)的参数取值相关,不难想象,J是θ的函数,用Jθ表示。

线性回归中的cost function,通常用最小"平方差"来表示,也称为square loss,

有2个参数θ0和θ1的时候,可以定义cost function函数如下所以

这里x和y的右上角标i,表示training set中第i个数据的特征向量和实际值,加括号表示是第i个,而不是i次幂

由cost function定义可以知道,当hθ(x)对training set测试结果完全正确的时候,const function的值是0

因此我们的目标,就是尽量优化hθ(x),不断更改参数θ0 ~ θn 的值,使得Jθ的值最小,即上图中的Goal

3. 举例

为了简化模型,我们假设hθ(x)只有2个参数θ0和θ1,同时假设θ0 = 0

因此hθ(x) = θ1X

我们根据θ1的值等于 -1,0,1,2 可以画出cost function J(θ)的函数图像如下所示J(θ)。可以发现代价函数J(θ)是一个"凸函数",存在全局最小值。

不难发现,当θ1 =1 的时候training set能够和hθ(x) 完美拟合成一条直线,此时J(θ)值最小为0

类似的,当θ0不等于0的时候,此时hθ(x)有2个不为0的参数θ0和θ1,J(θ)的图像可能如下图所示

时间: 2024-10-02 12:58:44

机器学习-监督学习-cost function的相关文章

机器学习-监督学习-线性回归

一.引言 机器学习中的回归问题属于有监督学习的范畴,回归问题的目标是给定D维输入变量x,并且每一个输入矢量x都有对应的值y, 要求对于新来的数据预测它对应的连续的目标值t. 比如下面这个例子:假设我们有一个包含47个房子的面积和价格的数据集如下: 我们可以在Matlab中画出来这组数据集,如下: 看到画出来的点,是不是有点像一条曲线? 我们可以用一条曲线去尽量拟合这些数据点,那么对于新来的输入,我么就可以将拟合的曲线上返回对应的点从而达到预测的目的. 如果要预测的值是连续的比如上述的房价,那么就

【caffe】loss function、cost function和error

@tags: caffe 机器学习 在机器学习(暂时限定有监督学习)中,常见的算法大都可以划分为两个部分来理解它 一个是它的Hypothesis function,也就是你用一个函数f,来拟合任意一个输入x,让预测值t(t=f(x))来拟合真实值y 另一个是它的cost function,也就是你用一个函数E,来表示样本总体的误差. 而有时候还会出现loss function,感觉会和cost function混淆. 上quora看了下,有个同名问题,回答的人不多,upvote更少..回答者里面

机器学习知识点(人工智能篇)

转载请标明出处: http://blog.csdn.net/djy1992/article/details/75257551 本文出自:[奥特曼超人的博客] AI(Artificial Intelligence),即人工智能.人工智能领域的研究包括机器人.语音识别.图像识别.自然语言处理和专家系统等.人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的"容器". 可观看上篇文章:CSDN观点:人工智能会不会取代开发它的人?

BAT机器学习面试1000题系列

几点声明: 1.本文的内容全部来源于七月在线发布的BAT机器学习面试1000题系列: 2.文章中带斜体的文字代表是本人自己增加的内容,如有错误还请批评指正: 3.原文中有部分链接已经失效,故而本人重新加上了新的链接,如有不当,还请指正.(也已用斜体标出) 4.部分答案由于完全是摘抄自其它的博客,所以本人就只贴出答案链接,这样既可以节省版面,也可以使排版更加美观.点击对应的问题即可跳转. 最后,此博文的排版已经经过本人整理,公式已用latex语法表示,方便读者阅读.同时链接形式也做了优化,可直接跳

机器学习基础(四)逻辑回归

从这节算是开始进入"正规"的机器学习了吧,之所以"正规"因为它开始要建立价值函数(cost function),接着优化价值函数求出权重,然后测试验证.这整套的流程是机器学习必经环节.今天要学习的 话题是逻辑回归,逻辑回归也是一种有监督学习方法(supervised machine learning).逻辑回归一般用来 做预测,也可以用来做分类,预测是某个类别^.^!线性回归想比大家都不陌生了,y=kx+b,给定一堆数据点, 拟合出k和b的值就行了,下次给定X时,就

机器学习之——归一化

之前我们讨论了几个机器学习的模型,线性回归模型(Linear Regression)和逻辑回归模型(Logistic Regression),这一次我们讨论一下关于模型数据拟合的问题以及归一化方法(Regularization). 过拟合问题(The Problem of Overfitting) 如果我们有非常非常多的特征,我们通过学习得到的假设可能会非常适应训练集(代价函数的值可能几乎为0),但是这样的假设能不能推广使用到新的数据呢?下面有一些例子: 从左至右来看,第一个模型是一个线性模型,

机器学习之——神经网络学习

很久没更新博客了,这一次我们继续之前的机器学习的课程,这一节我们讨论机器学习里面重要的一个算法--神经网络(Nerual Network)的学习部分. 神经网络的代价函数 首先我们要引入一些标记,以便在后面讨论中使用: 我们回想一下,在逻辑回归(Logistic Regression)问题中,我们的代价函数(Cost Function)如下: 在逻辑回归中,我们只有一个输出变量,又称作标量(Scalar),也只有一个因变量y,但是在神经网络中,我们可以有很多输出变量,我们的hø(x)是一个维度为

机器学习之——判定边界和逻辑回归模型的代价函数

判定边界(Decision Boundary) 上一次我们讨论了一个新的模型--逻辑回归模型(Logistic Regression),在逻辑回归中,我们预测: 当hø大于等于0.5时,预测y=1 当hø小于0.5时,预测y=0 根据上面的预测,我们绘制出一条S形函数,如下: 根据函数图像,我们知道,当  z=0时,g(z)=0.5  z>0时,g(z)>0.5  z<0时,g(z)<0.5 又有: 所以 以上,为我们预知的逻辑回归的部分内容.好,现在假设我们有一个模型: 并且参数

纯干货 | 机器学习中梯度下降法的分类及对比分析(附源码)

更多深度文章,请关注:https://yq.aliyun.com/cloud HackerEarth,一家来自印度的创业公司,旨在帮助开发者通过线上编程竞赛获得工作机会.和Github类似,它提供一个多种编程语言的代码交流平台.而HackerEarth blog 上多刊登一些跟大数据.人工智能.机器学习.算法及编程竞赛相关的博文. 引言       梯度下降法 (Gradient Descent Algorithm,GD) 是为目标函数J(θ),如代价函数(cost function), 求解全