当前位置: 首页 > news >正文

域名购买成功后网站怎么建设南阳seo

域名购买成功后网站怎么建设,南阳seo,柳市网站建设哪家好,苏州哪个网站建设最好模式识别 —— 第六章 支持向量机(SVM)与核(Kernel) 文章目录模式识别 —— 第六章 支持向量机(SVM)与核(Kernel)硬间隔(Hard-Margin)软间隔(Soft…

模式识别 —— 第六章 支持向量机(SVM)与核(Kernel)

文章目录

  • 模式识别 —— 第六章 支持向量机(SVM)与核(Kernel)
    • 硬间隔(Hard-Margin)
    • 软间隔(Soft-Margin)
    • 核kernel
    • 对偶问题
      • 硬间隔优化问题的对偶转变
      • 考点
      • 软间隔优化问题的对偶转变

开始之前先推荐一个个人感觉把SVM讲的特别好的课程视频(尤其是转对偶问题那一部分),浙大胡浩基老师手写板书讲的,真的草履虫都能看懂!

点一下 嗖~就过去

硬间隔与软间隔区别如下:

硬间隔
完全分类准确,只在数据是线性可分离的时候才有效。其损失函数不存在,损失值为0。但它对异常值非常敏感,无法很好的泛化。

软间隔
要避免这些问题,最好使用更灵活的模型。目标是尽可能在保持最大间隔宽度和限制间隔违例之间找到良好的平衡,这就是软间隔分类。

所以软间隔允许一定量的样本分类错误;优化函数包括两个部分,一部分是点到平面的间隔距离,一部分是误分类的损失个数;C是惩罚系数,误分类个数在优化函数中的权重值;权重值越大,误分类的损失惩罚的越厉害。

硬间隔(Hard-Margin)

我们想找到一个超平面让其线性可分,数学表述如下:
在这里插入图片描述
a式子与b式子合并可得到下面的统一表示。

现在我们想让在这个分界线(面)附近的点(即支持向量)离它尽量远一点。由点到直线距离公式来使得Margin最大。
在这里插入图片描述
然后我们想办法将最大化Margin转化为下面这个优化问题:
在这里插入图片描述
怎么转化的呢?首先我们有两个事实条件:
在这里插入图片描述
之后:
在这里插入图片描述

此时,对于非支持向量那就相当于∣wTx0+b∣>1\lvert w^Tx_0+b \rvert >1wTx0+b>1
把y写进去来代替绝对值符号的作用就可以得到新的限制条件y(wTx0+b)≥1y(w^Tx_0+b) \geq 1y(wTx0+b)1

最后我们为了后续求导方便,我们可以在目标函数处多加一个12\frac{1}{2}21,如下:

在这里插入图片描述
这样就变成了一个凸优化的问题,即要么无解、要么只有一个极值。因此局部极值就是最值。

软间隔(Soft-Margin)

在这里插入图片描述
SVM对训练集里面的每个样本(xi,yi)(x_i,y_i)(xi,yi)引入了一个松弛变量ξi≥0ξ_i≥0ξi0,使函数间隔加上松弛变量大于等于1,也就是说条件变量改为如下:

yi(w∙xi+b)≥1−ξiyi(w∙xi+b)≥1−ξiyi(wxi+b)1ξi

加入松弛变量ξiξ_iξi后,损失函数就需要改写为:
min12∣∣wi∣∣2+C∑i=1nξimin\frac12||w_i||^2+C\sum_{i=1}^nξ_imin21∣∣wi2+Ci=1nξi

s.t.yi(wTxi+b)≥1−ξi(i=1,2,...m)s.t. \quad y_i(w^Tx_i+b)≥1−ξ_i(i=1,2,...m)s.t.yi(wTxi+b)1ξi(i=1,2,...m)

ξi≥0(i=1,2,...m)ξ_i≥0(i=1,2,...m)ξi0(i=1,2,...m)

这里,C>0为惩罚参数,可以理解为我们一般回归和分类问题正则化时候的参数。C越大,对误分类的惩罚越大,C越小,对误分类的惩罚越小。

也就是说,我们希望12∣∣wi∣∣2\frac12||w_i||^221∣∣wi2尽量小,误分类的点尽可能的少。C是协调两者关系的正则化惩罚系数。在实际应用中,需要调参来选择。

核kernel

对于在低维线性不可分的数据,在映射到了高维以后,就变成线性可分的了。例如:
在这里插入图片描述

左边是在二维空间的投影,我们没办法找到一条直线将两个类别区分开。但是如果我们将二维空间映射到三维空间的话,我们就可以找到一个超平面在三维中线性可分。

就像是三体中狄奥伦娜能进入四维空间后轻易的取人脑子一样。

维度越高线性可分就越容易。但是映射成的高维维度是爆炸性增长的,这个计算量实在是太大了,而且如果遇到无穷维的情况,就根本无从计算了。这就要用到我们的核函数了。

核函数的价值在于它虽然也是将特征进行从低维到高维的转换,但核函数好在它在低维上进行计算,而将实质上的分类效果(利用了内积)表现在了高维上,这样避免了直接在高维空间中的复杂计算,真正解决了SVM线性不可分的问题。

线性核函数
线性核函数(Linear Kernel)其实就是內积,如下:
K(x,y)=x∙yK(x,y)=x∙yK(x,y)=xy

多项式核函数
多项式核函数(Polynomial Kernel)是线性不可分SVM常用的核函数之一,公式如下:
K(x,y)=(γx∙y+r)dK(x,y)=(γx∙y+r)^dK(x,y)=(γxy+r)d

高斯核函数
高斯核函数(Gaussian Kernel),在SVM中也称为径向基核函数(Radial Basis Function,RBF),它是非线性分类SVM最主流的核函数。libsvm默认的核函数就是它。公式如下:

K(x,y)=e−∣∣x−y∣∣22σ2K(x,y)=e^{-\frac{||x-y||^2}{2\sigma ^2}}K(x,y)=e2σ2∣∣xy2

对偶问题

这部分建议看视频部分的讲解,讲的真的超级棒!

这里我们采用的是拉格朗日乘子将其转化成对偶问题,思路如下:

在这里插入图片描述

硬间隔优化问题的对偶转变

按照上述思路,首先我们将限制条件转换成a(x)≤0a(x) \leq 0a(x)0的形式:
在这里插入图片描述
之后我们构建拉格朗日常数:
在这里插入图片描述
因为是求最值,所以我们求导进行回代:
在这里插入图片描述

考点

这是我们这学期的期末考试题,老师提前透露的。也是类似上面的推导,只不过要简单一点再。

就是如果目标函数不是wTxi+bw^Tx_i + bwTxi+b而是wTxiw^Tx_iwTxi,请进行对偶问题的转换。其实是变简单了,不用对b进行求导回代了。解法如下:

在这里插入图片描述
可恶啊,背面画着图透过来了。算了,凑合看吧,其实结果是一样的。

软间隔优化问题的对偶转变

在这里插入图片描述在这里插入图片描述

http://www.hrbkazy.com/news/27514.html

相关文章:

  • ps ui做响应式网站要求服务外包公司
  • wordpress 如何移动端上海何鹏seo
  • 做网站销售怎么开发客户谷歌浏览器下载安装2021最新版
  • 酷站 网站seo网站优化推广教程
  • 锦州网站建设品牌网络营销的模式有哪些
  • 峨眉山网站建设短视频如何引流与推广
  • 网站建设属于什么工作seo是什么职位的简称
  • 开福区网站建设论坛搜索引擎有哪些分类
  • 网站建设与管理pdf免费发帖推广平台
  • 做网站软件frontpage安装百度到桌面
  • 财务公司重庆百度搜索优化
  • 国外有没有做物理小实验的网站企业宣传推广怎么做
  • b2c电子商务网站建设谷歌seo博客
  • 电商平台推广员是做什么的佛山网络公司 乐云seo
  • 重庆微信网站建设多少钱seo博客大全
  • 网站建设与设计实训总结全网营销一站式推广
  • 那里有做网站成都网站seo性价比高
  • 濮阳h5建站经典营销案例
  • 免费ppt背景图长沙百家号seo
  • 商城网站上做内容冲突吗网站发布
  • 广州网站建设平台重庆百度快照优化排名
  • 域名先解析后做网站外链交易平台
  • 自己开网店怎么找货源淘宝seo推广优化
  • 用网站做CAN总线通信好吗网站怎样关键词排名优化
  • 手机网站程序下载企业营销型网站
  • 自己网站建设问题友情链接检测的特点
  • 合肥建网站的公司从哪里找网络推广公司
  • 中国万网怎么自己做网站今日新闻头条新闻
  • wordpress菜单显示选项打不开网站优化外包多少钱
  • 高端网站建设方案报价seo优化外链平台