1、“.....在个高斯条件分布的情形下,如式子,条件均值就可以简化成,注意到,由于存在高斯噪声的假设意味着的条件分布是单峰值的,所以也就是意味着对于有些应用可能是不合适的。现在我们考虑组输入数据和与之相对应的目标值。我们把目标值分成个列向量,我们设想这些数据点从分布中独立的绘画出来,我们就得到了如下的似然函数的表达式,它具有自适应的参变量和,形式如下,式中,我们用到了式子。注意到,在比如回归和分类的有监督学习的问题中,我们并不是寻找输入变量的分布模型。因此会常常出现在条件变量当中,并且从现在开始,为了保证符号的整洁性,我们停止在诸如此类当中的显式表达。采用似然函数的对数形式,我们得到,丨,第章线性回归模型式中平方和误差函数定义如下在已经有了似然函数之后......”。
2、“.....先考虑的最大化,正如之前说的样,我们认为线性模型,在条件高斯噪声分布条件下的极大似然函数等价于给定的平方和误差函数的最小化。似然函数的对数形式的梯度形式如下,令这个梯度为零,我们得到为了解得我们得到这就是所知的最小二乘法问题的标准式方程。这里是个型的矩阵,叫做设计矩阵,矩阵当中的元素是变量†就是所谓的矩阵伪逆矩阵。可以把它理解成非方阵的反转的般化表示。事实上,如果矩阵是个方阵且可逆,如果利用性质我们就可以认为†。这时候,我们你就可以对偏移参变量有个更深入的了解。如果我们让这个偏移参量变成显式的,那么误差函数就变成了电子科技大学学士学位论文设置对的倒数为零并且为了解得,我们得到式中,我们定义......”。
3、“.....我们还可以对噪声精确度参变量的似然函数的对数形式进行最大化,给定所以我们认为噪声精确度的倒数是由回归函数的目标值的参与方差获得的。图最小二乘法的几何学解释最小二乘法的几何解释就从这点上讲,从几何学的角度来解释最小二乘法的求解是非常具有意义的。在这之前,我们假设个坐标由的值决定的维空间,其中是这个空间当中的个向量。每个由个数据点评估的基础函数也可以在第章线性回归模型相同的空间当中表示成个向量并且命名为,正如图所示那样。注意到,对应于矩阵当中的第列,而对应于矩阵当中的第行。如果基础函数的个数小于数据点的个数,那么这个向量就会超过这个维的线性子空间。我们定义个是个维的向量,它的第个元素是,的值,。因为是个向量的任意线性组合......”。
4、“.....平方和误差等于和之间的欧式距离的平方。因此的最小二乘解对应于在子空间中找到使得与的距离最小。从图直观的可以看到,我们期望的最优解是在子空间上的正交投影。在实际应用当中,如果是个接近奇异的矩阵,那么直接求解组标准方程将会变得非常的困难。特别地,如果两个或两个以上的基础向量是共线的,或者几乎共线,那么产生的参数值就会有很大的量级。这种产生数值困难可以通过奇异值分解或是的方法来解决。规范化的最小二乘法为了避免过度拟合,我们在个误差函数当中引入个正则项,所以整个误差函数又可以表示成如下形式式中,是个控制依赖数据的误差的相对重要性的个标准系数......”。
5、“.....因为在序列学习算法当中,它允许权重值衰减到零,除非数据的特定支持。电子科技大学学士学位论文在统计学中,它提供了种参数收缩的例子,因为它可以把参数衰减到零。由于误差函数保持了的二次函数,所以它的精确的及消化变量就可以闭式找到。特别地,设置梯度从到并且结合之前解得的,我们得到这就是最小二乘法解的种简单延伸。有时候我们需要用到种更为普遍的正则化矩阵,它的正则化误差表示如下式中,对应于二次正则化矩阵。图显示了对于不同的值正则函数的大概轮廓。图不同值下的正则函数轮廓曲线多个输出到目前为止,我们已经考虑了对于单目标变量的情况。在些应用当中,我们可能会遇到目标变量数大于的情形。这种情况下,我们可以对每个引入组不同的基函数,就可以形成多个并且相互独立的回归问题。然后......”。
6、“.....所以,第章线性回归模型式中,是个维的列向量,是个的参数矩阵,是个由组成的个维的列向量,初值等于假设我们认为目标向量的条件分布是个各项同性的高斯分布,如下,如果我们现有组观测值,我们可以把它放入个大小为的矩阵当中,第行元素就等于的值。类似地,我们可以把输入向量,放入矩阵当中。此时,极大似然函数的对数形式就如下,和之前样,我们可以最大化这个函数,如下实验结果比较分析回归模型在实验中的应用如之前章节介绍的那样,本文当中,我们所讨论的是基于学习方法,从图像特征空间输入空间到人体骨架空间输出空间训练得到线性回归模型,正是运用本章之前介绍的线性回归模型原理,我们的实验数据满足,是输入空间,即本文当中的深度图像,梯度直方图和形状上下文......”。
7、“.....即本文当中的人体骨架模型。实验方法就是利用训练输出样本和训练输入样本学习得到的值,然后用这个训练得到的值和测试输入样本值代入到线性回归方程当中得到个新的计算输出值值,实验误差就是和每个输入测试样本也对应个输出测试样本的差值,差值越小,说明我们得到的估计效果越好。电子科技大学学士学位论文不同实验误差的比较分析如第二章,第三章,第四章所介绍的那样,本次实验我们采取了三个不同的图像特征作为输入空间,分别是深度信息,梯度直方图和形状上下文。本次实验中我们随机选取了个动作高抬挥手,由十个不同人分别各自做次,其中总共包含图像帧数为,即组数据。实验思路是,在对同个输入空间,即选定个图像特征的时候,把组数据分成训练样本和测试样本两个部分,当分别测试训练样本占的时候剩下的数据作测试样本的实验误差,为了保证每次实验的误差具有代表性......”。
8、“.....我们保证每次测试的时候随机选取训练样本并且每次实验做次然后取平均值,我们还可以在前面对初始数据降维的时候降维选取保留能量比做不同选取,即分别选取,当每次确定这个降维比定的时候就可以得到平均绝对误差与训练样本比的曲线图,具体三种不同图像特征下的实验误差分别如图,图,图图深度信息下误差分析第章线性回归模型图梯度直方图下的误差分析图形状上下文下的误差分析实验结果比较分析从上面三张不同曲线图比较当中,仅从误差大小比较,首先我们可以得到,在深度信息和梯度直方图作为输入空间的时候,实验所得到的的平均绝对误差的大小差不多,都相对比较大,达到了左右,然而在形状上下文作为输入空间的情况下,实验得到的平均绝对误差有显著地减小,减小到几左右,估计效果相对达到相对最好。由于输入图像本身就是深度图像,已经没有光照,噪声等外界因素的干扰......”。
9、“.....并未改善实验结果,然而,形状上下文算法具有如第四章介绍的不变性特性,很明显地减小了实验误差,姿态估计效果较前两者优秀其次,不管对于哪种图像特征作为输入空间,实验所得的平均绝对误差大小总是随着训练样本的增加而减少,成反相关关系,这实验结果也是合乎我们的常识。电子科技大学学士学位论文另外,我们选定同个训练样本比的时候,根据降维保留能量比的变化,误差又会随之发生相应的变化,这样我们又可以得到平均绝对误差与降维保留能量比的曲线,具体如图,图和图图深度信息下的误差分析图梯度直方图下的误差分析图形状上下文下的误差分析第章线性回归模型实验结果分析比较从上面三张不同的曲线图当中,我们可以知道,不管是哪个图像特征作为输入空间,实验所得的平均绝对误差都是在训练样本比在左右的时候达到最大,而在和的时候达到最小,之所以如此是因为......”。
1、手机端页面文档仅支持阅读 15 页,超过 15 页的文档需使用电脑才能全文阅读。
2、下载的内容跟在线预览是一致的,下载后除PDF外均可任意编辑、修改。
3、所有文档均不包含其他附件,文中所提的附件、附录,在线看不到的下载也不会有。