Test and training error
为什么低练习误差并不老是一件好的工作呢:上图以模型复杂度为变量的测试及练习缺点函数。
Under and overfitting
低度拟合或者过度拟合的例子。上图多项式曲线有各类各样的敕令M,以红色曲线表示,由绿色曲线适应数据集后生成。
Occam’s razor
上图为什么贝叶斯推理可以具体化奥卡姆剃刀道理。这张图给了为什么复杂模型本来是小概率事宜这个问搪一?根本的直不雅的解释。程度轴代表了可能的数据集D空间。贝叶斯定理以他们猜测的数据出现的程度成比例地反馈模型。这些猜测被数据D上归一化概率分布量化。数据的概率给出了一种模型Hi,P(D|Hi)被称作支撑Hi模型的证据。一个简单的模型H1仅可以做到一种有限猜测,以P(D|H1)展示;一个加倍强大年夜的模型H2,举例来说,可以比模型H1拥有加倍自由的参数,可以猜测更多种类的数据集。这也注解,无论若何,H2在C1域中对数据集的猜测字不到像H1那样强大年夜。假设相等的先验概率被分派给这两种模型,之后数据集落在C1区域,不那么强大年夜的模型H1将会是加倍合适的模型。
在解释机械进修的根本概念的时刻,我发明本身老是回到有限的几幅图中。以下是我认为最有启发性的条目列表。
Feature combinations
(1)为什么集体相干的特点零丁来看时可有可无,这也是(2)线性办法可能会掉败的原因。大年夜Isabelle Guyon特点提取的幻灯片来看。
为什愦可有可无的特点会伤害KNN,聚类,以及其它以类似点集合的办法。阁下的图展示了两类数据很好地被分别在纵轴上。右图添加了一条不切题的横轴,它破坏了分组,并且使得很多点成为相反类的近邻。
Basis functions
非线性的基本函数是若何矢荷琐低维度的非线性界线的分类问题,改变为一个高维度的线性界线问题。Andrew Moore的支撑向量机SVM(Support Vector Machine)教程幻灯片中有:一个单维度的非线性带有输入x的分类问题转化为一个2维的线性可分的z=(x,x^2)问题。
Discriminative vs. Generative
为什么判别式进修比产生式加倍简单:上钤记两类办法的分类前提的密度举例,有一个单一的输入变量x(左图),连同响应的后验概率(右图)。留意到左侧的分类前提密度p(x|C1)的模式,在左图中以蓝色线条表示,对后验概率没有影响。右图中垂直的绿线展示了x中的决定计划界线,它给出了最小的误判率。
Irrelevant features
Loss functions
进修算法可以被始咀优化不合的损掉函数:上图应用于支撑向量机中的“搭钮”缺点函数图形,以蓝色线条表示,为了逻辑回归,跟着缺点函数被因子1/ln(2)从新调剂,它经由过程点(0,1),以红色线条表示。黑色线条表示误分,均方误差以绿色线条表示。
Geometry of least squares
上图带有两个猜测的最小二乘回归的N维几何图形。结不雅向量y正交投影到被输入向量x1和x2所跨越的超平面。投影y^代表了最小二乘猜测的向量。
Sparsity
为什么Lasso算法(L1正规化或者拉普拉斯先验)给出了稀少的解决筹划(比如:带更多0的加权向量):上图lasso算法的估算图像(左)以及岭回归算法的估算图像(右)。展示了缺点的等值线以及束缚函数。分其余,当红色椭圆是最小二乘误差函数的等高线时,实心的蓝色区域是束缚区域|β1| + |β2| ≤ t以及β12 + β22 ≤ t2。
【编辑推荐】
- 聊天机械人中的两把技巧之火:AI和机械进修
- Spark for python developers —Spark与数据的机械进修
- 机械进修在恶意软件检估中的应用
推荐阅读
28款GitHub最流行的开源机器学习项目:TensorFlow排榜首
如今机械进修逐渐成为行业热点,经由二十几年的成长,机械进修今朝也有了十分广泛的应用,如:数据发掘、计算机视觉、天然说话处理、生物特点辨认、搜刮引擎、医学诊断、DNA序列测序、语音>>>详细阅读
本文标题:用十张图解释机器学习的基本概念
地址:http://www.17bianji.com/lsqh/34853.html
1/2 1