最近,我一直在讲课和课文,并试图理解SVM的使能如何用于更高维空间。支持向量机理解
在正常的逻辑回归中,我们使用这些特征。但是在SVM中,我们使用一个映射帮助我们获得非线性决策边界。
通常情况下,我们直接使用特征..但在内核技巧的帮助下,我们可以在数据中找到使用特征之间的关系。产品之间的关系等。这是正确的?
我们在内核的帮助下做到这一点。
Now..i明白,一个多项式核对应于已知功能vector..but我无法理解什么高斯核相当于(有人告诉我vector..but什么无限维特征?)
另外,我无法通过掌握内核是训练样例之间的相似度量的概念。how is this is a part of the SVM's working?
我花了很多时间试图理解这些..但徒然。任何帮助将大大apprecciated!
感谢提前:)
内核只是一个必须满足一些预定义属性(我不想列出它们,你可以自己找到它)的操作。在线性情况下,内核点积在非线性情况下被替换为(比方说)高斯内核。点积也是某种意义上的相似度量,因为如果它们之间的角度减小,则在两个向量之间得到更大的点积的结果。 –
当我们使用svm时,为什么我们需要一个相似性度量值?根据我的理解,使用内核我们可以通过使用更高维特征向量来找到非线性决策边界。 –
相似性是距离的倒数。对于线性情况,距离函数是简单的毕达哥拉斯距离,用线性向量操作实现。 “核心技巧”应用非线性距离函数。另一种考虑它的方式是内核技巧搜索距离度量标准,该距离度量标准将空间转换为分离超平面*为*线性的位置。 – Prune