SVM为什么会火?它真的有大家说的那样好用吗?
0 858
1
该提问暂无详细描述
收藏
2021-01-15 16:19 更新 🍊小桔子 •  1922
共 1 个回答
高赞 时间
0

公平地说,我认为SVM从来没有像宣传所说的那样好。即使在它的巅峰时期,你也可以用树的集合(比如像Adaboost这样的增强方法或者Random Forest)来超越它。 之所以有人大量宣传,是因为有人喜欢它与函数分析的联系,并且引领了所谓的“核方法”(尽管你可以用核逻辑回归和核最小二乘法获得类似的性能)。然而,我想说的是,SVM有两个很明显的缺点: 数据很难作为特征向量给出。实际上,更多的时候,数据可能是图像、视频、语音、文本/语言、音乐等等。 这里的支持向量机本身是完全没有价值的,它需要一些特征提取方法才能很好地工作,繁重的工作是通过该方法完成的(例如在图像中,SIFT-like算法),SVM得到另一种方法的输出,然后在那里进行分类。 这在10年前效果不错,但随着2012年后深度学习的发展,一切都发生了变化。从特征提取到分类,再到同时进行特征提取和分类,它的效果要好得多。 深层神经网络不仅使支持向量机变得无关紧要,而且基本上改变了传统计算机视觉或传统机器翻译的整个领域。 但是如果数据是特征向量格式呢?这种情况有时会发生。人们意识到要打败Adaboost(在其极其高效的xgboost库中)是非常困难的,因为它比核支持向量机速度快。公平地说,随机林和梯度提升一样有效,但大多数人似乎更喜欢xgboost库(可能是因为我们没有针对随机林的高效库)。 因此,随着深度神经网络和梯度增强方法的普及,支持向量机的应用变得越来越困难。在某些情况下,它可能会优于其他方法(你可以对naivebayes说同样的话),但通常情况下,它并不是最好的选择。 SVM是一个很好的算法,在机器学习的历史上发挥了很大的作用,但已经被更好的算法取代。

收藏
2021-01-15 16:21 更新 Lisa •  1296