Svm分類器如何最大化兩個支持向量之間的邊距

支持向量機(Support Vector Machine, SVM)是一種常見的機器學習算法,用於解決分類和回歸問題。在分類問題中,SVM 的目標是在特徵空間中找到一個超平面,該超平面能夠將不同類別的數據點分開。這個超平面由一個或幾個支持向量定義,這些支持向量是數據點中與超平面最近的一些點。

最大化兩個支持向量之間的邊距是硬邊界(Hard Margin)SVM 的目標。在硬邊界SVM中,算法試圖找到一個超平面,使得所有數據點都落在超平面的同一側,並且離超平面最遠的支持向量之間的距離最大化。這個最大距離被稱為邊界寬度(margin width)。

為了最大化邊界寬度,SVM 使用了一個稱為合頁損失(Hinge loss)的函數,該函數在數據點與超平面之間的距離小於邊界寬度時會產生較大的值。在訓練過程中,SVM 通過最小化合頁損失來最大化邊界寬度。

在實踐中,由於數據的不完美性質(例如噪音和異常值),找到一個能夠完美分隔所有數據的超平面可能是不切實際的。因此,SVM 也提供了軟邊界(Soft Margin)的版本,允許某些數據點違反邊界條件,從而找到一個更適合數據的超平面。在軟邊界SVM中,最大化邊界寬度的目標被一個稱為正則化係數(regularization coefficient)的參數所平衡,該參數控制了模型複雜度和訓練誤差的權衡。