Ml

詳細なSVMと一般的な面接の質問



Detailed Svm Common Interview Questions



SVMの経験と収集されたいくつかの面接の質問を学ぶ

1.SVMの機能
高次元データの問題を解決できます(双対問題は次元関連の問題をサンプル数に変換します)
ローカル最適化を回避するグローバルソリューション
独自のL2レギュラーと同等です
ただし、欠測データとノイズに敏感です(主要なサポートベクター)
入力データを正規化する必要があります(距離の計算を含み、正規化により最急降下法を使用する場合の精度が向上し、正規化により速度が向上します)
複雑さはO(n2)であり、ビッグデータは適切ではありません
2.なぜ双対問題に変換するのか

  1. 目的関数と制約を新しい関数、つまりラグランジュ関数に統合し、この関数を使用して、処理が簡単な最良の利点を見つけます。
  2. サンプルの内積の形で、カーネル関数が自然に導入されます。
  3. サンプル次元に関連するソリューションをサンプルサイズ(サポートベクター)に変換します

3.SVMはどのように予測確率を出力しますか
SVMの出力をxとして取得し、LRモデルのレイヤーを通過する確率を取得します。ここで、lrのWパラメーターとbパラメーターは、全体的なクロスエントロピーを最小にする値です。
4.SVMとLRの違い



  1. LRとSVMはどちらも分類問題を処理でき、一般に線形二項分類問題を処理するために使用されます(改善の場合は複数分類問題を処理できます)
  2. どちらの方法でも、l1、l2などの異なる正則化項を追加できます。したがって、多くの実験では、2つのアルゴリズムの結果は非常に近いものです。
  3. カーネル関数が追加されている限り、LRとSVMの両方を非線形分類に使用できます。
  4. LRとSVMはどちらも線形モデルです。もちろん、ここではカーネル関数については考慮していません。
  5. 判別モデル
    異なる
  6. LRはパラメトリックモデルであり、SVMはノンパラメトリックモデルです。
  7. 損失関数の観点からは、ロジスティック回帰はロジスティック損失(最尤損失)を使用し、SVMはヒンジ損失を使用するという違いがあります。これらの2つの損失関数の目的は、分類の重みに大きな影響を与えるデータポイントを増やし、分類とほとんど関係のないデータポイントの重みを減らすことです。
  8. ロジスティック回帰は、特に大規模な線形分類の場合、比較的単純で理解しやすいものです。 SVMの理解と最適化は比較的複雑です。 SVMが双対問題に変換された後、分類はいくつかのサポートベクターからの距離を計算するだけで済みます。これには、複雑なカーネル関数の計算に明らかな利点があり、モデルと計算を大幅に簡素化できます。 。
  9. SVMはサポートベクターのいくつかのポイントにのみ関連し、LRはすべてのポイントに関連するため、SVMはデータ分布に直接依存しませんが、LRは全体的なデータ分布に依存します。
  10. SVMは通常の係数に依存し、CVは実験で行う必要があります
  11. SVM自体は構造的リスク最小化モデルであり、LRは経験的リスク最小化モデルです。