抄録
サポートベクターマシン(SVM)では,分離不可能な学習データを特徴空間上で判別する場合,判別平面に対する誤差量を目的関数値へのペナルティとして加え定式化し,分離超平面を求める.これに対して,学習データの各々の違反量を特徴空間の各次元に割り当て(Soft-margin extension),直接的に分離超平面を求めるDirectSVMという手法が提案されている.本論文では,こうして得られた2次計画問題をGoldfarb Idnani法(GI法)で解き,DirectSVMの結果と比較する.この2次計画問題はきわめて疎な構造をもつが,この疎な構造を利用してGI法を能率的に実行することを考える.