電気学会論文誌C(電子・情報・システム部門誌)
Online ISSN : 1348-8155
Print ISSN : 0385-4221
<ソフトコンピューティング・学習>
大規模自然言語処理学習データのための複数弱仮説を生成する弱学習器を用いるAdaBoost手法
岩倉 友哉岡本 青史淺川 和雄
著者情報
ジャーナル 認証あり

130 巻 (2010) 1 号 p. 83-91

詳細
PDFをダウンロード (580K) 発行機関連絡先
抄録

AdaBoost is a method to create a final hypothesis by repeatedly generating a weak hypothesis in each training iteration with a given weak learner. AdaBoost-based algorithms are successfully applied to several tasks such as Natural Language Processing (NLP), OCR, and so on. However, learning on the training data consisting of large number of samples and features requires long training time. We propose a fast AdaBoost-based algorithm for learning rules represented by combination of features. Our algorithm constructs a final hypothesis by learning several weak-hypotheses at each iteration. We assign a confidence-rated value to each weak-hypothesis while ensuring a reduction in the theoretical upper bound of the training error of AdaBoost. We evaluate our methods with English POS tagging and text chunking. The experimental results show that the training speed of our algorithm are about 25 times faster than an AdaBoost-based learner, and about 50 times faster than Support Vector Machines with polynomial kernel on the average while maintaining state-of-the-art accuracy.

著者関連情報
© 電気学会 2010
前の記事 次の記事

閲覧履歴
ジャーナルのニュースとお知らせ
  • 【電気学会会員の方】購読している論文誌を無料でご覧いただけます(会員ご本人のみの個人としての利用に限ります)。購読者番号欄にMyページへのログインIDを,パスワード欄に生年月日8ケタ(西暦,半角数字。例:19800303)を入力して下さい。
ダウンロード
  • 論文(PDF)の閲覧方法はこちら
    閲覧方法 (389.7K)
関連情報

J-STAGEがリニューアルされました!  https://www.jstage.jst.go.jp/browse/-char/ja/

feedback
Top