本論文では,隠れ層の再帰的な構造により,過去のアラインメント履歴全体を活用するリカレントニューラルネットワーク (RNN) による単語アラインメントモデルを提案する.ニューラルネットワークに基づくモデルでは,従来,教師あり学習が行われてきたが,本論文では,本モデルの学習法として,Dyer らの教師なし単語アラインメント (Dyer, Clark, Lavie, and Smith 2011) を拡張して人工的に作成した負例を利用する教師なし学習法を提案する.提案モデルは,IBM モデル (Brown, Pietra, Pietra, and Mercer 1993) などの多くの従来手法と同様に,各方向で独立にアラインメントを学習するため,両方向を考慮した大域的な学習を行うことができない.そこで,各方向のモデルの合意を取るように同時に学習することで,アラインメントの精度向上を目指す.具体的には,各方向のモデルの word embedding の差を表すペナルティ項を目的関数に導入し,両方向で word embedding を一致させるようにモデルを学習する.日英及び仏英単語アラインメント実験を通じて,RNN に基づくモデルは,フィードフォワードニューラルネットワークによるモデル (Yang, Liu, Li, Zhou, and Yu 2013) や IBM モデル 4 よりも単語アラインメント精度が高いことを示す.さらに,日英及び中英翻訳実験を通じて,これらのベースラインと同等かそれ以上の翻訳精度を達成できることを示す.
抄録全体を表示