2020 年 27 巻 2 号 p. 281-298
本稿では,原言語文の係り受け木に対する単語間の相対的位置関係を Transformer エンコーダ内の Self Attention でエンコードする新たなニューラル機械翻訳モデルを提案する.具体的には,提案モデルでは,原言語文を係り受け解析した結果得られる係り受け木中の 2 単語間の相対的な深さを埋め込んだベクトルを Transformer エンコーダ内の Self Attention に付加する.ASPEC の日英及び英日翻訳タスクにおいて,原言語文の係り受け構造を用いない従来の Transformer モデルよりも翻訳精度が高いことを示す.特に,日英翻訳においては 0.37 ポイント BLEU スコアが上回ることを確認した.