自然言語処理
Online ISSN : 2185-8314
Print ISSN : 1340-7619
ISSN-L : 1340-7619
一般論文
係り受け構造に基づく相対的位置表現を考慮した Transformer NMT
表 悠太郎田村 晃裕二宮 崇
著者情報
ジャーナル フリー

2020 年 27 巻 2 号 p. 281-298

詳細
抄録

本稿では,原言語文の係り受け木に対する単語間の相対的位置関係を Transformer エンコーダ内の Self Attention でエンコードする新たなニューラル機械翻訳モデルを提案する.具体的には,提案モデルでは,原言語文を係り受け解析した結果得られる係り受け木中の 2 単語間の相対的な深さを埋め込んだベクトルを Transformer エンコーダ内の Self Attention に付加する.ASPEC の日英及び英日翻訳タスクにおいて,原言語文の係り受け構造を用いない従来の Transformer モデルよりも翻訳精度が高いことを示す.特に,日英翻訳においては 0.37 ポイント BLEU スコアが上回ることを確認した.

著者関連情報
© 2020 一般社団法人 言語処理学会
前の記事 次の記事
feedback
Top