自然言語処理
Online ISSN : 2185-8314
Print ISSN : 1340-7619
ISSN-L : 1340-7619
25 巻, 2 号
選択された号の論文の4件中1~4を表示しています
巻頭言
論文
  • 小田 悠介, Philip Arthur, Graham Neubig, 吉野 幸一郎, 中村 哲
    2018 年 25 巻 2 号 p. 167-199
    発行日: 2018/03/15
    公開日: 2018/06/15
    ジャーナル フリー

    本論文では,ニューラル翻訳モデルで問題となる出力層の時間・空間計算量を,二値符号を用いた予測法により大幅に削減する手法を提案する.提案手法では従来のソフトマックスのように各単語のスコアを直接求めるのではなく,各単語に対応付けられたビット列を予測することにより,間接的に出力単語の確率を求める.これにより,最も効率的な場合で従来法の対数程度まで出力層の計算量を削減可能である.このようなモデルはソフトマックスよりも推定が難しく,単体で適用した場合には翻訳精度の低下を招く.このため,本研究では提案手法の性能を補償するために,従来法との混合モデル,および二値符号に対する誤り訂正手法の適用という 2 点の改良も提案する.日英・英日翻訳タスクを用いた評価実験により,提案法が従来法と比較して同等程度の BLEU を達成可能であるとともに,出力層に要するメモリを数十分の 1 に削減し,CPU での実行速度を 5 倍から 10 倍程度に向上可能であることを示す.

  • Gongye Jin, Daisuke Kawahara, Sadao Kurohashi
    2018 年 25 巻 2 号 p. 201-221
    発行日: 2018/03/15
    公開日: 2018/06/15
    ジャーナル フリー

    This paper presents a method for improving semantic role labeling (SRL) using a large amount of automatically acquired knowledge. We acquire two varieties of knowledge, which we call surface case frames and deep case frames. Although the surface case frames are compiled from syntactic parses and can be used as rich syntactic knowledge, they have limited capability for resolving semantic ambiguity. To compensate for the deficiency of the surface case frames, we compile deep case frames from automatic semantic roles. We also consider quality management for both types of knowledge in order to get rid of the noise brought from the automatic analyses. The experimental results show that Chinese SRL can be improved using automatically acquired knowledge and the quality management shows a positive effect on this task.

  • 梶原 智之, 小町 守
    2018 年 25 巻 2 号 p. 223-249
    発行日: 2018/03/15
    公開日: 2018/06/15
    ジャーナル フリー

    難解なテキストと平易なテキストからなる大規模な単言語パラレルコーパスを用いて,テキスト平易化が活発に研究されている.しかし,英語以外の多くの言語では平易に書かれた大規模なコーパスを利用できないため,テキスト平易化のためのパラレルコーパスを構築するコストが高い.そこで本研究では,テキスト平易化のための大規模な疑似パラレルコーパスを自動構築する教師なし手法を提案する.我々の提案するフレームワークでは,リーダビリティ推定と文アライメントを組み合わせることによって,生コーパスのみからテキスト平易化のための単言語パラレルコーパスを自動構築する.統計的機械翻訳を用いた実験の結果,生コーパスのみを用いて学習した我々のテキスト平易化モデルは,平易に書かれた大規模なコーパスを用いて学習した従来のテキスト平易化モデルと同等の性能で平易な同義文を生成できた.

feedback
Top