自然言語処理
Online ISSN : 2185-8314
Print ISSN : 1340-7619
ISSN-L : 1340-7619
29 巻, 3 号
選択された号の論文の19件中1~19を表示しています
巻頭言(査読無)
一般論文
  • Tareq Alkhaldi, Chenhui Chu, Sadao Kurohashi
    2022 年 29 巻 3 号 p. 762-784
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    Recent research shows that Transformer-based language models (LMs) store considerable factual knowledge from the unstructured text datasets on which they are pre-trained. The existence and amount of such knowledge have been investigated by probing pre-trained Transformers to answer questions without accessing any external context or knowledge (also called closed-book question answering (QA)). However, this factual knowledge is spread over the parameters inexplicably. The parts of the model most responsible for finding an answer only from a question are unclear. This study aims to understand which parts are responsible for the Transformer-based T5 reaching an answer in a closed-book QA setting. Furthermore, we introduce a head importance scoring method and compare it with other methods on three datasets. We investigate important parts by looking inside the attention heads in a novel manner. We also investigate why some heads are more critical than others and suggest a good identification approach. We demonstrate that some model parts are more important than others in retaining knowledge through a series of pruning experiments. We also investigate the roles of encoder and decoder in a closed-book setting.

  • Yukun Feng, Chenlong Hu, Hidetaka Kamigaito, Hiroya Takamura, Manabu O ...
    2022 年 29 巻 3 号 p. 785-806
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    We propose a simple and effective method for incorporating word clusters into the Continuous Bag-of-Words (CBOW) model. Specifically, we propose replacing infrequent input and output words in CBOW with their clusters. The resulting cluster-incorporated CBOW model produces embeddings of frequent words and a small amount of cluster embeddings, which will be fine-tuned in downstream tasks. We empirically demonstrate that our replacing method works well on several downstream tasks. Through our analysis, we also show that our method is potentially useful for other similar models that produce word embeddings.

  • 清丸 寛一, 黒橋 禎夫
    2022 年 29 巻 3 号 p. 807-834
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    意志性と主語有生性はイベントの基本的な属性であり,密接な関係にある.これらの認識は文脈を考慮したテキスト理解を必要とし,その学習には大量のラベル付きデータを要する.本論文では,人手でラベル付きデータを構築することなく,意志性と主語有生性を同時学習する手法を提案する.提案手法では生コーパス中のイベントにヒューリスティクスを用いてラベルを付与する.意志性のラベルは「わざと」や「うっかり」といった意志性を示す副詞を頼りに付与する.主語有生性のラベルは知識ベースに登録されている有生名詞・無生名詞を頼りに付与する.こうして集めたイベントから手がかり語を含まないイベントに汎化する分類器を構築する.本研究ではこの問題をバイアス削減ないしは教師なしドメイン適応の問題とみなして解く.日本語と英語の実験で,提案手法により,人手でラベル付きデータを構築することなく,意志性・主語有生性の高精度な分類器を構築できることを示した.

  • 秋山 和輝, 田村 晃裕, 二宮 崇, 梶原 智之
    2022 年 29 巻 3 号 p. 835-853
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    本稿では,BART モデルに文書の階層構造(文-単語構造)を取り込んだ階層型 BART (Hie-BART) を提案する.既存の BART モデルは,生成型文書要約タスクにおいて高い要約精度を達成しているが,文レベルと単語レベルの情報の相互作用を考慮していない.一方,機械翻訳タスクでは,単語とフレーズ間の関係を把握する Multi-Granularity Self-Attention (MG-SA) が提案されており,この技術によってニューラル機械翻訳モデルの性能が向上されている.提案手法である Hie-BART モデルでは,BART モデルのエンコーダに MG-SA を組み込むことで,文と単語の階層構造を捉える.評価実験の結果,提案手法は CNN/Daily Mail データセットを用いた評価では ROUGE-L において 0.1 ポイントの改善が見られた.

  • 河野 慎司, 古宮 嘉那子, 新納 浩幸
    2022 年 29 巻 3 号 p. 854-874
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    BERT は fine-tuning することで様々な NLP タスクに対して高性能な結果を出した事前学習済みモデルであるが,多くのパラメータを調整する必要があるため学習や推論に時間がかかるという問題がある.本論文では日本語構文解析に対して,BERT の一部の層を削除した簡易小型化 BERT の利用を提案する.実験では,京都大学ウェブ文書リードコーパスと京都大学テキストコーパスを混合したデータを用いて,京大版の BERT とそこから構築した簡易小型化 BERT の正解率と処理時間を比較した.提案する簡易小型化 BERT では,京大版の BERT からの正解率の劣化をウェブコーパスで 0.87 ポイント,テキストコーパスで 0.91 ポイントに押さえながら,学習時間は 83%,推論時間はウェブコーパスで 65%,テキストコーパスで 85%まで削減することができた.

  • 小林 尚輝, 平尾 努, 上垣外 英剛, 奥村 学, 永田 昌明
    2022 年 29 巻 3 号 p. 875-900
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    修辞構造解析ではニューラルネットワークなどの識別器を用いた解析器を教師あり学習により学習する.しかし,現存の最大規模のコーパスである RST-DT は 385 文書しかなく,ニューラルネットワークを学習するに十分な量とは言い難い.このような学習データの不足は,クラス数が多く頻度に偏りのある修辞関係ラベルの推定において性能低下の原因となる.そこで,本論文では自動的に修辞構造を付与した疑似正解データセットを利用したニューラル修辞構造解析手法を提案する.疑似正解データセットは複数の解析器により得られた修辞構造木の間で共通する部分木とし,ニューラル修辞構造解析器の事前学習に利用し,人手で作成した正解データを用いて解析器を追加学習する.RST-DT コーパスを用いた実験では,提案手法は OriginalParseval による核性と修辞関係の評価においてそれぞれ micro-F1 で 64.7,54.1 を達成した.

  • Kazuaki Hanawa, Ryo Nagata, Kentaro Inui
    2022 年 29 巻 3 号 p. 901-924
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    Feedback comment generation is the task of generating explanatory notes for language learners. Although various generation techniques are available, little is known about which methods are appropriate for this task. Nagata (2019) demonstrates the effectiveness of neural-retrieval-based methods in generating feedback comments for preposition use. Retrieval-based methods have limitations in that they can only output feedback comments existing in the given training data. Besides, feedback comments can be made on other grammatical and writing items other than preposition use, which has not yet been addressed. To shed light on these points, we investigate a wider range of methods for generating various types of feedback comments in this study. Our close analysis of the features of the task leads us to investigate three different architectures for comment generation: (i) a neural-retrieval-based method as a baseline, (ii) a pointer-generator-based generation method as a neural seq2seq method, (iii) a retrieve-and-edit method, a hybrid of (i) and (ii). Intuitively, the pointer-generator should outperform neural-retrieval, and retrieve-and-edit should perform the best. However, in our experiments, this expectation is completely overturned. We closely analyze the results to reveal the major causes of these counter-intuitive results and report on our findings from the experiments, which will lead to further developments of feedback comment generation.

解説論文(査読有)
  • 今村 賢治, 越前谷 博, 江原 暉将, 後藤 功雄, 須藤 克仁, 園尾 聡, 綱川 隆司, 中澤 敏明, 二宮  崇, 王 向莉
    2022 年 29 巻 3 号 p. 925-985
    発行日: 2022年
    公開日: 2022/09/15
    ジャーナル フリー

    本解説論文では,特許を対象とした機械翻訳における種々の課題に対する関連技術の解説を行う.特許に対する機械翻訳は実用的にも学術的にも長い歴史を持つが,ニューラル機械翻訳の登場で新たな段階に進んできたと言える.そうした動向を踏まえ,訳抜け・過剰訳への対策,用語訳の統一,長文対策,低リソース言語対対策,評価,翻訳の高速化・省メモリ化,の6項目に分けて近年の関連技術を紹介し,今後の方向性を論じる.

学会記事
後付記事(査読無)
feedback
Top