人工知能学会全国大会論文集
Online ISSN : 2758-7347
第34回 (2020)
セッションID: 4P3-OS-8-05
会議情報

事前学習モデルBERTによる法令用語の校正
*山腰 貴大駒水 孝裕小川 泰弘外山 勝彦
著者情報
会議録・要旨集 フリー

詳細
抄録

法令文書には,「者」「物」「もの」や「規定」「規程」のように互いに類似している法令用語が出現する.このような法令用語は,法制執務(法令の起草・制定・改廃など法令文書の作成・管理に関する業務)の慣習や規則によって使用法とともに定義されている.法令において,これらの法令用語はそれに従い,厳密に書き分ける必要がある.契約書や約款などの広義の法令文書においても,誤解を防ぐために,法令に準じて正しく書き分けることが望ましい.そこで,本研究では,与えられた法令文から法令用語を検出し,誤用と思われるものに対してその修正案を出力することにより,法令文書の作成を支援する手法を提案する.本手法では,このタスクを選択肢付き穴埋め問題とみなし,分類器により解決する.分類器は,一般文によって事前学習したBERTモデルから構築する.このとき,(1)法令文によるドメイン適応,(2)訓練データのアンダーサンプリング,(3)分類器の統一の三つの工夫を施すことにより性能向上を図る.実験の結果,ランダムフォレストやニューラル言語モデルによる分類器よりも本手法の方が高い性能を発揮することを明らかにした.

著者関連情報
© 2020 一般社団法人 人工知能学会
前の記事 次の記事
feedback
Top