東京大学大学院
2022 年 2022 巻 FIN-028 号 p. 132-
(EndNote、Reference Manager、ProCite、RefWorksとの互換性あり)
(BibDesk、LaTeXとの互換性あり)
本研究では決算短信や有価証券報告書を用い,言語モデルのBERT とELECTRA について,事前学習や追加で事前学習(追加事前学習) を行いモデルを構築する.構築したモデルについて,金融ドメインのタスクによって汎用コーパスを用いたモデルとの性能を比較する.その際,ファインチューニングを行う層の数などパラメーターによる性能についても比較を行う.構築した一部のモデルについては一般に公開する.
すでにアカウントをお持ちの場合 サインインはこちら