本論文では特定の発話者に対する言語モデルの構築手法を提案する.現在,対話エージェントや RPG などのゲームのセリフにおいて,キャラクタらしい発話が求められている.しかし,特定のキャラクタに特化した言語モデルの構築を行うには,訓練データが不足している.そのため本論文では対象の発話者と同一作品に出てくる別人物の発話を,T5 を用いて対象発話者の発話風に変換し,訓練データを増補する.提案手法では,対象の発話者の発話を「タスク」の訓練データ,作中の登場人物たちの発話を「ドメイン」の訓練データとし,DAPT (domain adaptive pretraining) + TAPT (task adaptive pretraining) の手法でベースの言語モデルとなる GPT-2 に fine-tuning を行う.この際,多様な口調をモデルに区別させるために,文頭に発話者の名前を追加する.また,登場人物の発話を人手で一般的な発話に変換することで,発話者らしいキャラクタ性を含んだ文と一般的な文のペアを作成する.さらに,これらの文ペアを用いてT5を学習し,(A) 一般的な発話からキャラクタらしい発話への変換モデルと (B) キャラクタらしい発話から一般的な発話への変換モデルを作成する.モデル (A) を使って作った (1) 人手で作成した一般的な発話を対象の発話者風に変換した発話集合と,モデル (A) と (B) を使って作った (2) 対象の発話者と同一作品の登場人物の発話を対象の発話者風に変換した発話集合を対象発話者の擬似データとして扱う.7 名のキャラクタの言語モデルの平均のパープレキシティを評価したところ,GPT-2 に対象の発話者の発話のみで訓練を行った場合は 27.33 であったのに対し,提案手法を利用した場合は 21.15 となり,性能を向上させることができた.