大規模言語モデルの推薦への応用に注目が集まる中,公平性に関する議論は発展途上である.本研究では,大規模言語モデルの課題の一つとして指摘されている訓練データの暗記に着目し,生成的推薦システムを分析する.具体的に日本語ニュースメディアのログデータを用いて,ユーザが閲覧する記事タイトルの変遷を予測するように Llama 3 をファインチューニングし,訓練データの暗記を定量化した.実験の結果,人気記事が過度に推薦されるバイアスが存在し,その要因が訓練データの暗記の観点で解釈できると示唆された.解釈を活用し,暗記の対応策として知られる重複排除が,生成的推薦の人気バイアスの軽減に利用可能であることも実証した.