下流タスクにおけるLLMsの能力を高めるには、適切なPromptが必要であるが、適切とは何かについてまだ十分に議論されていない。本稿は自然言語Promptの下位分類として、①定義DP,②実例IP,③再帰的定義RDPを立て、7つ(D,I,RD,D+I,RD+I,D+RD,D+RD+I(Pは省略))の知識注入の方法を検証した。合計350回の実験を繰り返した結果、?IとRDは類似した結果を示し、Dよりも高い精度・安定性を示した。?複数種類Prompt法のいずれも単一種類Prompt方より高い精度・安定性を見せた。?D+Iの精度は最も高いが、D+RD+Iは安定性が有意に優れ、総合的に最も良い性能を見せた。?RDPの投与は安定性を増す効果がみられ、DPとIPは強い相乗効果が観察され、IPはDPよりも良い結果を示した。これらの結果に基づき、本稿は知識注入の手法と、ドメインエキスパートの役割を考察した。
抄録全体を表示