2025 年 37 巻 4 号 p. 751-759
分解データを用いた秘匿分散処理に関するBP学習法が提案されている.この方法は,安心かつ安全な学習法であるが,パラメータ数やサーバ間の通信回数が多い欠点がある.これらの欠点を改善するために,分解パラメータを中央サーバでのみ更新する学習方法を提案する.従来法と提案法のパラメータ数や通信コストを示し,また数値実験によってその精度を評価する.その結果,Q個のサーバを持つモデルで,従来の1/Qの分解パラメータを持つモデルに匹敵する精度を達成できることを示す.