2023 年 35 巻 1 号 p. 506-510
データの安全性を保持し学習を実行する方法に関する多くの研究が行われている.その1つに,秘匿データの分散処理を用いた秘密計算法が知られている.この手法の特徴は,機械学習におけるデータやパラメータを分解して分散処理することで,高い秘匿性を実現する.一方,分解データやパラメータの分散・統合による機械学習の実現は,計算量の増大と計算精度の劣化を招く.本稿では,サーバ数の増加に伴う計算量(パラメータの更新回数)の増加を抑制するBP学習法の改善方法を提案し,その有効性を実証する.