近年, 人工知能技術の急速な発展の中, 人間のさまざまな知識を体系的に連結してその関係をグラフ構造で表現する Knowledge Graph は強い注目を受けており, 人工知能の基盤技術としてさまざまな分野で活用されている. その中で既存の Knowledge Graph に新たな知識を付加する要求が生じた際のために Knowledge Graph の自動補完手法が希求されている. 従来の Knowledge Graph 補完手法である TransE や ComplEx などの問題点として, 知識の関係性を重視して学習しており, 知識自体の意味情報を効果的に捉えていない点がある. 本研究では, 知識自体の意味情報を効果的に捉えるために深層言語モデルである BERT による Masked Language Modeling を用いた Knowledge Graph 自動補完手法を提案して, 評価実験によりその有効性を検証した.