機械学習技術の発展により,高精度な機械学習モデルの社会実装への期待が高まってきている.しかし,深層学習モデルに代表される高精度なモデルはきわめて複雑な構造をしており,その推論プロセスや出力の根拠を人間が論理的ないし直感的に読み解くことは困難である.本稿ではこのような「ブラックボックス」なモデルを近似的・部分的に読み解くための説明法を紹介する.
深層学習技術の発展に伴い,人工知能(AI)の医療応用に関する研究も国内外で急速にその数を増やしている.しかし,実用化に向けた大きな課題の一つとして,AIの判断根拠を人が解釈困難であることが挙げられる.医師は診断に責任を負うため,AIが下した判断の信頼性を確認できることが望ましい.われわれは,AIの判断過程を人に説明可能とするだけでなく,人の背景知識と照らし合わせることで課題に対する理解を深め,より高精度に判断できる共進化AIの実現に向けた研究開発を進めている.本稿では,病理画像診断に適用してきた取り組みについて紹介する.
画像認識分野において,深層学習は高い認識性能を実現している.しかしながら,深層学習の認識時における判断根拠を人が理解することは困難である.深層学習の判断根拠を解析する手法の一つに,視覚的説明がある.視覚的説明では,認識時にネットワークが注視した領域を,アテンションマップにより可視化できる.アテンションマップを可視化することで,人がAIの判断根拠を理解することができる.また,視覚的説明に用いられるアテンションマップをアテンション機構により認識処理に応用することで,認識性能の向上が可能である.さらに,アテンションマップを人手で調整して学習することで,ネットワークに人の知見を導入することができる.本論文では,視覚的説明によるアテンションマップの可視化およびアテンション機構による判断根拠の解析に関する研究について紹介する.
本稿では,自然の形成原理により自動で大規模画像データセットを構築する方法論について解説する.具体的には,任意の数式や関数を用いて画像パターンやその画像カテゴリーを生成することにより事前学習のための画像データセットを構築する数式ドリブン教師あり学習について紹介する.2021年現在,自然を形成する法則のひとつとして知られるフラクタル幾何により生成されたデータセットであるFractalDBを用いた畳み込みニューラルネットワーク(CNN; convolutional neural networks)の事前学習モデルが,転移学習の文脈において比較的高い精度を実現している.現状,最も効果的といわれる教師あり学習には精度の面で及んではいないが,今後改善がみられる場合には,画像の使用権利やAI倫理の面での不安を軽減するデータセットとしての利用が期待される.
深層学習において本格的な実験や研究を行うためには,GPUを使った環境構築が必要となる.これは,CPUのみで計算した場合と比較して数十倍の計算速度が得られるためである.今回の講座では,GPU環境の構築方法を説明し,画像の領域分割を例にして,計算時間がどの程度変化するかを明らかにする.同時に,U-Netを用いた領域分割の方法,その正解データの構築についても言及する.