近年、深層学習をはじめとする人工知能(AI)技術の急速な発展に伴い、自動運転や医療画像診断など様々な分野での実用化が進んでいる。特に画像解析においては、AI技術による解析精度はいまや人間の能力を超えることもある。
深層学習の優れた点は、人間の手を借りずとも、大量の学習データの中から推論に必要な特徴量を自動抽出可能な点である。一方で、どんな特徴量を抽出するかはAI任せであり、AIが何を根拠に推論しているかが不明である。これはブラックボックス問題と呼ばれており、深層学習の課題の1つである。このブラックボックス問題を解消しようと、説明可能なAI(Explainable AI: XAI)の研究が進められている。分子設計においても、なぜその化合物を作るのか・作らないのかの判断根拠が必要であり、説明可能なAI開発は興味深い研究課題である。本講演では、説明可能なAI技術を毒性予測に応用するために、化学構造式を画像としてAIに学習させることで、化学的に意味のある根拠を示すことができた事例を紹介する。
さらに、深層学習におけるもう1つの課題は、予測精度の向上に膨大な学習用データが必要なことである。これまでに製薬企業間で創薬データを共有する取り組みがなされてはいるが、開示可能なデータは限定的である。そこで、各社のデータの秘匿性を担保したまま、複数企業にまたがるデータを用いて深層学習の精度を向上させる仕組みが必要である。それが連合学習(Federated Learning)である。弊社は、製薬企業10 社を含む 17 のパートナーで構成される MELLODDYコンソーシアムに参画し、秘匿性を担保した連合学習の開発を進めている。2020年9月には、世界で初めて参加企業10社の創薬データを用いた連合学習モデルの構築に成功した。連合学習による効果、そして今後の展望についても本講演で述べたい。