日本毒性学会学術年会
第48回日本毒性学会学術年会
セッションID: S12-3
会議情報

シンポジウム12
化合物毒性予測へのAI活用と創薬における連合学習への挑戦
*藤 秀義
著者情報
会議録・要旨集 フリー

詳細
抄録

 近年、深層学習をはじめとする人工知能(AI)技術の急速な発展に伴い、自動運転や医療画像診断など様々な分野での実用化が進んでいる。特に画像解析においては、AI技術による解析精度はいまや人間の能力を超えることもある。

 深層学習の優れた点は、人間の手を借りずとも、大量の学習データの中から推論に必要な特徴量を自動抽出可能な点である。一方で、どんな特徴量を抽出するかはAI任せであり、AIが何を根拠に推論しているかが不明である。これはブラックボックス問題と呼ばれており、深層学習の課題の1つである。このブラックボックス問題を解消しようと、説明可能なAI(Explainable AI: XAI)の研究が進められている。分子設計においても、なぜその化合物を作るのか・作らないのかの判断根拠が必要であり、説明可能なAI開発は興味深い研究課題である。本講演では、説明可能なAI技術を毒性予測に応用するために、化学構造式を画像としてAIに学習させることで、化学的に意味のある根拠を示すことができた事例を紹介する。

 さらに、深層学習におけるもう1つの課題は、予測精度の向上に膨大な学習用データが必要なことである。これまでに製薬企業間で創薬データを共有する取り組みがなされてはいるが、開示可能なデータは限定的である。そこで、各社のデータの秘匿性を担保したまま、複数企業にまたがるデータを用いて深層学習の精度を向上させる仕組みが必要である。それが連合学習(Federated Learning)である。弊社は、製薬企業10 社を含む 17 のパートナーで構成される MELLODDYコンソーシアムに参画し、秘匿性を担保した連合学習の開発を進めている。2020年9月には、世界で初めて参加企業10社の創薬データを用いた連合学習モデルの構築に成功した。連合学習による効果、そして今後の展望についても本講演で述べたい。

著者関連情報
© 2021 日本毒性学会
前の記事 次の記事
feedback
Top