人工知能(AI)サービスの社会実装が進むにつれて信頼性に係る様々な問題が指摘されており、第三者による監査・保証等の必要性が国内外で提起されている。 しかし、AIの判断には不確実性が含まれており、またAIサービスの利活用目的・学習データ・アルゴリズム・人間の介在度合・ユーザーの特徴等によって重要なリスクが異なる。加えて、AIシステム(データ、モデル等)だけではリスクを十分に低減し続けることは難しく、時にユーザーがリスクの要因になり得る。 本研究では、AIサービスに係るリスクコントロールを検討するモデル(リスクチェーンモデル)を用いて、30のユースケースに対してAIサービスに係る「実現すべき価値・目的」と「リスクシナリオ」の識別を行い、有識者とのディスカッションを経て類型化を行った。