抄録
本稿は、AI 技術を事例に、関連する規制動向や先行研究等を踏まえた上で、まず日本の AI 基本法の位置づけで制定された AI 推進法の概要と法制度上及び不確実性行政の本質的課題を示した。その上で、AI 技術の「リスク」や「不確実性」を分けて検討を行い、AI 技術をはじめとする「複合的不確実性」を伴う先端科学技術リスクをめぐる法的予防措置の「標準化」の意義と課題、そしてその具体的な適用可能性について検討した。具体的に、「戦略的不確実性」の問題構と各々の区分に応じた法的予防措置の 4 つの「標準化」(管理の「標準化」、規制の「標準化」、防止の「標準化」、そして予防の「標準化」)を新たに提唱し、その中でも特にそれぞれの線引きの基準(境界)やその間の「ゆらぎ」の政策デザイン上の重要性等について新たな視座を示した。