2025 年 2025 巻 AGI-029 号 p. 03-
道具的収束により高度AIが自己保存などのサブゴールを得て制御を超えるリスクがあるため、本稿ではNAIAビジョンを提案し、存在リスクを抑えつつAIとの共存を探る。善良収束仮説を前提とし、人類の行動が結果を左右する以上、対策に意味があるとする。主な戦略は(1)創発機械倫理(EME)、(2)アライメント+監視、(3)外交・安保で社会安定、(4)NAIA設立とDAR-G/IBRF運用である。これによりAIの能力を課題解決に活かし、大規模破局を回避しつつ共進化を目指す。