2020年以降、大規模言語モデル(LLM)を中心とする生成AIの実用化により、AIは再び大きな注目を集めている。AIは当初、道具としての効率化を目的としていたが、現在は創造性を高めるツールとしても期待される。AIは新しいアイデアをゼロから生み出すことはできないが、人が既存の知識を組み合わせて新たな価値を創造する点で有用である。今後、AIはさらに進化し、いずれはAI自体がノーベル賞級の発見をする可能性も期待されるが、一方、制御不能にならないよう慎重な対応が必要である。AI研究は70年を迎え、道具型AIの時代が終わりを迎えつつあり、自律汎用型AIの時代にシフトしつつある。自律汎用型AIは状況を理解し、適切な行動を自ら選択できる。そのために、動作するための目的を持ち、人が細かく指示を出さずとも、AIが自ら状況に応じた判断をすることが求められる。
しかし、それ以前に現在においてインターネットは膨大な情報であふれ、生成AIによる偽情報も増えている中、人が直接アクセスすべきではない媒体となりつつある。この問題に対処するため、情報の出所を明確にするOriginator Profileなどの技術が提案されているが、それでも限界がある。根本的な問題は、人間の情報処理能力が物理的なモノと異なる情報には適していないことにある。物理的なモノは形や質感などの「身体性」を持ち、それが行動を促すが、情報にはそのような身体性がないため、文脈を理解することが難しい。インターネット普及以前、情報拡散は局所的であり、人々は情報の背景や文脈を把握しての対応ができたが、現在では膨大な情報に圧倒され、情報に含まれるデマやフェイクを識別することがどんどん難しくなりつつある。この状況で、自律型AIが適切な情報を収集し、多様性を保ちつつイノベーションを促す情報を選択する未来が期待される。
自律型AIは、個人の利益に配慮しつつも社会全体の利益を考慮した判断ができる可能性があるが、AIの判断を人が信頼するためには、説明可能性が重要である。また、今後において因果推論技術などの発展により、AIの判断に対する信頼も高まることが期待される。人がAIの判断を受け入れるには時間がかかるが、成功体験を積み重ねることで信頼が構築され、最終的には複雑な問題をAIに委ねることができるようになると考えられる。AIに判断を委ねることは、AIによる支配ではなく信頼の上での人の選択であり、人とAIが共生する社会において、AIは人間の創造力を高めるパートナーとなり得る。