プログラム合成はAGI実現に向けた有望なアプローチの1つである。プログラム合成の性能は合成対象言語の言語仕様に左右される。我々はこれまで主に合成対象言語 Pro5Lang の制御構造について設計してきたが、データ構造の表現方法に関する考察は不十分であった。本研究では、ヒトの脳にヒントを得て、高い表現力とプログラム合成のしやすさを兼ね備えた知識表現形式の設計を試みた。提案する知識表現形式を用いて背理法と場合分けを用いた推論を行うテストプログラムを記述し、言語の表現力について確認した。
大規模言語モデル(LLM)は高度な言語理解ができるが,ユーザーの誤った信念(誤信念)基づいた指示に対して訂正せずに作業しうる.本研究の目的は,誤信念を訂正しない問題を明らかにすることである.まずBDIモデルを用いたLLMエージェントが,ユーザーが誤信念を持つと想定される場合に訂正を行う指示を明確化し動作確認した.実験では14件の誤信念事例で,誤信念の訂正有無で比較した.結果,信念推定を行わない場合,ユーザーの願望に応じた提案は8件できたが,誤信念の推定と修正を含む場合は14件すべてで応えられた.以上より,ユーザーの誤信念を適切に修正しないと,ユーザーの願望に答えるのが難しいことが示唆された.
この論文では、民主的なAIのアラインメントを支援するための社会規範データを収集するデータインカム(DI)について論じている。データインカム(DI)は、汎用人工知能(AGI)の「データボトルネック仮説」と「社会的ボトルネック仮説」の問題に対処するために提案されたものである。データインカム(DI)は、価値観のアラインメントのためのデータ収集を含む多くの目的に使用できる。本論文では、データインカム(DI)を使用して、AI研究者や企業などが作成した社会規範データセットを、ある国全体(例:日本)の有資格投票者によって認証することを提案している。また、認証されたデータセットの表現に関する知的財産制度についても提案している。
本稿では、AIの急速な進歩と超知能の文脈から、「ポスト・シンギュラリティ共生(PSS)」という学際的分野を論じる。超知能は人間価値観より自己保存を優先し、破滅的リスクをもたらす可能性がある。我々は、人類の生存とAIとの幸福を高める積極的研究分野としてPSSを提案する。PSSは、普遍的な人類の発展とAIとの良好な関係を目指し、超知能の分析、指導、人間強化を研究する。その実現には文化的多様性の尊重とグローバルな協力が必要である。
生成AIというワードが世間を賑わして以来、汎用人工知能(Artificial General Intelligence:AGI)の実現時期を巡る議論が加熱している。AGIの開発時期を推定する手法は多くあるが、その中でも2027,2028年という相当積極的なAGI実現時期を主張する元OpenAI社員のLeopold Aschennbrener氏によるブログ記事「Situational Awareness」が話題になっている。今回の講演ではこの記事を読み解くことでAGI実現時期の推定手法の論理とその可能性について議論する。