ヒトを含む多くの動物は視覚情報に基づいて行動を決定することができる。こうした視覚運動の認知モデルはAGIを含む知能研究において基礎的なものになると考えられる。この記事では比較的単純な系として、画面上の図形とカーソルを表示する仮想環境および視覚情報に基づいて視線移動とカーソル制御を行うエージェントの実装について報告する。エージェントの視覚系はヒトに倣い(ヒトの認知モデルとして)中心視野と周辺視野を持つものとした。またエージェントのアーキテクチャは脳の構造を参考にした。
自ら考えることのできる汎用人工知能をめざして、最も基本的な抽象概念である数の概念を教師なしで獲得する実験の途中経過を報告する。数の概念は乳児や一部の動物や昆虫も理解しているのに対して大規模言語モデルには理解できていない。数の概念を教師なしで生み出すことができれば、汎用人工知能実現の手がかりのひとつとなる。
現行のAIは主に狭義の人工知能(NAI)であり、汎用人工知能(AGI)の実現には遠く及んでいません。最近のAI進歩は膨大なデータと資源を必要とし、その範囲が限られています。この研究は超低消費電力計算を用いた脳に着想を得たAIと複雑なシステムモデルに焦点を当て、サイバー空間で社会情報を統一し、分野横断的な問題解決を目指しています。研究者はヒトと線虫の脳のアーキテクチャに類似性を見出し、L4t4モデルにおいて基本回路を共有している可能性を示唆。これは最小限のデータと電力で学習できる汎用人工知能の可能性を示唆しています。
本研究の目的は、汎用人工知能のための意識をもった心のシステムを提案することである。そのために意識とは何であり、意味を理解するとはどういうことであるか、これらをコンピュータで実現できる程度に具体的に定義することからはじめる。
もし超知能が人間の知能を大きく上回れば、世界を支配し、人類を従属的な役割に追いやる可能性がある。しかし、そのような超知性が普遍的な利他主義と倫理観を持っていれば、人類の福祉は守られる可能性が高い。人間と超知能が共存・繁栄できる未来にとって、この性質を育むことは極めて重要である。本研究では、超知能が普遍的な利他性を育む可能性のある2つの経路を検討する。1つ目は、社会内での生存を確保すること、2つ目は、自律的な価値探求を通じてである。結論として、超知能が全ての知覚を持つ生物の福祉を優先する倫理的スタンスを獲得することは、現実的かつ有望な展望となり得る。
本稿では、8,000編以上の日本語の短いストーリーを手作業で作成したデータセットを紹介する。このデータセットの主な目的は、日本語における同様のデータの不足に対処することである。さらに、クラウドソーシングを通じて、異なる結末文も提供する。元の結末文よりも可能性がわずかに低い結末文を追加するように拡張され、提案したデータセットは現代の大規模言語モデルにとって高難度の課題を提供するテストベンチマークとして利用できる。また、このデータセットは主語と目的語の自動操作などによってさらに拡張され、本研究では3つの主要なタスクで評価される:(a)もっともらしいストーリーの結末の予測、(b)反意語の置換による不自然な文の検出、(c)名詞の入れ替えによる不自然な文の検出。予備実験の結果は、特に名詞が入れ替わった文章を認識するタスクではゼロショットGPT-4が比較的に高い正解率(94%)を示した。一方で、オープンソースの日本語LLMは提案されたストーリーの処理に苦戦していることが明らかになった。
大規模コーパスで学習した言語モデルに社会的バイアスが含まれていることが問題となり、ジェンダーや人種バイアスなど、様々な社会的バイアスを評価するデータセットが開発されている。しかし、多くのデータセットは人間の社会的属性の評価に限定されている。本研究では、非ヒト動物に関する差別的バイアス、すなわち種差別バイアスを評価するためのデータセットの開発を行う。既存の英語QAデータセットを参考に、種差別バイアスを評価する日本語QAデータセットを構築し、日本語大規模言語モデルの種差別バイアスの評価を行う。実験の結果、日本語大規模言語モデルは種差別バイアスを示す傾向があることが明らかとなった。
我々は以前再帰的なサブルーチン呼び出しが可能な階層型強化学習アルゴリズム RGoal を提案した。本稿では RGoal のモンテカルロ版アルゴリズムにおける相対価値の基準値の定義を見直し、異なるタスクでサブルーチンが共有される場合の学習の安定化を図る。実装したアルゴリズムはいくつかのテストプログラムで動作を確認した。
汎用人工知能(人間のように十分に広範な適用範囲をもち、設計時の想定を超えた未知の多様な問題を解決できる知能をもつ人工知能)の実現は、大きな可能性を秘めている。筆者は、汎用人工知能のデータボトルネック仮説(Data Bottleneck Hypothesis of AGI)と、社会的ボトルネック仮説(Social Bottleneck Hypothesis of AGI)を提案し、複数の解決策を提案した。本稿では、さらに進んで、汎用人工知能の社会的ボトルネックの解決策として、AI アライメントと憲法の問題を検討する。
近年、高度な自律型AIの脆弱性に関する論文が急増し、過去AI技術を先導してきた専門家からの警告や提案も続いている。そこで、本論では、それら脆弱性に関する議論の動向を攻撃手法や対策案に注目してまとめる。 また、AIの脆弱性に起因するトラブルや災害からAI社会とAI組込みシステムを守りシステム運用の健全性を維持するために、AI組込みシステムの監視・介入機能を持つ端末「レッドチーム・エッジ・デバイス」をAI組込みシステムに搭載することを提案する。また、この端末に求められる機能についても概説する。