トランスフォーマーアーキテクチャは、言語処理や様々なコンテンツ生成領域で大きな成果を上げていると評価されているが、数値演算が苦手であることも指摘されている。そこで、ニューラルネットワークの内部演算を調べることにより、その弱点の理由を分析し、課題を克服し、数値データ処理も含めた生成AIの汎用性を高めるための基本的な事項を議論する。
本論文では、OpenAIのGPT-4の10桁の加算能力を評価する。多種多様なタスクに対応可能なGPT-4は、10桁の加算に対して60%の正答率に留まることが確認された。ステップバイステップの加算過程を示すプロンプトの追加による正答率の向上は確認できなかった。これは、LLMが異なる概念から共通性を抽出する能力に欠けていることを示唆しており、LLMの進化に重要な示唆を提供する。
流動性知能測定課題として知られる遅延見本合わせ課題を解くアルゴリズムを提案する。提案手法において、エージェントは過去に成功をもたらした系列を想起し、想起された行為列を実行して課題を解く。提案手法を実装し、最も単純な課題設定において、多くの場合数百のエピソードを経験することで課題を解けるようになった。
This paper discusses alignment of Artificial General Intelligence (AGI) and proposes Alignment Incomplete Hypothesis (AIH) of Type I AGI. This paper proposes Human Rights (AI Rights) of AGI to realize a society where humans and AGIs can coexist in harmony. To address AI Rights issues, this paper illustrates Type I AGI as comprising (1) a model of the world, (2) a problem-solving engine, and (3) an evaluation function, in broad meanings. This paper proposes three basic AI Rights of AGI: (1) stay in a state where a subject and an object are not distinguished, (2) stop evaluation, and (3) stop problem solving. In addition, this paper proposes a concept of Volatile Evaluation Function (VEF) to prevent a link between a subject and evaluation.
本研究では、物理世界で生存可能な自立型人工知能(AI)システムの開発における技術的ハードルを明らかにする。まず、AIが長期生存を目指す2つの生存シナリオを想定した。まず、2つの生存シナリオを想定した: 長期生存を目標に人間が設計したAIと、自ら生存を目指すAIである。次に、6つの領域にわたる技術的課題の重要なカテゴリーを特定した。そして、それらのカテゴリーに含まれる21の具体的な課題をリストアップし、ChatGPTを用いてその技術的難易度を推定した。その結果、ハードウェア関連の課題では、自律型AIが生存するまでに100年以上かかる可能性があるが、人間の支援により、その時間を大幅に短縮できることが示唆された。ChatGPTの共通知識によるこの評価は示唆的であるが、参照した知識の範囲が2021年9月までと限定されていることも含め、暫定的なものとして扱うべきである。
In this talk, the major understandings of "Artificial General Intelligence (AGI)" arecompared and analyzed, including their objectives, potentials, and limitations. In this context, a specific AGI project, NARS, is briefly introduced.
人工知能研究に対するリスク言及では、SF作品が事例として挙げられることも多い。しかしながら、SF作品はあくまで当時の読者を楽しませるエンターテイメントを目標としていることも多く、作品で表現されたリスクを直接未来のリスクと考えることには注意が必要である。一方で、多くのSF作品を網羅的に分析することで、人工知能に関する人々のイメージや、開発傾向を検討することには、有用性がある。本研究では、人工知能の登場するSFの分析を行った著者の過去の研究データを元にして、悪意のある使用、AI開発競争、組織的リスク、暴走AIの4つのリスクが、SF作品でどのように書かれているかを分析した