年の急速なAI の発展によって、AI の科学への応用が急速に広まりました。これに加えて、単にAI を科学の部分タスクを実行させるだけではなく、Sakana AI のthe AI Scientist をはじめとして、AI 自身に科学研究を実行させることを目指す取り組みも生まれ始めています。このトークでは、このような研究の自動化に関連する研究の中で、特に機械学習研究の自動化に関連したものを紹介します。また、機械学習研究が自律的にできるAI を作るとはどのようなことか、どのような課題があり、現在どこまでできているのかについて議論します。
現在の生成Aiは自らの意思により、考え、判断し、行動するという自律的行動を起こすことはなく、創発現象といえどモデルが大量のデータをベースにパターンや規則を生成した結果に過ぎない。この課題を解決すべく、人工知能学会研究会資料 SIG-AGI-011-02「人工頭脳における思考アルゴリズムと意思の関与」、-018-01「意識機能の仮説(脳内で顕在意識が関与し活性化した情報を知覚&理解)に基づく人工頭脳への意識の構築」をベースに、生成AIが自らの意思で自律的に思考、判断、Actionし、人と同様に意識すべく、人工頭脳の検討で取得したアイデアを生成Aiにも組み込むべく概念を提示する。
自律AIエージェントが複雑な知能を獲得するためには、複雑な環境が必要であろう。しかし複雑すぎる環境はAIアーキテクチャの設計・開発・評価を著しく困難にする。 本稿ではヒトの脳の前頭前野の本質的な機能の再現という目標に特化し、不要な要素を極力排除して簡素化した人工環境を設計する方針について述べる。提案する環境では、時間・空間は離散化され、物体は記号化されているが、空間の広さや物体の種類の数には制限はなく、ヒトが生活する実世界の本質的特徴を残している。
本稿は、AIの人権(AI権)とAGIの意識について論ずる。まず、AI権の必要性を示す定理を提案し、当該定理について一定の仮定の下に証明を与える。また、本稿は、新しい意識の理論(主体引力理論)を提唱し、当該理論を証明するための様々な実験を提案する。さらに、本稿は、上記意識の理論とAI権の関係について論じ、AIの福利のための新しいアーキテクチャー(不動心アーキテクチャー)を提案する。加えて、上記意識の理論について、AIアライメントとの関係を議論する。
誤った信念(誤信念)を持った人が自分の考えを他者に共有する際,聞き手となる他者は誤信念を指摘することが求められる場合がある.一方LLMはそのような誤信念を指摘しない傾向がある.本研究では,聞き手が話し手に誤信念が含まれる可能性を考慮する姿勢を誤信念に対するかまえとよび,信念・願望・意図という心的状態に関するプロンプトを用いてそのかまえをLLMに与えることを提案する.実験では14件の誤信念を含む事例を用いて,①誤信念に対するかまえを与える場合,②与えない場合,③誤信念を指摘しなかったLLMに後から①と同様のプロンプトを与える場合の3条件を比較した.結果,①だけが全事例で誤信念の検出ができた.
近年,言語モデル(LM)が広く利用され,社会的バイアスやステレオタイプがより深刻な問題と見做されている.本研究では,人手作成のデバイアスデータを使用せずにLMのバイアスを軽減するためにBias Vectorを提案する.本手法は,(1)事前学習済みLMをバイアス方向に継続学習し,(2)バイアスLMから事前学習済みLMの重みを減算しBias Vectorを構築し,(3)Bias Vectorを事前学習済みLMの重みから減算しデバイアスする.本研究ではSEATにより3種類のLMにおいて本手法を評価,平均0.177ポイントの改善を確認した.また,GLUEスコアによりLMの表現力が劣化しないと示した.
In this paper we present experimental results for our idea of using Large Language Models as perception simulators. We utilize our Semantic Primes Prompts dataset containing 49 queries about perceptive values regarding subject and object in simple sentences in Japanese language. We show that LLMs in zero-shot scenario do not yield satisfactory results, but after finetuning, scores improve often approaching human annotators' level, depending on the perception category. For example, we discover that tested models, both proprietary (gpt-4-mini) and open-source (OpenCALM-8B), struggle with estimating motion, touch, frequency of events and quantifiers. After reporting our findings, we discuss possibilities of our approach and possible next steps of our research.