Science, at its best, is a discipline devoted to truth. Yet even the most rigorous inquiry is shaped—subtly but profoundly—by human choice. The tools we build, the problems we frame, and the metrics we use to evaluate success inevitably reflect assumptions and values. This tension has become particularly visible in the development of large language models (LLMs), which increasingly mediate how citizens access knowledge, interpret events, and form opinions. Alignment with human norms is therefore not merely a technical problem but a societal one. Systems that are insufficiently aligned may appear erratic or socially inappropriate—tools people simply refuse to use. Yet excessive alignment carries its own risks: models that too closely mirror prevailing narratives may amplify misinformation and reinforce epistemic echo chambers. Across the field, researchers are exploring a range of approaches to navigate this tension, including reinforcement learning from human feedback, constitutional guidance, safety-layer architectures, and new evaluation paradigms. Within this broader landscape, models with inhibition control (MICo) illustrate training approaches that internalize norms of discourse, while Complementarity highlights evaluation methods designed to enable objective comparison across systems, minimizing dependence on hand-selected metrics or tailored evaluation pipelines. Together, these approaches illustrate a central challenge for artificial intelligence: balancing alignment with human norms against the enduring scientific commitment to objective truth.
RAGは企業内文書を対象とした質問応答に広く用いられているが,文書の構造的複雑性により,回答に必要な前提や事実が欠落し,出力の不安定化が生じやすい.本研究では,このような情報欠落状態を知識ギャップと捉え,組織内と組織外の知識不足で補完方針が異なる点に着目する.retrieverとLLM推論の間に前提管理レイヤを導入し,根拠整理,信頼度評価,知識ギャップ判定を統合した知識補完型対話フレームワークを提案する.企業内を模した216問で評価した結果,内部知識不足の判定精度は53--74%から95--96%に向上し,検索成否とは独立に,回答可否を定量的に識別できることを示した.
近年の就職活動において,面接は主要な選抜手段だが,苦手意識を持つ学生には心理的負荷が高い.LLMを活用した練習システムがあるが,対話的フィードバックには改善状況に関わらず対話が続く「修正ループ」が課題となっている.本研究では,この原因を改善状態の不透明さにあると整理し,「自律的な改善認識」と「フィードバック収束」に基づき改善過程を制御する手法を提案した.LLMによる模擬練習で,改善が停滞する「連続停滞」を指標に検証した結果,提案手法が連続停滞を抑制し,修正ループを一定程度抑えられる可能性が示唆された.
生物学的神経系が持つスケールフリー構造が、発火の不規則性に与える影響を調査した。ホメオスタシス可塑性を有するSNNを用い、ランダム、べき乗則、Barab?si-Albert(BA)の3構造を比較。その結果、スケールフリー網はランダム網に比べ、不規則性指標(CV/CV2)と情報伝達能力を有意に改善した。特にBAモデルは、発火率を抑えつつCV2を56%向上させた。この結果は、現実的な神経ダイナミクスの維持において、ネットワークトポロジーの選択が極めて重要であることを示唆している。
本研究では、言語と行動を同時生成する二元時系列生成モデルを提案し、その有効性を検証した。提案モデルは、大規模視覚言語モデルQwen3-VLを基盤とし、Hook機構によりテキスト生成ヘッドと操作生成ヘッドを並列化するDual Headアーキテクチャを有する。50,000件の経路説明・描画データセットを用いて学習させ、評価した結果、提案手法はテキストのみのベースラインを有意に上回る最短経路説明確率を達成し、テキストと描画の内容的一致においても100%の完全な同期を実現した。これらの結果は、操作を通じた視覚フィードバックがLLMの推論能力および長期的な整合性の維持に寄与することを示唆している。
既存のPro5Lang実装はJava言語で行われており、専用のパーサを持たない言語内DSLとして実現されていた。実装の目的はプロトタイピングであり、第三者による利用は前提としていなかった。また、言語内DSLとして実装する制約から、構文規則が不十分であった。本稿では、より多くの研究者の試行に供することを目的としたPro5Langの新たな実装を示す。本実装では、AI分野で標準的に用いられておりユーザの多いPython言語を用いた。またより理解しやすい構文を採用し、言語内DSLとしてではなく専用のパーサを持つ独立した言語として実装を行った。本稿では実装の詳細と、整理した構文について述べる。
汎用人工知能の実現は、大きな可能性を秘めている。筆者は、汎用人工知能のデータボトルネック仮説(Data Bottleneck Hypothesis of AGI)と、社会的ボトルネック仮説(Social Bottleneck Hypothesis of AGI)を提案し、複数の解決策を提案した。本稿では、さらに進んで、汎用人工知能の社会的ボトルネックの解決策として、AIエージェント社会とAGI認証の問題を検討する。