2024 年 39 巻 2 号 p. 127-140
データ利活用の高度な方法として発展してきた機械学習の技術は,生成AIによって,社会のデジタル化に大きな役割を果たすようになった。生成AIの代表例である大規模言語モデル(LLM)は,自然言語をコンピューター上で取り扱う基本技術であって,チャットボットや機械翻訳など高度なアプリケーションサービスを実現する。しかし,事実と異なる内容を生成するハルシネーション,情報プライバシー権や著作権の侵害が生じるといった,社会的倫理的な問題を伴う。この不具合の原因は,LLMの基本的な機構と関わり,完全になくすことは難しい。また,民間主導で進んだLLMの急速な広がりに,技術的制度的な方策が追いつかない。LLMの原理的な問題点を補うエンジニアリングの工夫が進み,コンポーネントやデザインパターンの従来手法と,LLM上のプロンプトエンジニアリングを統合した「プロンプト×プログラム」コデザインが注目されている。さまざまなソフトウェア技術が複雑に絡み合い,その結果,多様なアクターが関わる技術サプライチェーンが形つくられる。規制面では,AIの包括的な欧州AI-ACT法が運用開始されるが,悪用につながる技術拡散や著作権侵害などの損害に対する法的責任は明らかでない。「信頼されるAI」の品質マネジメントを拠り所とした「AIガバナンス」を進めることで,オープンな技術コミュニティ活動を含めた技術のサプライチェーンに沿ってアクターが協働し,LLMの普及を阻害する要因を減らすことができる。