2025 年 45 巻 4 号 p. 290-300
本稿では,人と生成AIが協働する新たな方法であるAIペアプログラミングによるソフトウェア開発の実践を対象に,特に暗黙知に着目し,人と生成AIの協働の方法について,知識の相互移転の観点から探索的に明らかにする。学術的には,生成AIベースのITケイパビリティと呼称しうる新たな組織能力の萌芽を特定し,その発現メカニズムとともに示す。その中核として,人とAIという異なる知の主体間における特異な双方向の知識移転プロセスが存在することを示す。具体的には,AIが解釈可能な方法で暗黙的な認識を含めて効果的に形式知化する能力及びその限界の認識,ならびにAIが生成したコード等の形式知の根拠について人が文脈とともに能動的に解釈・評価し内面化していく能力である。実践的には,人と生成AIの協働のプロセスを示し,新技術を駆使したソフトウェア開発の方法,そして人材教育への指針や実践上の手がかりを提供する。
This paper explores human-generative AI collaboration, with a focus on tacit knowledge and mutual knowledge transfer via the novel approach of AI pair programming in software development. Academically, the paper identifies the emergence of a new organizational capability, which can be termed ‘generative AI-based IT capability,’ and examines its manifestation mechanism. At its core lies a unique bidirectional knowledge transfer process between humans and AI. Specifically, this consists of: the ability to externalize knowledge including the tacit dimension in an AI-interpretable manner, and recognition of the limitations of this process; as well as the ability for humans to actively and contextually interpret and evaluate the rationale of AI-generated explicit knowledge (such as code), and to internalize it into their own understanding. Practically, the paper presents collaborative methods, guidelines for AI technology-driven software development, and insights for human resource education.
本研究は,生成AIを駆使するビジネス実践に着目し,人と生成AI1)の協働方法について探索的に研究し,新たなケイパビリティの提示を試みる。生成AIを駆使した実践が本格的にはじまりつつある大きな転換点と考えられる現時点は,新技術の導入の前後を詳細に比較することが可能であり,今後の技術の進展を見極める上でも意義があると考えられる。
マーケティングにおける生成AIに関する既存研究では,人と生成AIが協働を通じて効果と効率の両面で成果を高めるには,人と生成AI間の暗黙的な知識の相互移転や,両者の補完関係のデザインに成否のカギがあることが示唆されている(De Bruyn et al., 2020)。しかし,その具体的な様相は,研究が緒に就いたばかりであるため,いまだ十分に解明されていない。
そこで本研究は,人と生成AIの協働による革新を駆動する暗黙知をめぐる双方向のダイナミクスがどのように実現及び促進されるのかに着目し,探索的に検討する。まず,マーケティングにおける生成AIに関する既存研究を概観し,本研究の課題を示す。マーケティングにおける生成AIの様々な活用方法のうち「組織内でのマーケティング意思決定における生成AIの活用」に焦点を当て,AIを駆使するソフトウェア開発に関する定性的研究を行い,新技術の導入に伴う新たなケイパビリティとそのメカニズムを検討する。ソフトウェア開発におけるITケイパビリティによる協働の方法や人材教育への手がかりを提示する。
近年の生成AI技術の飛躍的な進化と共に,生成AIのマーケティングの有効性・効率性双方の向上に対する期待から,マーケティングにおける生成AIに関する研究への注目が高まっている。Scopus所収の論文を対象としたMariani et al.(2022)の調査によれば,マーケティング・消費者調査・心理学をキーワードに含む生成AI関連研究論文の数は,2010年以降,指数関数的に増加している。Marketing Science Instituteは,2020~2022年の優先研究課題を示す中で,生成AIを,マーケティングマネジメントの能力と責任,マーケティング機能や戦略の最適化に革新をもたらす重要な技術と位置付けている(Marketing Science Institute, 2020)ほか,Journal of the Academy of Markeitng Science誌やJournal of Business Research誌など複数の主要誌が相次いで生成AIに関連する特集号を発刊している。Mariani et al.(2022)によれば,AIの潜在的可能性に関する研究はすでに1970年代から見られ,その後も継続的に数を伸ばしてきた。近年の急伸の背景には,コンピューターのパワーや機械学習・自然言語処理など幅広い技術の進歩,アルゴリズム訓練のために利用可能なデータの爆発的な増加により,様々な分野で新たな応用が可能になったことが挙げられる。SNSでのeクチコミなどビッグデータの分析の自動化による消費者インサイトの導出(Huang & Rust, 2021; Mustak et al., 2021; Wedel & Kannan, 2016),組織内でのマーケティング意思決定支援や販売プロセスの自動化(Huang & Rust, 2021; Manis & Madhavaram, 2023; Mustak et al., 2021),レコメンドや顧客関係管理におけるパーソナライズ精度の向上(Vlačić et al., 2021)などである。革新が期待される領域が多岐にわたることが分かる。
このような関心の高まりを背景に,マーケティングにおける生成AIに関するレビュー論文が多数発表されている(e.g., Davenport et al., 2020; Herhausen et al., 2024; Huang & Rust, 2021; Mariani et al., 2022; Mustak et al., 2021; Ngai & Wu, 2022; Vlačić et al., 2021)。これらのレビュー論文でしばしば指摘されるのは,マーケティングにおける生成AIに関する研究は本格的な検討は途に就いたばかりで,急速に関心を集めている領域であるがゆえに,生成AIの定義や議論の焦点が多様であることである(Davenport et al., 2020; Huang & Rust, 2021)。これらの論文は,過去の研究を整理しながら,生成AIの定義やその類型,今後の研究課題を示している。期待される革新可能性が多岐にわたるがゆえに,既存のレビュー論文が示す論点を確認することは,より重要であるように思われる。そこで,本節では,これらの論点を概観しながら,本研究の位置づけや論点を整理していく。
1. 生成AI研究の台頭:その定義と類型 (1) 定義の乱立と包括的定義の登場既存研究でしばしば指摘されてきたことのひとつは,生成AIの定義が一意に定まっていなかったことである(De Bruyn et al., 2020; Loureiro et al., 2021; Manis & Madhavaram, 2023)。例えば,『人間固有の能力をエミュレートするための計算機械の使用』(Huang & Rust, 2021, p. 31)のように,生成AIの特性に力点を置くもの,『機械学習・自然言語処理(中略)などのテクノロジーを採用して,外部データを正しく解釈し,学習して柔軟に状況に適応するための手段』(Kaplan & Haenlein, 2019, p. 17)のように,成果を生み出す手段やテクノロジーに力点を置くもの,『ビジネス・プロセスを自動化したり,データからのインサイトに基づいて顧客と従業員のエンゲージメントを高めること』(Davenport et al., 2020, p. 26)のように,得られる成果に力点を置くものなどである。
定義が乱立してきたのは,心理学や消費者行動研究,ビッグデータや機械学習研究,経営科学や情報システム研究など,関連する多様な分野で個別に,研究が進展してきたことが挙げられる(De Bruyn et al., 2020; Masnita et al., 2024; Mustak et al., 2021)。これは生成AIに対する期待が,多岐にわたるがゆえに生じてきた現象だと理解できる。
Manis and Madhavaram(2023)は,過去の研究における多様な生成AIの定義を整理し,それらに含まれる4つの共通要素を導出して,生成AIに関する包括的な定義を示している。生成AIを『情報に対して一つ以上の操作(e.g.情報の取得・統合・分析・解釈)を効率的・効果的に行うことで,時間とともに学習(進化/自働化)する情報システム』(Manis & Madhavaram, 2023, p. 3)とするものである。
この定義には,生成AIの4つの重要な特性が含まれている。第一に,「情報」(23%:過去の研究での言及割合:以下同)である。組織内外で利用可能なデータや知識であり,生成AI活用の基盤となるものである。学習対象とする情報の設定次第で,出力が大きく変わることが示唆される。第二に,「学習(進化/自動化)」(45%)である。時間とともに学習を繰り返し,適応力を向上させることで成果を高めることを示している。この際,生成AIは,情報や操作自体に加えて,操作の結果生成される情報から次回の操作を最適化するなど,操作の結果や結果の使用方法,結果の影響も含めて繰り返し学習することで,人間固有の能力をエミュレートできるようになることが示される。第三に,「効率と成果」(86%)である。生成AIは情報に対する操作の効率と効果双方を高める。操作のスピードなど「効率」と,操作の精度や成功確率など「効果」を弁別して成果を観察する重要性が示唆される。最後に,「操作」(68%)である。情報の取得・統合・分析・解釈といった,生成AIが情報に手を加えることで新しい情報を生成する一連の過程を範疇として含むことが示されている。
(2) 多様な生成AIと論点ならびにその類型各論文が想定する生成AIの種類や照射する論点もまた多様である。それぞれに有効性を高めるための要諦が異なる可能性もあるだろう。それゆえに,多様な生成AIとその成果の類型を整理し,位置づけを明確にすることが重要である。
マーケティングにおける生成AIに関する過去の論文のトピックを整理しているMustak et al.(2021)によれば,過去の論文のトピックは,大きくは組織・戦略関連と消費者関連の2領域,計10のトピックに弁別できるとしている。彼らの示したトピックを,やや要約的に示すと次の通りである。
組織・戦略関連としては,①新サービス創出における生成AIの役割やAI産業の市場機会に関する考察,②組織内でのマーケティング意思決定における生成AI活用のあり方に関する考察などが挙げられる。①では,生成AIによるサービス革新や販売プロセスの自動化のあり方,生成AI活用下における顧客の信頼獲得などが考察され,②では,組織内でのマーケティング意思決定に生成AIを活用して成果を向上させるための課題などが考察される。
消費者関連としては,①消費者感情の理解,②顧客満足度や顧客ロイヤルティ・信頼の測定,③顧客関係管理の精度向上に向けた生成AIによる自動化のあり方などが挙げられる。①では,eクチコミやフィードバックなどに含まれる消費者インサイト抽出の精度向上策や,消費者の態度や認識を深く理解して精度高く予測するための方略などが検討され,②では,生成AIで顧客ロイヤルティや信頼を測定する手法や,マーケティング施策の効果測定の精度向上策が検討される。③では,推奨システムやロイヤルティ管理の強化など,生成AIで顧客関係を自動化して維持・強化するための戦略が検討される。
各論文が照射する論点だけでなく,各論文が想定する生成AIの種類もまた多様である。Huang and Rust(2021)は,それまで考察されてきた多様な生成AIを,機械的・思考的・感情的AIの3段階で識別し,それぞれの概要と可能性を示している。
「機械的AI」は,反復的で定型的な作業を自動化する生成AIである。消費者の行動や製品の市場状況を常時監視して収集するものなどが想定される。特に情報の取得過程の効率化を志向する点に特徴があるため,業務の効率化や標準化に力点が置かれる。
「思考的AI」は,データ取得の自動化に加え,取得したデータを統合・分析し,新しい結論や意思決定を導く生成AIである。AmazonのおすすめやNetflixの映画推奨システムのように,大量データから市場や消費者の動向を予測して意思決定を支援するものなどが想定され,パーソナライゼーションの実現に強さを発揮することが示唆される。
「感情的AI」は,人と双方向のやり取りを行うことを通じて,人の感情や感覚分析を行う生成AIである。現段階では消費者の共感を得るほど成熟していない可能性が示唆されているものの,例えば,レビューやフィードバックなどに含まれている消費者の感情データを分析して解釈し,相手の満足度を正確に把握しながら対話を進める生成AIが想定されており,顧客との関係強化に強さを発揮する可能性が示唆される。
2. マーケティングにおける生成AIの有効性に関する研究課題既存研究は,生成AIの活用を通じてマーケティングの有効性を高めるために検討すべき重要な研究課題を示している。本節では,それらのうち本研究に関わる範囲で特に重要だと思われる2つの課題を示す。第一の課題は,生成AIの学習対象とする情報に関する,人による適切な設定を検討することである。先に確認した生成AIの定義にみるように,生成AIが人間固有の能力をエミュレートするのは,人から提供される情報を繰り返し学習することを通じてである。また,その情報には,情報の使われ方や活用のコンテクストのように,操作の方法やその結果に関するものも含む(Manis & Madhavaram, 2023)。したがって,生成AIの有効性を高めるための前提として,現実をシミュレートした環境で生成AIが学習することが重要になる(De Bruyn et al., 2020)。アルゴリズムがどれだけ高度でも,生成AI出力の精度は人が提供する学習データの内容に大きく依存する(Ngai & Wu, 2022)。学習環境が曖昧であったり不適正な場合,生成AI導入の成果は限定的になる。生成AIが学習対象とする情報を設定するのも,プロンプトの内容を示すのも,いずれも人である。生成AIの学習対象とする情報に関する設定のあり方を検討することが,課題の第一である。
De Bruyn et al.(2020)は,この課題が人から生成AIへの暗黙知(Nonaka, 1994; Polanyi, 1962)の移転の難しさ2)として捉えることができると指摘している。暗黙知は本研究で特に着目する概念である。Polanyi(1966)は,暗黙知を我々が語るより多くのことを知る方法とし,知識の明示的な次元のみでなく暗黙的な次元(Tacit Knowing)の役割の大きさ及び真の知識がそれを用いる我々の能力の中に存在すること示している。経営学の文脈においてNonaka and Takeuchi(1995)は,Polanyi(1966)を参照しつつ暗黙知(個人的かつ文脈に特有であり形式化して伝達することが困難な知識)と形式知(形式的で体系的な言語で伝達可能な知識)と識別し,両者の変換を組織的に重ねる知識創造理論(SECIモデル)を展開した。生成AIは,高次の学習を通じて新しい情報を自律的に生成する能力を持つが,明示的な情報に依存しやすい。そのため,例えば生成AIの出力を活用する状況,自社ブランドの世界観の機微,マーケターや顧客対応担当者が経験的・感覚的に身に着けている技能や自身の事業に対する認識などのように,生成AIを活用しようとする人が暗黙的に認識している知識を生成AIと共有しない限り,生成AIの導入は限定的な成果に終わる可能性がある。De Bruyn et al.(2020)の指摘に従えば,人と生成AIの協働の革新のカギのひとつは,人から生成AIに対するこれらの暗黙知の移転を円滑にするための具体的なあり方を探ることにあると言える。
課題の第二は,生成AI出力の説明可能性を検討することである。生成AI出力の説明可能性は,生成AIによる推奨や結果がどのように導かれたのか,人が納得できる状態で理解できることである。説明可能性は,生成AIの出力の受容を左右するポイントであることが指摘されている(Van Giffen et al., 2022; Volkmar et al., 2022)。しかし,生成AIの出力プロセスは高度に複雑であるためその過程はブラックボックス化する。生成AIが特定の出力を示す理由が,人から見て解釈困難になるというピットフォールがあることが分かっている(Herhausen et al., 2024)。どのような要因が,生成AI出力を読み解く解釈性の向上と関わり,生成AI出力に対する信頼は構築されるのか,検討することが課題の第二である。
De Bruyn et al.(2020)は,この課題を,第一の課題とは逆に,生成AIから人への暗黙知移転の難しさとして捉えることができると指摘している。生成AI出力の説明可能性は,生成AIが新しい知識を生成しても,出力の提示だけではそれを人間が理解して活用できる形で共有することが難しいことを意味している。マーケティングや機械学習の実務家約100人を対象とした研究は,「なぜ」に関する共有が生成AIとの間で行われない場合,マネージャーは自分の見解に沿う出力だけを受容し,それ以外をエラーとみなして受容しない傾向にあること,人のエラーより生成AIのエラーに対してシビアに評価する傾向があることを明らかにしている(Volkmar et al., 2022)。どのような出力であれ,生成AIの出力を解釈し理解するのは人である3)。彼らの指摘に従えば,人と生成AIの協働の革新のもうひとつのカギは,暗黙的な生成AIの出力を,人が受け取り活用できるようにするためのフィードバックループの具体的なあり方を探ることにあると言える。
3. 小括―暗黙的な知識の移転問題としての人と生成AIの協働:本研究の課題―本節では,レビュー論文を中心に既存研究を概観し,生成AIの定義や類型に関する論点,マーケティングにおける生成AIの有効性を考察する上での研究課題を整理してきた。
これまで確認してきたように,第一に,生成AIの有効性を検討する上では,人と生成AIとの間のインタラクションに注目することが重要な方向性のひとつである(De Bruyn et al., 2020; Puntoni et al., 2020)。生成AIの性能向上だけではなく,人間が生成AIの出力をどのように受け取り,解釈し,活用するか,人がどのように生成AIに向き合うのか,これらは人と生成AIの協働に関する問題であると理解できる。第二に,本研究で示した人と生成AIの協働に関わる2つの課題は,両者間の暗黙的な認識を含む知の移転問題として解釈できる。情報の適切な学習に関する課題は,人から生成AIに対して暗黙的な認識を含む知を移転するかどうかの問題として,第二の生成AI出力の説明可能性に関する課題は,生成AIから人に知識を移転できるかどうか,あるいは生成AI出力を解釈し理解する人の暗黙知に関わる問題と理解できる。いずれも,人と生成AIが協働によって革新を生み出すには,暗黙的な知の相互移転のありようが重要なカギを握っていることが示唆される。
しかし,これらの具体的なありようは,これまで示してきたように,研究が緒に就いたばかりであるため,必ずしも明らかではない。どのような相互作用が,人と生成AIの協働における暗黙的な認識や知識の移転を円滑に進め,革新に寄与するのか,その具体的な様相を探索的に明らかにすることが,本研究の主な目的である。
本研究は,人と生成AIの協働における暗黙的な認識や知識の移転を解明するため,デジタルサービス開発,特に生成AIを駆使したソフトウェア開発に着目する。この領域を選定した理由は,第一に,プログラミング言語は,生成AIが得意とする言語処理であり,自然言語に比して構文や書式がより厳密に形式知化されており,生成AIを効果的に活用するビジネス実践を先導しているためである。第二に優れた実践が共有されやすいオープンソースの文化がソフトウェア開発に浸透しているためである。
2. インタビュー調査の採用本研究の中心的な関心は,人と生成AI間の双方向の暗黙的な認識や知識の移転が,どのように(How),そしてなぜ(Why)促進されるのかである。この種の問いに対し,暗黙知という捉えにくい概念が,実際の人とAIの協働プロセスの中でどのように現れ,移転(あるいは移転の障壁)が生じるのか,その具体的なメカニズムを深く理解するためには,現実の文脈の中での観察や関係者の語りを通して探究する定性的方法が適している。生成AIを駆使したソフトウェア開発は比較的新しい実践であり,その相互作用における知識移転に係る学術的な蓄積が十分とはいえない。したがって,理論開発を目指す探索的な研究においては,インタビュー調査が適切と考えられる。具体的には,ビジネスにおけるデジタルサービス開発現場という文脈の中で,エンジニアがいかなる相互作用や思考プロセスを経て,AIとの協働の結果,知識移転または阻害に至るのか,そのプロセスの詳細とダイナミクスに注目した。
3. データの収集と分析インタビュー対象者の選定においては,3つの要件を設定した。第一に,ビジネスにおけるプログラミングを含むソフトウェア開発の実務経験(5年以上)を有し,独力でもソフトウェア開発を実施可能な熟練者とした。ビジネスの第一線で活躍するエンジニアから,リアリティのある実践内容を理解するためである。第二に,ビジネスにおいて生成AIベースのプログラミングツールを駆使しており,従来のソフトウェア開発との違いを経験しているエンジニアとした。生成AIの導入前後の実経験から,プログラミング実践における変化の詳細をより具体的に理解することが重要と考えるためである。第三に,AIの組織的活用方法や実践を多角的に理解するために,異なる組織に所属する対象者を選定した。
表1に,インタビュー一覧を示す。冒頭に1名のインタビューを行い背景の理解を進め,3名(3社)のインタビューを行いつつ分析を並行し,2名(2社)のインタビューを通じた具体例が共通することを確認して6名(6社)にて終えることとした。

インタビュー一覧
また,対象者がインタビュー実施時点(2025年4月~5月)で最新版の生成AIベースのソフトウェア開発サービス4)を使用していることを確認した。またGithub CopilotやDevinなどで,実際に人の指示に基づいてAIサービスがコードを生成する様子を観察するなど,実践の理解に努めた。
4. インタビュー調査内容半構造化インタビューを実施した。主な質問項目は,本研究の関心事である以下の5項目とし,対象者の語りに応じて柔軟に質問を追加・変更し,深掘りを行った。
(1) 背景情報とAIプログラミングの実践状況過去のプログラミング経験,所属組織や開発プロジェクトの概要,AIペアプログラミングツールの種類や導入の目的,AIを活用した開発経験の所感 等
(2) 人からAIへの知識移転についてAIにソフト開発を依頼する方法や内容,AIと効果的に対話するためのコツや試行錯誤の方法,人(自身)の経験をAIに共有する工夫とその理由 等
(3) AIから人への知識の移転についてAIが提案するコードの内容や品質,AIの意図の解釈可能性や採否の判断根拠や判断基準,AIの提案からの気づき・発見や学び 等
(4) 人とAIの協働における相互作用について人とAIの役割分担,協働による問題解決の方法,人(自身)の思考プロセスの変化やAIからの学習 等
(5) AIペアプログラミングの成果,課題,組織的取組について具体的なAIペアプログラミングの成果,チームや組織におけるAIの活用方法の共有やマネジメント 等
全てのインタビューは,録画・逐語記録し,Kinoshita(2020)が示すM-GTAの分析ワークシートを援用して分析した。一部のインタビューでは,画面共有機能による実際のAIサービスの使用方法の理解に努めた。特に,生成AIの協働プロセス,暗黙的な知識の相互移転の視点に係る問いと,分析焦点者であるソフトウェアエンジニアの視点から,関連性の高い内容を抽出した。M-GTAの分析ワークシート(概念名,定義,具体例)に記載し,理論的なメモを考察に活用した。この概念生成プロセスにおいて,複数の具体例から共通する本質を捉えて,多様な具体例としての現れ方(ヴァリエーション)を把握することに努めた。データの収集と分析を並行して行い,概念の具体例が再確認される状態まで確認した。
インタビューデータのM-GTAによる分析を通じた主たる概念,概念の説明と具体例(ヴァリエーションを含む)を示す。
1. 人からAIへの暗黙知の移転と限界の認識本概念は,「エンジニアが有する設計意図,業務知識や経験則などの暗黙的な認識を含む知識をAIが解釈可能な方法(プロンプト,コード例,構造化されたドキュメント,環境設定など)で形式知化しようとする多様な実践とその過程で直面するAIの理解能力や人の表現力の限界」を指す。これはAIを駆使する開発の効果性の根幹であり,エンジニアは,試行錯誤を重ねている。具体例(ヴァリエーション)として以下の5点を挙げる。
(1) 期待出力の明示と正解の提示エンジニアは,AIへの指示の曖昧さを避け,期待出力や修正箇所を具体的かつ正確に指定する。例えば,「(指定箇所としての)ラインを指定して(中略)正解のアウトプットを貼るのが一番やりやすい」(Kyle氏),「答えを知っている前提で使わないと多分,事故る」(Kyle氏),「具体的にこのファイルのこの部分をこういうふうにしてほしいっていう具体情報を与えるような工夫はしております」(黒崎氏)と述べる。
(2) 設計思想の活用ならびに既存コードやコンテキストの提示既存コードや設計思想等のコンテキストのAIへの提示も重要である。AIは「すでにある出来合いのコードをもとに(中略)コンテキストを読み込んでボンって出してくれる」(保坂氏),「設計の土台みたいなところはきちんと見た上で,ある程度基盤が固まってくると,あとは生成AIがなんかいい感じにサジェストしてくれるっていう感じの使い方をよくしていますね。」(保坂氏),人間が型定義やコアロジックの「ハッピールートだけを書いて,それの拡張はAIにやらせている」(Kyle氏)といった役割分担を行っている。
(3) 仕様の段階的精緻化,ドキュメント化と計画の検証による制御AIに初期計画を立案させて人間が検証・修正し,仕様をドキュメント化(例.マークダウンファイル)してから実装を指示する手法が効果的であった。「AIが何を考えるかっていうのを出させ,その上で,いや僕はこうこうこう考えるからこうしてねみたいなものを,ある程度しっかりと仕様っていうものをフィックスさせて(中略)マークダウンを使って,じゃあそれぞれのコンポーネントを実装してね,っていう形」(占部氏)という方法や「作業計画を立たせるとだいぶ精度が上がる印象がある。計画が間違っていた時にすぐにこちらでストップできる」(斉藤氏)といった制御と精度向上の工夫がある。
(4) 形式知化における範囲と深さの限界の理解エンジニアは,AIが人の意図や暗黙的な認識を完全に理解するには限界があることをよく理解している。「(AIに)抽象化をさせるのは向いてない。」(Kyle氏),「AIってあのホワイトボードを書けない。(中略)アーキテクチャとか依存関係みたいな話になってくると説明がしづらくて」(占部氏)の指摘やデータベースのトランザクション処理のような「経験者の勘所や細かな配慮が必要な部分について,AIがそこまで汲み取ってくれない」(保坂氏)という経験はその現れといえそうである。そのため,AIに与える情報の範囲と深さをタスク等に応じて調整し,宮内氏は「網羅的に投げるの面倒なんですよ。はっきり言って,聞かれたことだけ答えるにしたい」としつつ,「今の君ならどう返すんだい? ここがわかんないなら,じゃあ教えるかみたいな感じですね」(宮内氏)と対話的に情報の粒度を調整する。
これは,AIの特性を理解した上で,形式知化の深さを意図的に調整する戦略といえる。
(5) 負のコンテキストの選別と事前クレンジングの重要性人からAIへの暗黙知を含む知識移転を行う上で,情報の質が極めて重要となる。「もうめちゃくちゃノイズが多いプロジェクトとかだと全然精度悪いです」(斉藤氏)のとおり,不適切な形式知がAIの学習を妨げる。エンジニアにはAIに情報源を吟味し,ノイズの事前クレンジング,質の高い学習環境が求められる。
これらの具体例から,エンジニアが状況やAIの特性,自身のスキルに応じて,暗黙的な認識を形式知化する最適な方法,範囲と深さを模索している実態が明らかになる。
2. AIから人への知識移転と根拠の探求による内面化本概念は,「AIが生成した形式知の提案に対し,人間が鵜呑みにせず,その背景にある論理や妥当性などの根拠を能動的に問い,自身の暗黙知を含む既存知識と照らし合わせて批判的に吟味し,新たな発見や学習を通じて主体的に意味を付与していくプロセス」である。
(1) 新たな知識・手法の発見と学習「人間で作ったものよりもいいコードを作ってくれることがあるので,それを機にこういう書き方があるのかと思って学びになることがあります。」(黒崎氏),AIのタスクの分割案で「なるほどね。そういう分け方があるんだ。そういう形でそれぞれの責務を分割すれば確かに副作用なくできるね,っていうのを日々学んでいる感じですかね」(占部氏),あるいは自身が精通してない分野をAIにコード生成させて「これってどういう意図で実装したの?,とチャットで確認しながら理解しに行くみたいな流れ」(斉藤氏)など,AIの提案を通じてエンジニアが新たな知識や手法を学ぶ様子がうかがえる。加えて「ビジネス的な要件もそうですし,自分が書いているコードに対しても,なんか後々考えてみたら別にいらなくないみたいな形でやっぱコロコロ変わる」(占部氏)のように,開発を進めながらAIとの対話を通じて,要件そのものや実現方法が柔軟に変わる現場の実践が示された。
(2) 「なぜ」を問う行為の多面的意義:ブラックボックス性の解消と根拠の探求エンジニアはAIの提案を鵜吞みにせず,その根拠を問うことでブラックボックス性を解消し,理解を深める。AIが書いたコードは「100パーセント修正というよりかは絶対見ないといけない」(Kyle氏),「AIに書かせて僕がコードレビューする(中略),そのコードレビューのタイミングで要件に合わせに行く」(宮内氏),AIは「正解か不正解っていうのがジャッジできない」(占部氏),「何をしてるのかっていうのをこう説明してくださいみたいなのをチャットでやりますね。」(斉藤氏)と人が明確にレビューして指示する必要性が強調される。また最終的な採用判断は,「AIの提案に対して反論できる材料がなかったとき」,「迷ったら自分の方を優先」(保坂氏)といった自身の基準で行われている。
AIの提案に対して「なぜ」と根拠を問う行為は,AIのブラックボックス性を解消し,知識をより確かなものとして蓄積するための能動的な学習プロセスと考えられる。
3. 個人最適化されるAIとケイパビリティの質的転換本概念は,「生成AIとの対話を通じ,エンジニアのスキルや作業スタイルが個人最適化される傾向とそれに伴うアーキテクチャ構想力やユーザ経験との整合等の能力に加え,AIと協働する指示能力や課題解決力などのケイパビリティの質的転換の有効性」を示す。
(1) AIとの協働のスタイルと個人最適化エンジニアはAIとの対話を通じ,自身の作業スタイルにAIを最適化させていく。AIを「賢い若手」(Kyle氏)や「超優秀なジュニア」(宮内氏)と見なす例や「設計の土台を自身で固め,AIに補完させる役割分担」(保坂氏)など,多様な協働スタイルが見られる。こうした対話の結果,「なんか自分が求めるような書き方に近づいていく」(占部氏)という。
(2) 新たに求められる協働スキルAIとの協働では新たなスキルが求められている。例えば,複数のAIモデルの特性を理解し,使い分ける能力である。「うまくいかなかった場合は,(中略)モデルを変える」(占部氏)「どうAIを懐柔するかみたいな方にこう思考が転換していってる」(斉藤氏)という。
(3) 経験豊富なエンジニアの価値向上と役割変容熟練のエンジニアは,AIの登場を「僕らに対するむしろ追い風でしかない」(宮内氏)と捉え,蓄積経験の価値が一層高まる認識である。その背景には「高まると思っていて,なぜならその正解を知っている人じゃないとAIを使いこなせないのが現状」(Kyle氏)という。
人からAIへの知識移転が,単なる自然言語のプロンプト記述能力に留まらず,プログラムコードの例示や仕様定義など多様な形式知の組み合わせで行われるが,その質(的確さ,具体性,網羅性など)と深さがAI出力を左右する。特に高度な設計思想やアーキテクチャといった抽象的で経験に深く根差した知識の暗黙的な次元の部分的な形式知化は困難な部分が少なくない。これは拡張性や保守性等の情報システムの非機能要件,複数の技術的・非技術的制約間での複雑なトレードオフやシステムの全体最適化の判断を含み,AIの学習データによる限界(新しい技術要件や特殊な文脈への未対応の弱さ)が指摘された。これらの高度な設計思想やアーキテクチャに関する暗黙知は,その複雑性,文脈依存性,そして自然言語による完全な表現の難しさから,AIが解釈可能な方法で効果的に形式知化するには本質的な限界が存在する可能性がある。特にソフトウェア・エンジニアリング領域では,技術要件やユーザ要件が進化し,AI自身も発展する中で,当該領域における最終的な判断や質の担保は,依然として人の能力や経験に依拠せざるを得ない可能性が示唆される。このことは,AIとの協働において,人間の持つ中核の能力の重要性が一層際立つことを示唆している。
2. AIから人への知識移転:能動的な根拠の探求と意味生成による内面化AIから人への知識移転は,AI出力の形式知を人間が解釈し暗黙知へと統合する内面化のプロセスとして捉えられる。AIのブラックボックス性は,人にAI出力の根拠の能動的な探求と意味生成を促す。エンジニアは学習データに依存するAIの提案を鵜呑みにせず,対話を手がかりに,自身の知見と照らし評価・検証し,主体的に思考を深めて知を形成する。この根拠の探求と意味生成は,深い推論に不可欠であり,AIのブラックボックス性がむしろ人の批判的思考力を活性化させ,創造の契機となり得ることを示唆している(Yoda et al., 2019)。
またAIが学習する形式知化されたデータには,人が創造した知識(例 ベストプラクティスのコード)内に人の経験や価値に基づく判断や文脈依存の言語化されにくい暗黙知の痕跡が間接的に埋め込まれていると解釈する余地がある。AI自身が真の文脈理解を伴う暗黙知を蓄積することは,その概念定義の根本から検討を要する奥行のある重要課題であろう。ただし,AI出力に含まれる暗黙知らしきものは,人が解釈し意味を付与することで価値を持つことから,ここでの知の主体はあくまで人間側にあるとも言えるだろう。
3. 個人最適化されるAIと組織的な知識創造のマネジメントの新たな課題従来の知識創造理論は,人同士の組織レベルでの知識共有を前提とするのに対し,人とAIの協働における知識創造は,異なる様相が見込まれ,人同士の協働を前提とした枠組みに変更を投げかける可能性がある(Yoda et al., 2019)。本稿のとおり,AIを活用するソフト開発は,まず個人の生産性向上に主眼が置かれ,AI活用は個人最適化される傾向が見られた。同時に,AIとの対話を通じて要件そのものや実現方法が柔軟に変わりながら開発が進む現場の実践がある。この状況下において,熟練者によるジュニア層への助言といった「媒介」(例えば,占部氏による経験豊富なエンジニアがジュニア層とAIの間に入り,AIへの指示方法やAIからの提案の解釈・活用方法について具体的な助言を行う)により組織内での知識移転を促進している。人とAIの協働は,人同士とは異なる組織的な知識創造の実践となりうる具体的な手がかりがあった。別の事例となるが,例えば,将棋において第一線で活躍するプロ棋士同士が研究会を通じてAIとの協働から得られた知見を相互に共有し,高度な人の知性を駆使して,ブラックボックス性とその根拠をじっくりと探求する試みは理想的にも見える。一方で,本稿のソフトウェア開発の実務においては,個々の技術者のスキルレベルの差異や,生産性・コストといった実務上の制約から,個人のパフォーマンス向上が優先されやすいという特殊性も考慮する必要がある。加えて,現時点の生成AIが既に高度なプログラムコードとしての形式知の生成能力を有している点を踏まえると,従来の知識創造理論の枠組みだけでは捉えきれない,新たな協働モデルの探求の意義もあろう。
4. 新たな暗黙知と求められるケイパビリティの転換人と生成AIの協働は,従来の暗黙知の価値とエンジニアのケイパビリティにも変容を迫る。生成AIが高度な形式知(ベストプラクティスに基づく標準的なコード,設計パターン,技術情報など)を提示する一方,アーキテクチャの構想,顧客要件とのすり合わせやユーザビリティの品質の追求,将来への拡張性や保守性の備え,システムの非機能要件のトレードオフの相互調整等は,ソフトウェア・エンジニアリングの固有の特性や過去のデータからの学習という生成AIの特性に起因して,現時点ではこれらを生成AIに完全に委ねることは困難であり,むしろ熟練のエンジニアの価値を際立たせているという事実が確認された点は興味深い。
今後は,人間固有の暗黙知に依拠しつつAIとの対話を通じて,相互の潜在能力を最大限に引き出すための形式知化の能力(例えば,効果的なプロンプトエンジニアリング,文脈に応じたコード例の提示,明確な仕様定義)や,AIの出力を批判的に吟味し,その背景にある根拠を探求し,自身の知識体系へと主体的に蓄積しつつ品質を高める能力といった,AIとの協働を前提とした暗黙知の認識プロセスの面の重要性が高まっていると考えられる。これらは,いわば「生成AIベースのITケイパビリティ」とも呼べるものであり,AIを単なるツールとして使うのではなく,知的なパートナーとして協働するための基盤となる。これは技術進展が人の知的活動をより高度な領域へとシフトさせ,新たなケイパビリティ開発を促すことを示唆していると考えられる。
本研究は,AIを駆使したソフトウェア開発の実践を通じ,人と生成AIの協働において,特に暗黙知に着目し,知識の相互移転の観点から,新たなITケイパビリティとその発現メカニズムを明らかにしてきた。理論的な貢献は,人と生成AIの協働において,「生成AIベースのITケイパビリティ」と呼称しうる新たな組織能力の萌芽を特定し,その発現メカニズムの一端を明らかにした点にある。これは人間の暗黙知を基礎としAIを触媒とする相互作用から形成される能力である。その中核には,①AIが解釈可能な方法で暗黙的な認識を含めた効果的な形式知化とその限界を認識する能力,②AI生成の形式知の根拠を人が能動的に解釈・評価し,経験を通じて自らに内面化する能力,を通じて人とAIという異なる知の主体間における特異な双方向の移転プロセスが存在することを明らかにした。
実践的貢献として,①生成AIを効果的に駆使し人間の能力を補完・拡張する協働方法(人のコア領域の識別,多様な形式知化方法),②AIによる個人最適化を踏まえた組織の開発能力向上のためのマネジメント上の示唆(熟練者による媒介,共通の設計思想の共有),③協働時代に求められる新ITケイパビリティの具体像提示によるエンジニア育成・組織能力開発への方向づけ,を提示した。特にソフトウェア開発におけるAIには代替し難い人間固有の価値を浮彫にし,実務家の能力開発や今後のAI技術の進展を確認する視座を提供した。
提示した概念の精緻化とAIの進展の見極めが課題である。本稿は,2025年4~5月時点における生成AIの技術水準とそれらを用いたデジタルサービス開発の実践を分析の対象とした。AI技術の進展速度は極めて速く,AIの学習データも日々増大し多様化している。今後,一定期間を経た後に,同様の観点から変化や差異を比較・分析することで,人と生成AIの協働関係のダイナミックな変容プロセスや,それに伴う個人及び組織の能力進化について理解を深め,提示した概念を精緻化していくことが課題である。そして人とAIの協働について,研究対象領域を拡大し,適用可能性を高めることが今後の課題である。
またAIは人の知性を相対化する手がかりを提供すると考えられる。本研究を踏まえ,Ishii(2009)が指摘する創造の知としての暗黙的な知の次元や,創発プロセスの知といえるかも知れない人の暗黙的な認識の方法の観点から探究を続けることも今後の課題としたい。
本研究において,インタビュー調査にご協力いただいた皆様に,ここに記し心より感謝申し上げる。
本研究のインタビューデータは,秘匿すべき企業情報・個人情報が含まれているため,非公開である。
1)ここでいう生成AIには,生成AIを支えるテクノロジーとしての機械学習や自然言語処理などを含む。
2)Nonaka(1994, p. 16)は,暗黙知を「個人の経験に深く根ざしており言語化や伝達が困難な知識」とする。Nonaka(1994)は,暗黙知と形式知の相互変換を重ねることで組織的な知識創造が促進され,企業の競争優位性の実現に寄与するとした。経営学の文脈から広く展開された知識創造理論を参照しつつ,人と生成AIの協働を検討する本稿でも,相互間の暗黙知と形式知の変換に焦点を当てて探索することが有益と考える。
3)この点は,事業全体を高度に自動化する場合でもなお重要である。生成AIによる高度な自動化は,企業に競争優位をもたらしうる一方,生成AIによるあらぬ誤学習で出力エラーが生じる場合に,自動化されたループの中に人が介在して調整・修正できること(Human in the loop)が,戦略的にも倫理的にも良い成果に寄与すると考えられている(Manis & Madhavaram, 2023)。ただし,高度に自動化する場合,生成AIが対応することで失われるHuman in the loopに必要な人の能力の涵養機会を確保することはいかに可能か,検討することが重要になるだろう(De Bruyn et al., 2020)
4)インタビュー調査時点のエンジニアが使用する生成AIベースのソフト開発サービスを示す。複数を併用されている場合が多い(Github Copilot 1.323, Cursor0.50.5, Claude Sonnet 3.5, Devin 2.0, Gemini 2.5Pro, Chat GPT o3, Roo Code 3.18.2)。実際に4~9割のコード生成をAIが担っていると述べる。
依田 祐一(よだ ゆういち)
立命館大学経営学部 教授。博士(経営学)(神戸大学)。NTT,立命館大学経営学部准教授を経て現職。主著に『企業変革における情報システムのマネジメント―ISのフレキシビリティと戦略的拡張性―』碩学舎(第30回電気通信普及財団賞テレコム社会科学賞)がある。
日高 優一郎(ひだか ゆういちろう)
立命館大学経営学部 教授。神戸大学経営学研究科博士課程後期課程修了(博士(商学)),山梨学院大学現代ビジネス学部准教授,岡山大学社会文化科学学域教授などを経て,現職。