2016 Volume 59 Issue 5 Pages 322-330
人工知能技術の「責任ある研究とイノベーション(Responsible Research and Innovation: RRI)」のためには多様なステークホルダー間による対話・協働が不可欠である。本研究では,情報学系研究者のほか情報学の倫理的・法的・社会的問題を考える人文・社会科学研究者,政策系の専門家やSFなど創作/編集活動関係者,メディア,一般市民など多様なステークホルダーにアンケート調査を行った。10年後の運転,育児,介護,人生選択,健康管理,創作活動,防災,軍事の8分野では,全体として運転・防災・軍事分野など「知的な機械・システム」の導入に社会的合意が必要とされる分野の機械化には積極的な意見が多い。一方,ライフイベントにおける意思決定や健康管理など個人選択に委ねられる分野は「人間が主体で機械を活用する」傾向にあった。回答者の専門や価値観,経験によって意見は多様であり,個別の技術導入場面において機械と人間の関係をいかに創造的に組み替えていくかの議論が重要である。
人工知能の社会的影響研究が国内外で盛んだ。米国では2014年に起業家のイーロン・マスク氏や理論物理学者のスティーブン・ホーキング博士など著名人がかかわるThe Future of Life Institute (FLI)が,2015年にはスタンフォード大学に人工知能の社会や経済に対する長期的(100年)な影響を学際的に考えるAI100が設立された1)。英国でも2015年にFLI助成金でオックスフォード大学にStrategic Research Center for Artificial Intelligenceが設置された。人工知能技術が経済や教育,制度,倫理などに与える影響は,問題が顕在化しているものからSF的な内容まで多様であるため,研究の初期段階から「責任ある研究とイノベーション(Responsible Research and Innovation: RRI)」を推進する必要がある。そのためには一般市民を含む多様なステークホルダー間での意見の把握,共有が必要である2)。2016年1月に閣議決定された日本の第5期科学技術基本計画も「超スマート社会」実現のため研究者,国民,メディア,産業界,政策決定者といったさまざまなステークホルダーによる対話・協働をうたっている3)。
このような背景を踏まえ,本研究は多様なステークホルダーに人工知能と社会に関する意識調査を行うことで対話のベースラインとなる知見を提供する。なお本研究は国立研究開発法人科学技術振興機構(JST)社会技術研究開発センター(RISTEX)とAcceptable Intelligence with Responsibility(AIR)の協同研究である。AIRは異分野の研究者からなる研究グループであり,人間・人工知能融合時代の社会制度や倫理の議論を行っている4)。
意識調査の多くは人工知能の定義を“Human-Level Machine Intelligence: HLMI”5)や“the ability of computers and machines to carry out decision-making and thought processes similar to humans, sometimes referred to as computers being able to think for themselves”6)など人間と同等,あるいは人間を超える知的な機械としている。これらの知的な機械が20から30年後に実現されることを前提とし,機械が人間の仕事を代替するシナリオなどが展開される。しかしこのような遠い未来の「人工知能」設定を基に人々に意見を求めるのは技術決定論的である。技術は社会と分離可能ではなく相互作用して形成される。また,技術が導入される環境やそれを受容する人々の社会規範も常に変化していく7)。
そこで本調査では10年後(2025年)の近未来において,現在の延長上にある技術を調査対象とした。その際,意味が一意に定まらない人工知能という単語を用いず,「機械による医療・健康診断」「自動走行車」「スマホによる予定の管理や意思決定助言サービス」「高機能のコンピューターゲーム」「対話ができたり,留守宅で利用できたりする高機能な家電製品」など人の状態や希望を自動で察知・判断し,先回りして必要な情報などを提供するサービスを「知的な機械・システム」と定義した。「知的な機械・システム」に対し,運転や介護などの分野で人間がどの程度仕事を委任できるかに加え,研究開発の方向性や研究者への信頼,技術に対する認識を調査した注1)。
本研究は「知的な機械・システム」の研究者だけではなく人文・社会科学(Social Sciences and Humanities: SSH)の研究者も調査対象とした。情報学の倫理的・法的・社会的問題(Ethical, Legal, Social Implications: ELSI)に対するSSHと情報学研究者の議論は重要視されているため8),意識差の可視化は有益である。また科学技術政策系専門家や創造力豊かなSF作家の意見も技術の方向性を考えるうえで参考となる。そこで第1回調査は2015年12月1日から7日で情報系,人文・社会科学系と政策系の学会や日本SF作家クラブのメーリングリスト,関連するFacebookグループに依頼メールを流したほか,シンポジウムでチラシを配布してWebアンケート回答を依頼した。同時期に年齢を20代から60代をほぼ等分に,男女を250名ずつと指定し一般市民500名の回答をWeb調査会社に依頼した。
第1回では主に専門家や研究者を対象としたため第2回は「一般市民」の中でも実務職の人を調査対象とした。具体的には民間企業で「知的な機械・システム」開発に携わっている人,弁護士あるいは企業の法務関係職にある人,国家公務員としてあるいは民間シンクタンクで政策・戦略検討立案に携わっている人,新聞や出版物,番組などの編集・発行に携わっている人,そして宗教関係職に携わっている人である。全体で計500名をWeb調査会社に依頼した。調査期間は2016年2月1日から14日であった。
3.2 質問紙の設計設問は全部で7セクション(問x,a-f)からなる(表1)。問xはアンケート認知経路,問aは過去10年と今後10年の「知的な機械・システム」普及に関する認識を質問した。問bは,さまざまな場面で「知的な機械・システム」に任される可能性のある作業をキーワードとして挙げ,どの程度任せるかを質問し,その理由を聞いた。具体的には,運転(ハンドル操舵(そうだ)やナビゲーションなど),育児(遊び相手や見守りなど),介護(排せつ,話し相手など),人生選択(就職や結婚など自己のライフイベントにおける意思決定や判断など),健康管理(食事や睡眠など自分のヘルスケアなど),創作活動(音楽や小説など),防災活動(救護や救助など),軍事活動(偵察や戦闘行為など)の8分野である。問c-1,2,3では回答者の「知的な機械・システム」研究への関わりを分類し,問c-4で今後10年間の「知的な機械・システム」研究開発の方向性に対する認識を聞いた。問dは「知的な機械・システム」研究者への信頼や技術に対する認識などの先行研究9)を参考に作成した。問eは,「知的な機械・システム」の倫理的・法的・社会的な影響について考え,社会との対話を開始すべきタイミングを質問した。最後の問fは性別,年齢,運転や介護経験の有無,学歴,所属組織と職位,学会など属性を調査した。

表2に第1回調査のコミュニティーごとの回収率を示す。回収率が低い結果となったのはメーリングリストを用いた調査法の限界を示しており,メーリングリスト登録者全員がメールを読んでいるかも未検証である。また人工知能学会経由の回答者が「知的な機械・システム」研究者とは限らない。そこで問c-1,2,3で回答者の情報技術へのかかわり方を聞いた。具体的には研究・開発活動なのか創作・編集活動なのか,あるいは研究・開発活動は理学・工学的アプローチなのか人文・社会科学的アプローチなのかなどを質問した。これらの回答と所属学会情報を合わせ,回答者822人中,判断不能な21名を除外して下記5グループに分類した。
(A)AI:「知的な機械・システム」研究者(主に大学など研究機関に所属)
(B)SSH:人文・社会科学研究者
(C)PM:政策立案・ファンディング系
(D)SF:創作/編集活動系(記事,小説,音楽,映像などを含む)
(E)non AI:「知的な機械・システム」以外の理工医学系の研究者(「知的な機械・システム」にかかわらない情報学研究者を含む)
これにWeb調査会社による(F)Public:一般市民を加えた。
第2回調査は以下の5グループ計500名から回答を得た。
(i) pAI:民間企業で「知的な機械・システム」の開発に携わる
(ii)LAW:弁護士あるいは企業の法務関係職にある法律系
(iii)GOV:国家公務員あるいは民間シンクタンクで政策・戦略検討立案に携わる戦略系
(iv)MED:新聞や出版物,番組などの編集・発行政策に携わるメディア系
(v)REL:宗教関係職に携わる
各グループの人数,性別,年代(1が10代,2が20代と続き8が80代となり,その平均をとった値)と学歴は表3のとおりである。いずれのグループも過半数が男性であり,年代も40代から50代が多い。また,研究者や政策関係者は8割以上が大学院卒である。


問aからは,過去10年における「知的な機械・システム」は,およそ2割が「かなり普及した」,4~5割が「ある程度普及した」と全グループで認識されていた。今後10年については第1回調査の一般市民以外およそ6割が「かなり普及する」と回答し,「ある程度普及する」を加えると9割近くなった。一方,一般市民と第2回調査グループは「かなり普及する」が3割強,「ある程度普及する」を加えても7~8割と差がみられた。
問b-1-1からb-1-8は今後10年で運転,育児,介護,人生選択,健康管理,創作活動,防災,軍事の8分野で,どの程度機械に任せられるか以下の5つの選択肢を設けた。
(1)人間だけで行う
(2)人間が主体で「知的な機械・システム」を活用する
(3)「知的な機械・システム」に任せるが,人間が機械を監視・管理する
(4)ほとんど「知的な機械・システム」に任せる
(5)わからない
回答傾向を示すため「(5)わからない」を除き,数値を順序尺度と便宜上見なしてグループごとの平均値を示したのが図1である注2)。8分野のうち運転や防災,軍事活動は機械に任せる傾向にある。また,クロス分析の結果,軍事(p=.0060)と介護(p=.0016)以外はp<.0001でグループ間に有意差が見られた。特に評価が割れたのが運転である(図2)。一般市民(Public)などは「(4)ほとんど機械に任せる」が1割前後であったのに対し,「知的な機械・システム」研究者(AI)や創作/編集活動系(SF)は4割程度が「(4)ほとんど機械に任せる」と答えた。全分野において一般市民は「(1)人間だけで行う」割合が多く,創作/編集活動系(SF)は「(4)ほとんど機械に任せる」割合が多い。「知的な機械・システム」研究者(AI)も運転,防災,軍事以外は「(4)ほとんど機械に任せる」割合が創作/編集活動系(SF)と同様に多かった。
また問b-2-1からb-2-8は分野ごとに「知的な機械・システム」に任せる/任せない理由を聞いた(複数回答可)。「(1)人間だけで行う」と「(2)人間が主体で『知的な機械・システム』を活用する」を選んだ人を「人間主体」,「(3)『知的な機械・システム』に任せるが,人間が機械を監視・管理する」,「(4)ほとんど『知的な機械・システム』任せる」を選んだ人を「機械主体」と分類して比較したところ,理由に差がみられた。たとえば一般市民のうち,育児で「人間主体」を選んだ人の60.6%は「人間が行うべきもので,機械に任せるものではない」を理由として選んだ。一方,「機械主体」を選んだ人は43%が「より便利で楽そうだから」を選んだ。他の分野でも同様の傾向がみられた。一方,「人間主体」と「機械主体」が同じ理由を選ぶ分野もあった。たとえば自動運転では「人間主体」の44.8%,「機械主体」は53.5%が「よりミスが少なくなる」を理由として選んだ。同じ理由でも,機械主体派は機械の方がミスは少ないから機械に任せたいと考え,人間主体派は人間の方がミスは少ないので人間に任せたいと考える。ここから,人間や機械に対する信頼の差が浮き彫りとなった。なお一般市民と比較して,「知的機械・システム」研究者は機械だからミスが少なく,より信頼でき,より現実的であると答える傾向にあった。
さらに運転,育児,介護,創作活動,健康管理の5つの分野において気を付けている経験の有無を聞き,「知的な機械・システム」委任のクロス分析をした。その結果,有意差がなかった介護を除き,経験のある方が人間主体で行うと答える傾向が有意に高かった。育児経験の有無と「知的な機械・システム」委任のクロス集計結果を全体(p=<.0001)と「知的な機械・システム」研究者(AI)(p=<.0177)で比較したのが図3である。



「知的な機械・システム」研究の発展方向性は多様である。問c-4では今後10年で「知的な機械・システム」は[1]人間そのものの理解を促進する科学的な研究を重視すべきか,社会問題解決を目指す工学的な研究を重視すべきか,[2]自ら判断したり考えたりするなど自律的に動くことを目指すか,人間の身体能力や知能を拡張する補助的な道具を目指すか,[3]応用と基礎研究どちらを重視すべきかの3項目の両端に対し,自分の立場を選択してもらった。全体としては工学的な研究で補助的な道具利用を目指す方向が強く,基礎と応用はほぼ半数ずつという結果となった。しかし図4に示すように「知的な機械・システム」研究の従事者は研究機関(AI)か民間(pAI)にかかわらず自律的な機械の開発を目指す回答が比較的多く見られた。

問dは「知的な機械・システム」と社会に関する質問10項目を設けた。国・企業・研究者が技術の悪用を防げると思うか(3項目),研究評価への研究者や市民のかかわり方(3項目),そして技術への認識(4項目)の3分類である。グループごとの回答傾向を示すため,各問の「(1)そう思う」から「(5)そう思わない」の5段階評価を順序尺度と便宜上見なし,平均値を示したのが図5である。「国(企業)は情報技術の悪用を防ぎ,管理する能力がある」と思わない傾向が強い一方,研究者に対する信頼は高い。また,グループ別に分散分析を行ったところ,不信感の最も強い人文・社会科学研究者(SSH)と最も弱い一般(Public)の差は有意(p<.0001)であった。
研究評価に関する質問(項目4~6)では,「知的な機械・システム」研究者(AI)と人文・社会科学研究者(SSH)・政策関係者(PM)の回答が対照的である。人文・社会科学研究者(SSH)と政策関係者(PM)は「研究者は社会的影響を考えない」ため,「研究開発の方向性を専門家が決めるのがよい」とは思わない傾向にあった。「知的な機械・システム」研究者(AI)は反対に,「研究者は社会的影響を考え」ており,「研究開発の方向性は専門家が決めるのがよい」と考える傾向にあった(図の矢印)。また,すべてのグループが「評価に市民が参加すべき」と考える中,創作/編集活動系(SF)が特に積極的であった。
技術に対する認識として,「知的な機械・システム」研究者(AI)は「情報技術の発展に人間がついていけない」とは思わず,リスクを受容し,自己責任で技術を利用すべきと回答する傾向が強い。一方,人文・社会科学研究者(SSH)は「自己責任で技術を利用すべき」ではないと考える。また創作/編集活動系(SF)は「予想もできない危険がある」と思う傾向が他グループより強い特徴がある。
最後に問eで研究開発にあたり倫理的・法的・社会的問題(ELSI)を考えるべき段階を問うた(図6:ただしPublicを除く)。
専門家や研究者を対象とした第1回調査では,約半数が「実用レベルで社会と対話する必要がある」と答えた。一方,第2回調査では回答は分散し,「わからない」などの回答率も第1回調査よりも増えた。グループ別では民間企業の「知的な機械・システム」研究者(pAI)の「影響について考える必要はない」とする回答が約11%と突出しているのが特徴的である。


本研究では「知的な機械・システム」と人との関係や発展の方向性を,多様なステークホルダーを対象に,8つの分野で調査した。それぞれに対していくつかの発見があった。
まず,本調査の特徴の一つとしてステークホルダーとして創作/編集活動系(SF)の意見を抽出できたことがある。彼らは「知的な機械・システム」研究者(AI)と同様あるいはそれ以上に機械に任せる傾向が強い。また「知的な機械・システム」研究者(AI)と異なり,「予想もできない危険がある」と考える傾向が強く,それが「人間を超える知能」などを描く創造力の源となっていると考えられる。「知的な機械・システム」への興味が高いためか,このような技術に対する評価には市民も積極的に参加すべきとする考えが強いのも特徴的である。
一方,「知的な機械・システム」研究者(AI)は,創作/編集活動系と同様に機械に任せる傾向が強いものの,情報技術全般を脅威とはとらえていない。また,研究開発の方向性は専門家のみで考えようとする。同様に民間の「知的な機械・システム」研究者(pAI)も「研究者・開発者はそもそも社会的な影響について考える必要はない」と考える傾向が強い。これに対し,人文・社会科学研究者(SSH)や政策研究者(PM)は「知的な機械・システム」研究者は研究開発の方向性を専門家のみで決めるのを良しとせず,自己責任で技術を利用すべきではないとする。今後,情報技術の方向性を異分野間の研究者で議論していくうえで,これらの溝を埋めていく作業が必要となるだろう。
これらの専門家集団に対し,一般市民は8分野すべてにおいて人間主体とする傾向が強く,「知的な機械・システム」に慎重である。また他のステークホルダーに比べ「知的な機械・システム」の開発の方向性や評価に関与することにも消極的である。国家公務員あるいは民間シンクタンクで政策・戦略検討立案に携わる人(GOV)やメディア関係者(MED),法律関係者(LAW)も同様に消極的であり,第5期科学技術基本計画などで掲げられている多様なステークホルダー間の対話のための意識を高めていくことが今後の課題として浮かび上がった。
調査結果から運転,育児,介護など分野が異なれば,求める「知的な機械・システム」と人間の関係性も異なることも示唆された。図1からは全体として運転・防災・軍事など「知的な機械・システム」の導入に制度的・社会的合意が必要な分野は「知的な機械・システム」に任せるとする意見が強い。一方,就職や結婚などライフイベントにおける意思決定や健康管理,創作活動など個人の選択に委ねられる分野は人間が主体であるべきとの傾向が伺える。しかし,個人の選択に委ねられる場合,アーリーユーザーなど機械への好奇心の強い層が徐々に「知的な機械・システム」を使い出し,市場にデファクトスタンダードとして普及する可能性がある。そうなる場合に備えて,機械化を望まない人たちの価値観も尊重されるような普及のあり方を検討していく必要があるだろう。
本研究は多様なステークホルダーの意識調査を行うことで,異分野間対話のベースラインとなる知見を提供することを目的としている。現在,人工知能やロボットが仕事を奪うと懸念されているが,機械への指示出しや管理に人間は不可欠である。また,個人の価値観や経験の差によって「知的な機械・システム」の認識や受け止め方は異なる。そのため近未来においては運転や介護といった個別場面において人間の仕事が完全に機械に置き換わるのではなく,どのように機械と人間の仕事を切り分け,タスク単位でどこまで何を機械に任せるのかを,創造的に考えていく作業が求められるだろう10)。そこでは「知的な機械・システム」と社会を共生成していく視点が重要である。
一方,本調査は表2に示すように母集団からの回収率は低く,回答数も一定ではない。第2回もWeb調査会社に委託したものである。そのため本調査の結果はあくまで示唆的なものにとどまる。「責任ある研究とイノベーション」や第5期科学技術基本計画などにおいてイノベーションの早い段階で多様なステークホルダーとともに研究の正と負の課題を考えることが求められている。しかし,ステークホルダーの定義や課題へのアプローチなどは難しく,調査法も含め今後の課題である。また本調査は2015年時点での日本の意識調査であるが,人々の考え方や価値観は技術とともに変化し,人々の考え方も技術の方向性に影響を及ぼす。そのため本調査を継続するだけではなく,国際的な比較も行っていくことを今後の課題としたい。
第1回調査では坂本大輔氏,鳴海拓志氏,井上智洋氏,成原慧氏,長谷敏司氏,長倉克枝氏に各メーリングリストへの投稿などご協力いただきました。またアンケート調査にご協力いただきました皆様に御礼申し上げます。アンケート作成,分析にあたってはAIRメンバーである久保明教氏,駒谷和範氏,田中幹人氏,吉澤剛氏にもご助言をいただきました。本研究は,国際高等研究所,国立情報学研究所とJSPS科研費15K12435の助成を受けたものです。また,調査にあたり,科学技術振興機構社会技術研究開発センターのご協力をいただきました。
本稿の筆者らによるAcceptable Intelligence with Responsibility(AIR)研究グループは,2014年9月に活動を開始した。AIRメンバーは,人工知能などの情報系研究者,哲学・倫理や社会科学などの人文・社会科学系研究者と科学技術社会論や科学技術政策などを専門とする研究者から構成され,1980年代オーラルヒストリー調査などの協同研究を行っている。
AIR: http://sig-air.org/