2017 年 4 巻 1 号 p. 4-9
技術の在り方を論じる1つの方法に技術決定論的(technological determinism)な語り口がある.技術決定論には,「技術が社会と独立に発展する」という立場と,「技術が社会を変化・形成する」というより強い立場の2種類がある.この考え方は「情報化社会」の論じられ方にも用いられており,1960年代後半から「情報技術が社会を変える」と語られ続けている(佐藤 1996).
「テクノロジーのシステムは文化の進む方向を少しずつ確実に曲げて」いき,その流れは「不可避」だと論じる技術決定論的な語り口は現在も健在である(ケリー 2016).分散型・協働型・水平展開型という性質をもった情報技術は,生産性を向上させる.しかし,一方で価格を下げ,資本主義の首を絞める.そのため20世紀の大規模な垂直統合型の企業が提供してきた大量生産型のサービスから,21世紀は協働型コモンズ上で水平統合されたネットワークを通した経済へと移行し,ただ同然の財とサービスの生産と流通が可能になるとビジョンを描く人もいる(リフキン 2016).情報へのアクセス,シェアリング,フィルタリング,トラッキングや人のエンパワメントなどの流れは確実に増していき,サービス学が掲げる「既存サービスの生産性向上」「新サービス創出」「価値共創の促進」もこのビジョンとの親和性は高い.
しかし,この情報技術の「不可避」と見られる流れも文化的,政策的な文脈との相互作用の結果として積極的に構築されてきたものであると本稿では指摘したい.このような視点は技術開発や経済的誘因の役割を軽視しているとみなされるかもしれないが(エドワーズ 2003),本特集においての筆者の役割は,工学系研究者ではない視点を提供することであり,ご理解いただきたい.また,このような視点をとる筆者を含め多くの科学技術に関する人文・社会科学系の研究者は,情報技術に否定的なわけではない.ただ私たちは「時期を見ながら,ためしに,そして疑いの目をもって,変化を受け入れるべきだと主張している」のである(テナー 1999).
現代の情報技術を議論する前に少し時計の針を巻き戻してみたい.1960年代のアメリカにおいて,コンピューターは脱人間化する中央集権的なシステムであり,冷戦という当時の政治的ビジョンに合致する技術として開発されていた(エドワーズ 2003).またコンピューターそのものは,様々な知を集結するために大学や産業などの壁を越えた軍産学の複合体によって開発され,新しい学際的な協働スタイルを構築した(Turner 2008).
それが1990年代になるとパーソナライズドコンピューターのような技術的発展もあったが,情報技術を取り巻く言説はカウンターカルチャーのイデオロギーを受けて,中央集権的なものから一転して個人のエンパワメント,協調的なコミュニティをもたらすものへと大転換した(Turner 2008).前述のケリーやリフキンはこの思想をより具体的な技術と現代的なビジョンに落とし込んでいる.技術だけではなく,システム思考といった国防政策のため開発された考え方自体も貧困対策や経済政策などの社会政策に転用されるようになっていった(Light 2005).
現在の情報技術を取り巻くコミュニティや思想は,監視や中央集権的なシステムへの抵抗運動としての側面を持つ.しかし,それは対立あるいは代替というよりは,表裏として存在する.例えば大企業の中央集権的なシステムに対抗し,「フリー」「シェア」などの価値を新興のIT企業は提供してきた.彼らは個人のエンパワメントや協調的なコミュニティを推進する一方で,いまや彼ら自身が批判してきた大企業以上にデータを中央集権的に集約し,権力を持つまでになっている.
このように情報技術の課題を考えるうえで,技術を取り巻くコミュニティや思想から分離して考えることはできない.本稿ではまず技術とそれを取り巻くコミュニティ,そして設計思想についてそれぞれ整理する.
現在,人工知能やロボットの社会的影響に関する報告書等が多く発表されている.社会的影響の分類・整理は,(1)移動・医療・教育などの分野別,(2) 倫理・法律・経済・社会や開発原則などの論点別,(3)技術の発展段階別など様々である*1.本稿では(4)アクター別に整理する.ただしプロシューマ化が進んでいる現在,アクターの定義も容易ではない.総務省の「AIネットワーク社会推進会議」の開発原則における基本概念の定義においても,「開発者」および「利用者」は,「関係が生ずる場面ごとに個別に評価される相対的な概念」と説明されている.また,欧州議会の報告においても「設計者」と「ユーザー」のライセンスがそれぞれ規定されている*2.このような分類を踏まえ,本稿では便宜上,大きく4つにアクターを分類する.
まずは,これらアクターの垣根が曖昧化している背景を見てみよう.
3.1 垣根の曖昧化を促進する政策的背景研究開発の上流から運用・利用の「出口」までつなげてフィードバックを促進することが,今日の人工知能,ドローン,VR,ファブリケーションでは推進されている.この流れ自体がユーザーのエンパワメントという文化的な思想と親和性が高いものでもあるが,同時に政策的な意図もある.
1980年代初頭のアメリカでは,イノベーションを線形モデルから連鎖モデルへ転換するべしという考え方があった.また,バイ・ドール法の成立もあり産学連携は加速した.インテルがマイクロプロセッサ開発にあたって,基礎研究から製品開発までを一企業で処理するというリニアモデルを捨てたのは有名な話である(岡本他 2009).日本でも1990年代以降,科学技術基本政策の制定もあり,産学連携の制度改革や促進政策が行われた.ギボンズらが提唱する「課題解決型の知の創造」(ギボンズ 1997)というモード2の科学技術を重視する傾向は2016年から始まった第5期科学技術基本計画の中においても顕著である.
日本では国が占める科学技術投資額はまだ大きいが,世界では国家の政策や同じ分野の研究者のピアレビューではなく,巨額の資金を持つ個人や企業の関心によって方向性が決まるようにもなってきている(カプラン 2016).そのため,科学技術の開発から流通までを語るうえで,IT巨大企業の存在が欠かせなくなっている.
このように産学官民の協働・連携を推進していくこと自体が現代科学技術政策の命題でもある.連携が進み,アクター間の垣根が曖昧化することは,既存の産業構造や社会構造の改革を促す.そこから社会的な問題も生じる.以下,「開発者」と「プロバイダ」,「プロバイダ」と「ユーザー」,そして「ユーザー」と「関係者」というアクター間の垣根が曖昧化することで生じる構造的な課題を整理する.
3.2 開発者とプロバイダの垣根現在,技術の開発段階から社会的影響について考える必要性が指摘されており,人工知能やロボットに関する開発原則の提言書が数多く発表されている*3.この場合の「開発」は「プロバイダ」レベルより上流になっていると考えるのが妥当だろう.例えば学術団体IEEEが2016年12月に出した「倫理設計バージョン1」では,機械学習の研究者が「透明性を確保するために,アルゴリズムの効率性を下げる」ことを可能性の1つとして提案している.そのような開発原則があることによって,研究者の自由な研究開発が妨げられるのではないかとの懸念もあり議論が行われている.
また一方で,研究開発段階における軍の研究費が論点となる.米軍等はロボット兵士を作るという応用研究だけではなく,野心的な研究や軍事に役立つかどうかもわからない基礎研究に対しても投資を行っている.軍による資金提供が,軍事利用目的の研究と見なされるかどうかは,日本でも1950年代から議論されている(杉山 2017).防衛装備庁の予算が増大している現在,研究者個人の「倫理」の問題だけではなく,「安全保障」予算が増大しているということの政策的,産業構造的な枠組みを考える必要がある.
戦後,物理学者,生命科学者は研究開発原則の策定や軍事研究とのかかわりなどの政治的,文化的な論点と向かい合ってきた.現在,情報科学も同じ議論に向き合わざるを得なくなってきている.開発者自身が「軍事機関からの金を受け取らない」という戦略をとり,「兵器を作り出さない」とだけ言っていられなくなってきている.開発者自身を巻き込んで「利用につながる箇所にも目を配る」(杉山 2017),つまりプロバイダ,ユーザーレベルでの使い方を見据えた仕組みづくりが必要となる.
本特集でもドローンのデュアルユース懸念について,技術認定制度やガイドライン,管理体制の強化が指摘されている.「販売者側がドローンの動力やモーターを停止されられるような仕組み」自体も開発段階での埋め込みが必要であり,必要な時にロボットの機能を停止する「キルスイッチ」や,人工知能の「非常停止ボタン」の開発も進められている.プライバシーに関しても同様に,設計の段階からプライバシー保護を埋め込む「プライバシー・バイ・デザイン」という考えが浸透し,そのための技術開発が行われている.
3.3 プロバイダとユーザーの垣根サービス学会ではサービスとは構成的な営みであり,プロバイダ(提供者)と受け手(ユーザー)の相互作用により「価値が共創」されると定義されている(中島 2014).本特集のいずれの技術においても医療・看護や農業などそれぞれの分野の専門家,あるいはユーザーとして課題を感じている方自らが共同研究者としてかかわり,新しいサービスやコミュニティを形成している.
従来は企画,設計,開発,製造,販売をプロバイダが行い,ユーザーは販売された製品を利用するだけだった.しかし現在,ユーザーのニーズが企画や設計に方向性を与えている.設計・製造・使用の垣根が曖昧になることで製造物責任や「表現の自由」や「知的財産権」が喫緊の課題となるのは本特集で田中氏が論じられている通りである.人工知能においてもユーザーによって学習が行われた技術の製造物責任が議論される.
しかし,問題や課題を持っている人たち自らが主体的にかかわることは,社会を変えていく可能性を持っている.特にファブリケーションにおいては「モノ」だけではなく「コミュニティ」を作り,参加することが掲げられている.そこには中央集権から分権へ,水平的・協働へ,そして人々のエンパワメントへとつながる思想が存在する.「ファブラボ憲章」*4には,ファボラボの利用者は「安全:人や機械を傷つけないこと」「作業:掃除やメンテナンス,ラボの改善など,運営に協力すること」,「知識:文書化と使い方の説明に貢献すること」が掲げられており,一人一人が責任を自覚してコミュニティの価値を共創する.また,イベントの参加者が次には運営者にまわるといった好循環が見られているという.
このようにコミュニティ内の価値が共有され,新たなサービスや試みが創造されていく一方で,これらの価値を共有しない人たちについて考えてみたい.技術の価格が手ごろになり,学会やコミュニティに参加せずとも誰でも比較的簡単に自分のニーズに合わせたモノが作れるようになっている.それは,意図する/せざるにかかわらず,それぞれの価値に合わせたモノやコミュニティを作ることができるということである.分散型・協働型・水平展開型の協働型コモンズにおいては「参加」がキーワードだが,それは逆に「参加」しない人/できない人をどのように巻き込んでいくかという課題を持つ.多様な価値を是とする許容範囲を超えたもの,例えば武器等に使用されるものを作る個人やコミュニティに対しては,コミュニティではなく法律や政策など社会基盤的な整備との連携が必要となってくる.そこにおいても,開発原則の議論と同様,自由な研究開発と規制の間の駆け引きが生じる.
3.4 ユーザーと関係者の垣根本稿で扱う「関係者」とはこの場合,(1)技術やサービスを利用する「ユーザー」ではないが,「ユーザー」の周辺にいたためにその影響を受ける人と,(2)技術に全くかかわらない人に大別される.前者の(1)ユーザーの周辺にいたために影響を受ける人は,例えば自動運転車やドローンにおける通行人,医療用人工知能で診断される患者などである.通行人や患者自身は技術を用いないが,技術に何か不具合が起きて事故や事件が生じた時に被害者となりうる.事故や事件に備えて保険サービスや技術リテラシーを「ユーザー」側が利用し高めるのは必然となるが,それを「関係者」まで広げられるかという問題がある.
例えば人間同士のように会話やアイコンタクトができない自動運転車やドローンに相対した時,機械がどのような挙動をするか知らないと通行人は咄嗟の対応ができないだろう.リテラシーを強要するのではなく,技術を使用していることを関係者にもインターフェースで示す,ユーザー以外の人にも情報がアクセスできる状態にしておく,などの対応が必要とされる.
また,(2)技術に全くかかわらない人と「ユーザー」の間にデバイドが生じないかも検討する必要がある.例えばインターネット利用の分析では,非ユーザー(non-users)の技術へのかかわり方を4分類している(Wyatt 2003).
非ユーザーであることを意図的に選んでいるのか(Want nots),それとも構造的に選ばざるを得なくなってしまっているのか(Have nots)は区別する必要がある.そのうえで「使いたくない人たち(Want nots)」の価値を尊重し,使わないという選択によって不公正や不都合が起きないよう配慮が必要になる.一方で,「使えない人たち(Have nots)」と「使える人たち(Have)」の間での格差が出ないような政策や支援が必要となる.
また従来このような「関係者」は「ユーザー」になることはあっても「プロバイダ」になる可能性は低かった.しかし,情報技術が安価になり容易にアクセスできるようになったことで,あるいはIT企業がそれまで無関心であった特定分野に躍り出ることによって,新しいサービスを生み出すことが起こりうる.その場合,既存の価値や社会構造・産業構造や特定の「プロバイダ」や「ユーザー」の既得権益を破壊する可能性がある.昨今の「雇用を奪う」などの言説は,このようにして各アクターの垣根が曖昧化しているために語られることもある.
本章では情報技術の設計思想を取り上げる.設計とは道徳を物質化することであり,設計者というのは実践的な倫理学者でもある(フェルベーク 2015).情報技術は最適化や効率化問題を解くのが人間より得意である.そのため,技術設計の根本思想が「全体最適のためには,ある特定の層の犠牲や負荷の分散,局所的な不利益もやむなし」となる場合がある.具体的なサービス例としては,渋滞緩和や物流・金融の問題を解くにあたって,気付かぬうちに一部の人が損をするように操作・誘導される可能性がある.あるいは運転中,直進すると壁にぶつかって自分が危ないが,左右どちらかに方向転換すると通行人をひいてしまう場合,自動運転車はどのような選択をすればよいか,あらかじめプログラミングすることができるのかという問題がある.これに対し,人数が少ないほうにハンドルを切るという功利主義的な考えを設計するのかといった問いかけもある.またVRのように感覚刺激に働きかける技術は,人々を「楽しく」「気持ちよく」させるが,見方によっては感情や行動を操作としていると感じる人もいるだろう.一方で,同じ技術を使って,本特集にもあるように,他者の経験や知識などを体験させて多様な価値に触れる装置として使うことも可能である.
また,機械は場合によっては人間よりも短時間で答えを導き出せるが,人間と機械は必ずしも同じ処理スピードで物事を考えない.例えば筆者は弁護士や裁判官の方とお話させていただく時に,思考実験として「AI裁判官」の可能性を提示することがある*5.現在,米国の裁判では,膨大な電子情報の中から人工知能が必要な情報を仕分け,その情報が証拠として用いられている.それでは人工知能そのものが裁判官となって判決を下せるかという話をすると「そもそも裁判とは何か」,「民主主義とは何か」と根本に立ち返った議論になる.与えるデータが適切であれば,「AI裁判官」は人間が短期間で読むことが難しい膨大な判例の中から適切な判断を下せるかもしれない.しかし1秒で出た判決に納得するような案件は,そもそも裁判所には来ない.裁判とは「納得」をするための場である.そして,その判決に納得できなかった場合,あるいは冤罪があった場合には手続きに従って再審ができるヒューマンエラーへの対応も組み込んでいるシステムでもある.
このように,人間が「納得」するためには時間がかかることもある.「AI裁判官」はともかく,医療診断や人生選択なども与えるデータの質が担保されていれば,情報技術のほうが合理的な提案や判断を出してくれる可能性がある.しかし,「事実」をどう伝えるか,人間が「納得」するために必要な時空間という要素をどのようにインターフェースに組み込んでいくかは技術だけで解決できる問題ではない.場合によっては,あえて技術を介在させないサービスデザインを設計することが求められるかもしれない.
一方で,人間のエラーや非合理性にも対応した冗長なシステムよりは,機械的で合理的なシステムを好む人もいるかもしれない.例えば,裁判も「納得」する場ではなくゲームの審判のように1秒で白黒つける場であってほしいと多くの人が望むようになれば人工知能の出番はでてくるかもしれない.ただし,それを「裁判」と呼べるかは議論の余地がある.そのためには「裁判」という仕組みを支えている原理,理念や役割について改めて議論する必要がある.そのうえで,技術のサポートを取り入れるところは取り入れ,人間がやるべき仕事,譲れないことを振り分けるための対話が必要になる.そのような理念や仕組みの再考と再構成なしに,技術だけを既存の冗長なシステムに埋め込むと,もともとのシステムの理念だけではなく技術の利点をも殺すことになる.例えば,オーラルヒストリー調査において中島氏はこう語った*6.
役に立つとはどういうことかっていうのをちゃんと考えればいいんだと思うんです.それが今の時代,例えば1900年の役に立つっていうことと,2000年の役に立つことっていうのは変わっているはずなんだけど,それを昔のを引きずったまま役に立つシステムをつくろうと思うと変になるということだと僕は思う.そこに,じゃあ今の役に立つとはどういうことかという時にデザインが入ってくる.よく使っている,頭にきている例はe-Taxなんですけど.あれは,紙しかない時代の仕組みでしょう,確定申告っていうのは.今のe-Taxってその確定申告の仕組みそのままを電子化している.電子化するなら別のやり方があるでしょうっていう頭がきれいに飛んでいる.そこにデザインがない.
最先端技術と社会の相互作用を議論する時の問いの立て方を2つ提案したい.それぞれ(A)調整型アプローチと(B)再構成型アプローチと名付ける(江間 2017).(A)調整型アプローチでは「技術を普及させるにはどのような課題があるか」を問いに掲げる.最先端技術普及の障害は,法の未整備や技術的な未熟さ,環境への不適合性,既得権益の抵抗,人々の価値観や順応性とのずれなど様々である.このような抵抗を軽減し,技術を普及させるためには倫理的・法的・社会的影響(Ethical, Legal and Social Implications: ELSI)を考慮し,ステイクホルダー間の調整が必要であると論じられる.このアプローチの特徴は,最先端技術を普及させるという命題ありきで議論が開始されていることである.
一方,(B)再構成型アプローチは最先端技術が議論の端緒であったとしても,「その技術が社会問題の解決に必ず必要なのか」,「そもそもの技術導入の目的は何なのか」など,そもそも論を展開する.例えば,技術設計思想の持つ効率性や最適化にサービスデザインそのものが引きずられていないかなどを考える必要が出てくるだろう.そのため場合によっては最先端技術を利用しない解決法や既存技術で代替可能なモデルなどの提案へとつながるかもしれない.「開発者」を技術開発の上流から巻き込んで最先端技術の可能性と課題について考える(A)調整型アプローチの視点も大事であるが,情報技術が導入されている現場へフィールド調査に赴くと,現実的に「プロバイダ」や「ユーザー」が行っているのは(B)再構成型アプローチであることが多い.場合によっては枯れた技術でもそのパッケージの仕方によって新しいサ-ビスとして浸透しているものもある.
(A)調整型アプローチのように最先端技術ありきで考えるのではなく,そもそも人と機械と環境の相互作用を(B)再構成をする,適度な粒度でそもそもの問いを作り出し、デザインすることがサービスを考える上では重要である.
本稿の冒頭で,現在の情報技術の背景にある中央集権的な視点と協調的・水平分業的な視点を紹介し,それらが表裏であることを示した.また,産学官民連携を推し進める流れも文化的・政策的な流れと情報技術の相互作用の産物である.サービス「学」である以上,その流れに自覚的になり,それを歴史的,批判的,再帰的に検証していくことが必要になるだろう.
また,「価値共創」を推し進める協働型コモンズといった1つの価値を追求するあまり,その価値になじめない人を排除するものになってはいけない.価値が多様化しているからこそ,ニッチな価値にも対応し,新たな価値を作り出すこと,あるいはその価値を補完するようなサービスをそもそも論的な立場にたって考えることも必要になってくるだろう.例えば情報技術が得意な最適化・効率化以外の価値をどのように技術設計に落とし込むことができるか考えることも必要になってくる.
技術は特定の方向へ「不可避」的に進むのではなく,社会との相互作用によっては,様々な設計や開発が可能であるという複数安定性multistabilityを持つ(フェルベーク 2015).サービス「工学」ではなく,サービス「学」としては,「技術がどのように社会やサービスを変えるか」という受け身の姿勢ではなく,サービスが提供する価値とは何か,そのために最先端技術は使えるのか,使えないのかといったそもそも論的な視点を持つことによって,新たな「サービス」概念を生み出すような研究を期待したい.
東京大学総合文化研究科・教養学部附属教養教育高度化機構特任講師,博士(学術).人工知能と社会の関係を考えるAIR (Acceptable Intelligence with Responsibility: http://sig-air.org/)研究会を有志とともに2014年より開始.