サービソロジー
Online ISSN : 2423-916X
Print ISSN : 2188-5362
特集:「サービス × テクノロジー」による革新とその社会的影響
情報技術と社会を再構成する視点
江間 有沙
著者情報
ジャーナル オープンアクセス HTML

2017 年 4 巻 1 号 p. 4-9

詳細

1. はじめに

技術の在り方を論じる1つの方法に技術決定論的(technological determinism)な語り口がある.技術決定論には,「技術が社会と独立に発展する」という立場と,「技術が社会を変化・形成する」というより強い立場の2種類がある.この考え方は「情報化社会」の論じられ方にも用いられており,1960年代後半から「情報技術が社会を変える」と語られ続けている(佐藤 1996).

「テクノロジーのシステムは文化の進む方向を少しずつ確実に曲げて」いき,その流れは「不可避」だと論じる技術決定論的な語り口は現在も健在である(ケリー 2016).分散型・協働型・水平展開型という性質をもった情報技術は,生産性を向上させる.しかし,一方で価格を下げ,資本主義の首を絞める.そのため20世紀の大規模な垂直統合型の企業が提供してきた大量生産型のサービスから,21世紀は協働型コモンズ上で水平統合されたネットワークを通した経済へと移行し,ただ同然の財とサービスの生産と流通が可能になるとビジョンを描く人もいる(リフキン 2016).情報へのアクセス,シェアリング,フィルタリング,トラッキングや人のエンパワメントなどの流れは確実に増していき,サービス学が掲げる「既存サービスの生産性向上」「新サービス創出」「価値共創の促進」もこのビジョンとの親和性は高い.

しかし,この情報技術の「不可避」と見られる流れも文化的,政策的な文脈との相互作用の結果として積極的に構築されてきたものであると本稿では指摘したい.このような視点は技術開発や経済的誘因の役割を軽視しているとみなされるかもしれないが(エドワーズ 2003),本特集においての筆者の役割は,工学系研究者ではない視点を提供することであり,ご理解いただきたい.また,このような視点をとる筆者を含め多くの科学技術に関する人文・社会科学系の研究者は,情報技術に否定的なわけではない.ただ私たちは「時期を見ながら,ためしに,そして疑いの目をもって,変化を受け入れるべきだと主張している」のである(テナー 1999).

2. 技術 × コミュニティ × 設計思想

現代の情報技術を議論する前に少し時計の針を巻き戻してみたい.1960年代のアメリカにおいて,コンピューターは脱人間化する中央集権的なシステムであり,冷戦という当時の政治的ビジョンに合致する技術として開発されていた(エドワーズ 2003).またコンピューターそのものは,様々な知を集結するために大学や産業などの壁を越えた軍産学の複合体によって開発され,新しい学際的な協働スタイルを構築した(Turner 2008).

それが1990年代になるとパーソナライズドコンピューターのような技術的発展もあったが,情報技術を取り巻く言説はカウンターカルチャーのイデオロギーを受けて,中央集権的なものから一転して個人のエンパワメント,協調的なコミュニティをもたらすものへと大転換した(Turner 2008).前述のケリーやリフキンはこの思想をより具体的な技術と現代的なビジョンに落とし込んでいる.技術だけではなく,システム思考といった国防政策のため開発された考え方自体も貧困対策や経済政策などの社会政策に転用されるようになっていった(Light 2005).

現在の情報技術を取り巻くコミュニティや思想は,監視や中央集権的なシステムへの抵抗運動としての側面を持つ.しかし,それは対立あるいは代替というよりは,表裏として存在する.例えば大企業の中央集権的なシステムに対抗し,「フリー」「シェア」などの価値を新興のIT企業は提供してきた.彼らは個人のエンパワメントや協調的なコミュニティを推進する一方で,いまや彼ら自身が批判してきた大企業以上にデータを中央集権的に集約し,権力を持つまでになっている.

このように情報技術の課題を考えるうえで,技術を取り巻くコミュニティや思想から分離して考えることはできない.本稿ではまず技術とそれを取り巻くコミュニティ,そして設計思想についてそれぞれ整理する.

3. 技術とコミュニティ

現在,人工知能やロボットの社会的影響に関する報告書等が多く発表されている.社会的影響の分類・整理は,(1)移動・医療・教育などの分野別,(2) 倫理・法律・経済・社会や開発原則などの論点別,(3)技術の発展段階別など様々である*1.本稿では(4)アクター別に整理する.ただしプロシューマ化が進んでいる現在,アクターの定義も容易ではない.総務省の「AIネットワーク社会推進会議」の開発原則における基本概念の定義においても,「開発者」および「利用者」は,「関係が生ずる場面ごとに個別に評価される相対的な概念」と説明されている.また,欧州議会の報告においても「設計者」と「ユーザー」のライセンスがそれぞれ規定されている*2.このような分類を踏まえ,本稿では便宜上,大きく4つにアクターを分類する.

  • (1)   開発者:アルゴリズム開発・設計する研究者
  • (2)   プロバイダ:特定分野の知識を持ち,開発された技術を実装してサービスを提供するメーカーや専門家
  • (3)   ユーザー:開発された技術やサービスを使う人
  • (4)   関係者:上記3つ以外の人

まずは,これらアクターの垣根が曖昧化している背景を見てみよう.

3.1 垣根の曖昧化を促進する政策的背景

研究開発の上流から運用・利用の「出口」までつなげてフィードバックを促進することが,今日の人工知能,ドローン,VR,ファブリケーションでは推進されている.この流れ自体がユーザーのエンパワメントという文化的な思想と親和性が高いものでもあるが,同時に政策的な意図もある.

1980年代初頭のアメリカでは,イノベーションを線形モデルから連鎖モデルへ転換するべしという考え方があった.また,バイ・ドール法の成立もあり産学連携は加速した.インテルがマイクロプロセッサ開発にあたって,基礎研究から製品開発までを一企業で処理するというリニアモデルを捨てたのは有名な話である(岡本他 2009).日本でも1990年代以降,科学技術基本政策の制定もあり,産学連携の制度改革や促進政策が行われた.ギボンズらが提唱する「課題解決型の知の創造」(ギボンズ 1997)というモード2の科学技術を重視する傾向は2016年から始まった第5期科学技術基本計画の中においても顕著である.

日本では国が占める科学技術投資額はまだ大きいが,世界では国家の政策や同じ分野の研究者のピアレビューではなく,巨額の資金を持つ個人や企業の関心によって方向性が決まるようにもなってきている(カプラン 2016).そのため,科学技術の開発から流通までを語るうえで,IT巨大企業の存在が欠かせなくなっている.

このように産学官民の協働・連携を推進していくこと自体が現代科学技術政策の命題でもある.連携が進み,アクター間の垣根が曖昧化することは,既存の産業構造や社会構造の改革を促す.そこから社会的な問題も生じる.以下,「開発者」と「プロバイダ」,「プロバイダ」と「ユーザー」,そして「ユーザー」と「関係者」というアクター間の垣根が曖昧化することで生じる構造的な課題を整理する.

3.2 開発者とプロバイダの垣根

現在,技術の開発段階から社会的影響について考える必要性が指摘されており,人工知能やロボットに関する開発原則の提言書が数多く発表されている*3.この場合の「開発」は「プロバイダ」レベルより上流になっていると考えるのが妥当だろう.例えば学術団体IEEEが2016年12月に出した「倫理設計バージョン1」では,機械学習の研究者が「透明性を確保するために,アルゴリズムの効率性を下げる」ことを可能性の1つとして提案している.そのような開発原則があることによって,研究者の自由な研究開発が妨げられるのではないかとの懸念もあり議論が行われている.

また一方で,研究開発段階における軍の研究費が論点となる.米軍等はロボット兵士を作るという応用研究だけではなく,野心的な研究や軍事に役立つかどうかもわからない基礎研究に対しても投資を行っている.軍による資金提供が,軍事利用目的の研究と見なされるかどうかは,日本でも1950年代から議論されている(杉山 2017).防衛装備庁の予算が増大している現在,研究者個人の「倫理」の問題だけではなく,「安全保障」予算が増大しているということの政策的,産業構造的な枠組みを考える必要がある.

戦後,物理学者,生命科学者は研究開発原則の策定や軍事研究とのかかわりなどの政治的,文化的な論点と向かい合ってきた.現在,情報科学も同じ議論に向き合わざるを得なくなってきている.開発者自身が「軍事機関からの金を受け取らない」という戦略をとり,「兵器を作り出さない」とだけ言っていられなくなってきている.開発者自身を巻き込んで「利用につながる箇所にも目を配る」(杉山 2017),つまりプロバイダ,ユーザーレベルでの使い方を見据えた仕組みづくりが必要となる.

本特集でもドローンのデュアルユース懸念について,技術認定制度やガイドライン,管理体制の強化が指摘されている.「販売者側がドローンの動力やモーターを停止されられるような仕組み」自体も開発段階での埋め込みが必要であり,必要な時にロボットの機能を停止する「キルスイッチ」や,人工知能の「非常停止ボタン」の開発も進められている.プライバシーに関しても同様に,設計の段階からプライバシー保護を埋め込む「プライバシー・バイ・デザイン」という考えが浸透し,そのための技術開発が行われている.

3.3 プロバイダとユーザーの垣根

サービス学会ではサービスとは構成的な営みであり,プロバイダ(提供者)と受け手(ユーザー)の相互作用により「価値が共創」されると定義されている(中島 2014).本特集のいずれの技術においても医療・看護や農業などそれぞれの分野の専門家,あるいはユーザーとして課題を感じている方自らが共同研究者としてかかわり,新しいサービスやコミュニティを形成している.

従来は企画,設計,開発,製造,販売をプロバイダが行い,ユーザーは販売された製品を利用するだけだった.しかし現在,ユーザーのニーズが企画や設計に方向性を与えている.設計・製造・使用の垣根が曖昧になることで製造物責任や「表現の自由」や「知的財産権」が喫緊の課題となるのは本特集で田中氏が論じられている通りである.人工知能においてもユーザーによって学習が行われた技術の製造物責任が議論される.

しかし,問題や課題を持っている人たち自らが主体的にかかわることは,社会を変えていく可能性を持っている.特にファブリケーションにおいては「モノ」だけではなく「コミュニティ」を作り,参加することが掲げられている.そこには中央集権から分権へ,水平的・協働へ,そして人々のエンパワメントへとつながる思想が存在する.「ファブラボ憲章」*4には,ファボラボの利用者は「安全:人や機械を傷つけないこと」「作業:掃除やメンテナンス,ラボの改善など,運営に協力すること」,「知識:文書化と使い方の説明に貢献すること」が掲げられており,一人一人が責任を自覚してコミュニティの価値を共創する.また,イベントの参加者が次には運営者にまわるといった好循環が見られているという.

このようにコミュニティ内の価値が共有され,新たなサービスや試みが創造されていく一方で,これらの価値を共有しない人たちについて考えてみたい.技術の価格が手ごろになり,学会やコミュニティに参加せずとも誰でも比較的簡単に自分のニーズに合わせたモノが作れるようになっている.それは,意図する/せざるにかかわらず,それぞれの価値に合わせたモノやコミュニティを作ることができるということである.分散型・協働型・水平展開型の協働型コモンズにおいては「参加」がキーワードだが,それは逆に「参加」しない人/できない人をどのように巻き込んでいくかという課題を持つ.多様な価値を是とする許容範囲を超えたもの,例えば武器等に使用されるものを作る個人やコミュニティに対しては,コミュニティではなく法律や政策など社会基盤的な整備との連携が必要となってくる.そこにおいても,開発原則の議論と同様,自由な研究開発と規制の間の駆け引きが生じる.

3.4 ユーザーと関係者の垣根

本稿で扱う「関係者」とはこの場合,(1)技術やサービスを利用する「ユーザー」ではないが,「ユーザー」の周辺にいたためにその影響を受ける人と,(2)技術に全くかかわらない人に大別される.前者の(1)ユーザーの周辺にいたために影響を受ける人は,例えば自動運転車やドローンにおける通行人,医療用人工知能で診断される患者などである.通行人や患者自身は技術を用いないが,技術に何か不具合が起きて事故や事件が生じた時に被害者となりうる.事故や事件に備えて保険サービスや技術リテラシーを「ユーザー」側が利用し高めるのは必然となるが,それを「関係者」まで広げられるかという問題がある.

例えば人間同士のように会話やアイコンタクトができない自動運転車やドローンに相対した時,機械がどのような挙動をするか知らないと通行人は咄嗟の対応ができないだろう.リテラシーを強要するのではなく,技術を使用していることを関係者にもインターフェースで示す,ユーザー以外の人にも情報がアクセスできる状態にしておく,などの対応が必要とされる.

また,(2)技術に全くかかわらない人と「ユーザー」の間にデバイドが生じないかも検討する必要がある.例えばインターネット利用の分析では,非ユーザー(non-users)の技術へのかかわり方を4分類している(Wyatt 2003).

  • (1)   使いたくない人たち(Want nots)
  •    (a)  抵抗する人たち(Resisters):技術を使いたくないから一度も使ったことがない人たち
  •    (b)  拒否する人たち(Rejecters):面白くない,経済的に見合わない,代替物があるなどの理由で技術を自発的に使うのをやめた人たち

  • (2)   使えない人たち(Have nots)
  •    (c)  排除された人たち(Excluded):社会的あるいは技術的に使うことができないため,技術を使ったことがない人たち
  •    (d)  追放された人たち(Expelled):経済的理由や社会的排除によって強制的に技術が使えなくなった人たち

非ユーザーであることを意図的に選んでいるのか(Want nots),それとも構造的に選ばざるを得なくなってしまっているのか(Have nots)は区別する必要がある.そのうえで「使いたくない人たち(Want nots)」の価値を尊重し,使わないという選択によって不公正や不都合が起きないよう配慮が必要になる.一方で,「使えない人たち(Have nots)」と「使える人たち(Have)」の間での格差が出ないような政策や支援が必要となる.

また従来このような「関係者」は「ユーザー」になることはあっても「プロバイダ」になる可能性は低かった.しかし,情報技術が安価になり容易にアクセスできるようになったことで,あるいはIT企業がそれまで無関心であった特定分野に躍り出ることによって,新しいサービスを生み出すことが起こりうる.その場合,既存の価値や社会構造・産業構造や特定の「プロバイダ」や「ユーザー」の既得権益を破壊する可能性がある.昨今の「雇用を奪う」などの言説は,このようにして各アクターの垣根が曖昧化しているために語られることもある.

4. 技術の設計思想

本章では情報技術の設計思想を取り上げる.設計とは道徳を物質化することであり,設計者というのは実践的な倫理学者でもある(フェルベーク 2015).情報技術は最適化や効率化問題を解くのが人間より得意である.そのため,技術設計の根本思想が「全体最適のためには,ある特定の層の犠牲や負荷の分散,局所的な不利益もやむなし」となる場合がある.具体的なサービス例としては,渋滞緩和や物流・金融の問題を解くにあたって,気付かぬうちに一部の人が損をするように操作・誘導される可能性がある.あるいは運転中,直進すると壁にぶつかって自分が危ないが,左右どちらかに方向転換すると通行人をひいてしまう場合,自動運転車はどのような選択をすればよいか,あらかじめプログラミングすることができるのかという問題がある.これに対し,人数が少ないほうにハンドルを切るという功利主義的な考えを設計するのかといった問いかけもある.またVRのように感覚刺激に働きかける技術は,人々を「楽しく」「気持ちよく」させるが,見方によっては感情や行動を操作としていると感じる人もいるだろう.一方で,同じ技術を使って,本特集にもあるように,他者の経験や知識などを体験させて多様な価値に触れる装置として使うことも可能である.

また,機械は場合によっては人間よりも短時間で答えを導き出せるが,人間と機械は必ずしも同じ処理スピードで物事を考えない.例えば筆者は弁護士や裁判官の方とお話させていただく時に,思考実験として「AI裁判官」の可能性を提示することがある*5.現在,米国の裁判では,膨大な電子情報の中から人工知能が必要な情報を仕分け,その情報が証拠として用いられている.それでは人工知能そのものが裁判官となって判決を下せるかという話をすると「そもそも裁判とは何か」,「民主主義とは何か」と根本に立ち返った議論になる.与えるデータが適切であれば,「AI裁判官」は人間が短期間で読むことが難しい膨大な判例の中から適切な判断を下せるかもしれない.しかし1秒で出た判決に納得するような案件は,そもそも裁判所には来ない.裁判とは「納得」をするための場である.そして,その判決に納得できなかった場合,あるいは冤罪があった場合には手続きに従って再審ができるヒューマンエラーへの対応も組み込んでいるシステムでもある.

このように,人間が「納得」するためには時間がかかることもある.「AI裁判官」はともかく,医療診断や人生選択なども与えるデータの質が担保されていれば,情報技術のほうが合理的な提案や判断を出してくれる可能性がある.しかし,「事実」をどう伝えるか,人間が「納得」するために必要な時空間という要素をどのようにインターフェースに組み込んでいくかは技術だけで解決できる問題ではない.場合によっては,あえて技術を介在させないサービスデザインを設計することが求められるかもしれない.

一方で,人間のエラーや非合理性にも対応した冗長なシステムよりは,機械的で合理的なシステムを好む人もいるかもしれない.例えば,裁判も「納得」する場ではなくゲームの審判のように1秒で白黒つける場であってほしいと多くの人が望むようになれば人工知能の出番はでてくるかもしれない.ただし,それを「裁判」と呼べるかは議論の余地がある.そのためには「裁判」という仕組みを支えている原理,理念や役割について改めて議論する必要がある.そのうえで,技術のサポートを取り入れるところは取り入れ,人間がやるべき仕事,譲れないことを振り分けるための対話が必要になる.そのような理念や仕組みの再考と再構成なしに,技術だけを既存の冗長なシステムに埋め込むと,もともとのシステムの理念だけではなく技術の利点をも殺すことになる.例えば,オーラルヒストリー調査において中島氏はこう語った*6

役に立つとはどういうことかっていうのをちゃんと考えればいいんだと思うんです.それが今の時代,例えば1900年の役に立つっていうことと,2000年の役に立つことっていうのは変わっているはずなんだけど,それを昔のを引きずったまま役に立つシステムをつくろうと思うと変になるということだと僕は思う.そこに,じゃあ今の役に立つとはどういうことかという時にデザインが入ってくる.よく使っている,頭にきている例はe-Taxなんですけど.あれは,紙しかない時代の仕組みでしょう,確定申告っていうのは.今のe-Taxってその確定申告の仕組みそのままを電子化している.電子化するなら別のやり方があるでしょうっていう頭がきれいに飛んでいる.そこにデザインがない.

5. サービスを再構成する視点

最先端技術と社会の相互作用を議論する時の問いの立て方を2つ提案したい.それぞれ(A)調整型アプローチと(B)再構成型アプローチと名付ける(江間 2017).(A)調整型アプローチでは「技術を普及させるにはどのような課題があるか」を問いに掲げる.最先端技術普及の障害は,法の未整備や技術的な未熟さ,環境への不適合性,既得権益の抵抗,人々の価値観や順応性とのずれなど様々である.このような抵抗を軽減し,技術を普及させるためには倫理的・法的・社会的影響(Ethical, Legal and Social Implications: ELSI)を考慮し,ステイクホルダー間の調整が必要であると論じられる.このアプローチの特徴は,最先端技術を普及させるという命題ありきで議論が開始されていることである.

一方,(B)再構成型アプローチは最先端技術が議論の端緒であったとしても,「その技術が社会問題の解決に必ず必要なのか」,「そもそもの技術導入の目的は何なのか」など,そもそも論を展開する.例えば,技術設計思想の持つ効率性や最適化にサービスデザインそのものが引きずられていないかなどを考える必要が出てくるだろう.そのため場合によっては最先端技術を利用しない解決法や既存技術で代替可能なモデルなどの提案へとつながるかもしれない.「開発者」を技術開発の上流から巻き込んで最先端技術の可能性と課題について考える(A)調整型アプローチの視点も大事であるが,情報技術が導入されている現場へフィールド調査に赴くと,現実的に「プロバイダ」や「ユーザー」が行っているのは(B)再構成型アプローチであることが多い.場合によっては枯れた技術でもそのパッケージの仕方によって新しいサ-ビスとして浸透しているものもある.

(A)調整型アプローチのように最先端技術ありきで考えるのではなく,そもそも人と機械と環境の相互作用を(B)再構成をする,適度な粒度でそもそもの問いを作り出し、デザインすることがサービスを考える上では重要である.

6. サービス学への期待

本稿の冒頭で,現在の情報技術の背景にある中央集権的な視点と協調的・水平分業的な視点を紹介し,それらが表裏であることを示した.また,産学官民連携を推し進める流れも文化的・政策的な流れと情報技術の相互作用の産物である.サービス「学」である以上,その流れに自覚的になり,それを歴史的,批判的,再帰的に検証していくことが必要になるだろう.

また,「価値共創」を推し進める協働型コモンズといった1つの価値を追求するあまり,その価値になじめない人を排除するものになってはいけない.価値が多様化しているからこそ,ニッチな価値にも対応し,新たな価値を作り出すこと,あるいはその価値を補完するようなサービスをそもそも論的な立場にたって考えることも必要になってくるだろう.例えば情報技術が得意な最適化・効率化以外の価値をどのように技術設計に落とし込むことができるか考えることも必要になってくる.

技術は特定の方向へ「不可避」的に進むのではなく,社会との相互作用によっては,様々な設計や開発が可能であるという複数安定性multistabilityを持つ(フェルベーク 2015).サービス「工学」ではなく,サービス「学」としては,「技術がどのように社会やサービスを変えるか」という受け身の姿勢ではなく,サービスが提供する価値とは何か,そのために最先端技術は使えるのか,使えないのかといったそもそも論的な視点を持つことによって,新たな「サービス」概念を生み出すような研究を期待したい.

著者紹介

  • 江間 有沙

東京大学総合文化研究科・教養学部附属教養教育高度化機構特任講師,博士(学術).人工知能と社会の関係を考えるAIR (Acceptable Intelligence with Responsibility: http://sig-air.org/)研究会を有志とともに2014年より開始.

*1  内閣府の人工知能と人間社会に関する懇談会(http://www8.cao.go.jp/cstp/tyousakai/ai/)や,スタンフォード大学のOne Hundred Year Study on Artificial Intelligence 2016 Report (https://ai100.stanford.edu/2016-report)などは分野別・論点別等に論じている.総務省の AIネットワーク化検討会議の報告書2016においては,AIネットワーク化の進展段階をAIが単独で機能する段階から人間とAIネットワークシステムが共存するまで4段階に分類している(http://www.soumu.go.jp/main_content/000425289.pdf).

*2  総務省のAIネットワーク化推進会議,「AI開発ガイドライン」(仮称)の策定に向けた国際的議論の用に供する素案の作成に関する論点整理(http://www.soumu.go.jp/main_content/000456240.pdf)や学術団体IEEEの”Ethically Aligned Design, Version 1”(http://standards.ieee.org/develop/indconn/ec/autonomous_systems.html).

*3  2016年後半期だけでも,前述の総務省が「AIネットワーク化の影響とリスク」(6月),スタンフォード大学のOne Hundred Year Study on Artificial Intelligence 2016 Report(9月),イギリス下院科学技術委員がRobotics and Artificial Intelligence: Fifth Report of Session 2016-2017(10月),アメリカホワイトハウスのPreparing for the Future of Artificial Intelligence(10月),学術団体IEEEがEthically Aligned Design, Version 1(12月),非営利団体のFuture of Life InstituteがAsilomar AI Principles(1月),欧州議会法務委員会がReport with Recommendations to the Commission on Civil Law Rules on Robotics(1月)などを公開している.日本人工知能学会も2016年に「倫理綱領」(のちに「倫理指針」)を公開した.

*4  ファブラボ憲章, http://fablabjapan.org/fabcharter/

*5  Top Researchers,科学・技術と社会の相互作用から,問いを作り出す〜江間有沙・東京大学特任講師, http://top-researchers.com/?p=362

*6  AIR,日本における人工知能研究をめぐるオーラルヒストリー Vol. 3(中島秀之),http://sig-air.org/wp/wp-content/uploads/2016/07/Oralhistory_v4_160629_nakashima.pdf,pp.28-29.

参考文献
  •   Light, S. (2005). From Warfare to Welfare: Defense Intellectuals and Urban Problems in Cold War America. Johns Hopkins University Press.
  •   Turner, F. (2008). From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism. University of Chicago Press.
  •   Wyatt, S. (2003). Non-Users Also Matter: The Construction of Users and Non-Users of the Internet. How users matter: The Co-Construction of Users and Technology, 67-79. MIT Press.
  •   エドワーズ, P. (2003). クローズド・ワールド.日本評論社.
  •   江間有沙 (2017). 人工知能と向き合う方法論:介護ロボット,自動運転,接客サービスを事例に,生活協同組合研究誌.492, 38-44.
  •   岡本暁子(編) (2009). 科学技術は社会とどう共生するか. 東京電機大学出版局.
  •   カプラン, J. (2016). 人間さまお断り:人工知能時代の経済と労働の手引き. 三省堂.
  •   ギボンズ, M. (1997). 現代社会と知の創造―モード論とは何か.丸善.
  •   ケリー, K. (2016). 〈インターネット〉の次に来るもの:未来を決める12の法則. NHK出版.
  •   佐藤俊樹 (1996).ノイマンの夢・近代の欲望―情報化社会を解体する.講談社.
  •   杉山滋郎 (2017). 「軍事研究」の戦後史. ミネルヴァ書房.
  •   テナー, E. (1999). 逆襲するテクノロジー:なぜ科学技術は人間を裏切るのか. 早川書房.
  •   中島秀之 (2014).サービスとデザイン.サービソロジー1(1), 14-15.
  •   フェルベーク, P. (2015). 技術の道徳化:事物の道徳性を理解し設計する.法政大学出版局.
  •   リフキン, J. (2016). 限界費用ゼロ社会:<モノのインターネット>と共有型経済の台頭.NHK出版.
 
© 2020 Society for Serviceology
feedback
Top