情報管理
Online ISSN : 1347-1597
Print ISSN : 0021-7298
過去からのメディア論
情報倫理学の3つの起源 サイバネティックス・倫理綱領・応用倫理学
大谷 卓史
著者情報
ジャーナル フリー HTML

2015 年 58 巻 2 号 p. 139-144

詳細

情報倫理学には3つの起源がある。1つは,専門職倫理としての情報倫理学の起源。次に,応用倫理学としての情報倫理学の起源。最後に,情報の哲学としての情報倫理学の起源である。これら独立の起源から発した知的潮流が1つになって,現在の情報倫理学を形成した。その結果,現在の情報倫理学はこの3つの側面を備えた裾野の広い学問となっている。

まず,専門職倫理としての情報倫理学の起源は,1960年代に求められる1)

1960年代欧米では,企業や政府における大型計算機利用が拡大する一方で,プライバシー侵害の懸念やコンピュータを悪用する詐欺行為,財産的価値をもつコンピュータプログラムの窃盗など,コンピュータ専門職の犯罪や逸脱行動が懸念され始めた。

スタンフォード研究所(Stanford Research Institute: SRI)のコンピュータ科学者Donn Pakerは,コンピュータ犯罪の事例収集を開始するとともに,米国計算機学会(Association for Computing Machinery: ACM)に働き掛けて,コンピュータ専門職の倫理綱領を作成する2)

すでに情報通信技術(Information and Communications Technology: ICT)に関連する学会である米国電気電子技術者協会(Institute of Electrical and Electronics Engineers: IEEE)は倫理綱領を有していたが,ACMにはまだ倫理綱領やそれに類するものはなかった3)

1966年,ACM理事会は,「情報処理における専門職行動ガイドライン」を採択した。同学会はコンピュータ専門職の逸脱行動や倫理問題に対応することで社会への責任を表明し,社会から信頼を得ることを期待していた2)。同ガイドラインは改訂され,1972年に同学会倫理綱領となった注1)4)

同倫理綱領は,1992年に改訂され,倫理綱領を現実の場面でどのように適用すべきかを示す仮想事例集もつくられた4)。1997年には,ACMとIEEEの合同タスクフォースが,「ソフトウェア工学倫理・専門職実践綱領」を作成・公表した5)。この倫理綱領は,1999年に5.2版が作成され,これが最新版である6)

次に,応用倫理学としての情報倫理学の起源は,1970年代にある。

1970年代半ば,哲学者Walter Manerは,コンピュータの倫理問題を扱う応用倫理学の1分野を“Computer Ethics”(「コンピュータ倫理(学)」)と名付け,1978年には,コンピュータ倫理教育を行う教師向け手引きを発表した。この手引きには,コンピュータ倫理のカリキュラムと教育上のアドバイスがまとめられた。1980年代,このコンピュータ倫理教材が米国に広がり,多くの大学でコンピュータ倫理教育が始まった7)

1985年は,コンピュータ倫理学の歴史上重要な年である。同年コンピュータ倫理学に大きな影響を与える著書と論文が発表された。Deborah G. Johnsonの教科書『コンピュータ倫理学』第1版注2)8)と,James Moorの論文「コンピュータ倫理学とは何か」注3)9)である。

Johnsonは,コンピュータ利用はまったく新しい倫理問題を提起するのではなく,伝統的な倫理問題に「ひねり(twist)」を加えると説明した。したがって,彼女の理論的枠組みでは,従来の倫理問題からのアナロジーがコンピュータ倫理の問題を理解するには役立つ。Johnsonの教科書は版を重ね,2009年には原著第4版が出版された8)

一方,Moorは,前出の論文で,コンピュータ倫理学の基本的な問題設定と枠組みを定義し,この分野を理解するため,頻繁に参照されるようになる。

Moorは,コンピュータ倫理学の役割を,コンピュータ(広く情報通信技術(ICT)でもよい)が生み出した「指針の空白(policy vacuums)」を埋めることと定義した。ICTによって人間のできることの範囲が広がると,私たちはどう振る舞えばよいかわからないことがある。行動指針がまったく存在しなかったり,従来の行動指針が役に立たなかったりするからである。このような状態が,「指針の空白」状態である9)

この指針の空白状態には,概念の泥沼(conceptual muddle)を伴うことが多い。コンピュータが行為に介在することで行為の性質や意味が変わり,概念の混乱が生じる9)。歴史的にみれば,コンピュータソフトウェアに著作権の概念が適用できるのか,自分のログイン権限がないコンピュータにログインすることはどのような行為であるのか意見の一致がみられない状態が続いたのが,指針の空白とこれに伴う概念の泥沼の例である。

Moorによる問題設定と概念枠組みは,ICTが私たちのできることを広げ続ける現在も有効と思われる。日本の情報倫理学の開拓者の一人水谷雅彦は,情報倫理学の問題設定と枠組みを定義したMoorの論文が登場したこの年を「コンピュータ・エシックス元年」と呼ぶ10)。その後,応用倫理学としての情報倫理学は,専門職倫理を越えて,情報社会の倫理学の位置を占めるようになっている11)12)

最後に,情報の哲学としての情報倫理学。現在,積極的に情報の哲学としての情報倫理学を展開するのは,Luciano Floridiである。彼は,「情報圏(infosphere)」の概念を提唱し,人間と世界とのかかわりを情報の観点からみて,統一的な倫理学をつくることを構想した。Floridiは,人間と世界のかかわりを情報の観点から考察する情報の哲学を展開するとともに,情報圏における当為を考察する学問分野を情報倫理学(information ethics)と呼び,コンピュータ倫理学をこの大きな分野の1分科として位置付けた13)

この潮流の起源は,情報倫理学者Terrell Ward Bynumによれば,サイバネティックスの提唱者Norbert Wienerにまで遡る7)14)15)。Wienerは,『人間機械論』注4)16)17)などの著書で,ICTの人間の諸価値に対する影響を考察し,情報の哲学としての情報倫理学の基礎を築いたとされる7)

早熟の天才だったWienerは,数学・生物学と数学基礎論を学び,18歳で数理論理学で博士号を得た。その後欧米を遊学し,第二次世界大戦中には,高高度を飛行する敵航空機に追随し進路を予測して射撃する高射砲の開発に取り組んだ。この開発の中で,現在値を入力として出力を制御するフィードバック制御に取り組み,生物と機械は通信による制御という点で共通であるというサイバネティックスの基本的なアイデアにたどり着く18)

Wienerは,情報と物質・エネルギーという2つの要素からこの宇宙はできていて,この宇宙は熱力学第二法則が示唆する熱平衡,つまり熱的死に向かっていると考える19)。ところが,生物も機械も熱力学第二法則が示唆するエントロピー増大に局所的かつ一時的に逆らう装置・過程という点で共通していると,Wienerはみる20)。そして,「生物の神経系も機械も過去になした決定に基づいて決定を行う装置という点で根本的に似ている」21)。ところで,Wienerによれば,人間がほかの生物と大きく違うのは,学習と創造の大きな潜在的能力を有している点である。この能力には生理学的基盤がある。環境の根本的変化に適応できる生理的・知的能力を有している点が人間の大きな特徴である22)

このような人間観察に基づけば,人間は本来一種の情報処理有機体である。そして,人間の生の目的はこの情報処理有機体として繁栄すべきことと,Wienerは結論付ける。Bynumは,人間を含むすべての生物を情報処理的な存在と見なし,創造・適応・知覚・学習・思考・推論する存在として繁栄することが人間の目的だとする人間観・幸福観はきわめてアリストテレス的だと主張する7)14)。Bynumによれば,この思想がWienerの情報倫理学の基盤なのである。

このように,Bynumの要約にしたがえば,世界を情報圏として見,情報処理装置としての人間と世界のかかわりから情報倫理学を構想するFloridiの着想とWienerは確かに近いようにみえる。

ところで,Bynumによれば,Wienerの情報倫理学の方法は既存の法や倫理などの「受容された方針クラスタ」を新奇な事例に適用するというものである。(1)情報技術が社会に統合される際に生じるだろう倫理問題を特定し,(2)問題となる事例に適用される原則やアイデアを明晰化し,(3)可能ならば既存の方針をあてはめたうえで,(4)既存の方針・原則で不十分ならば,前出の人間の生の目的に加えて「正義の大原則」に訴えて解決を見いだす――というのが,Wienerの情報倫理学の方法だとされる7)。ここで,「正義の大原則」とは,自由・平等・善意の3つの原則と,それを補完する自由侵害の最小限化原則である注5)23)

Wienerは,これらの基盤と原則,方法論を用いて,『人間機械論』で独自の情報倫理学を展開したとされる。ここで扱われたのは,Bynumの要約によれば,バーチャルコミュニティーの可能性とその課題,オートメーションの進展と人間の労働の意味の喪失と失業の増大24),人間と機械の融合によるサイボーグの可能性とその倫理的課題,人工知能(Artificial Intelligence: AI)・ロボットの倫理問題など,確かに現代に通じる課題を指摘している15)

『人間機械論』では,Wiener自身と情報科学者のClaude Shannonが構想した計算機によるチェスを指す機械に言及し,これらの機械が軍事上の状況を評価し,任意の特定の段階で最善の手を決定する機械を製作する第一歩となりうると指摘する。『ル・モンド』に掲載されたPére Dubarleの記事を引用しながら,国家の統治機構を代替する統治機械(machine á gouberner)へと進化する可能性を検討する。この統治機械は,社会に関するあらゆる情報を入力して,人間世界のゲームを操作することができる。こうした機械が登場しないまでも,大統領選挙で世論予測や操作が可能な事実が当時すでに予感されていた。Wienerは,こうした機械が暴走して人間を支配する危険ではなく,一人の人間または一握りの人間がほかの人類を管理するのにこのような機械を利用したり,このような機械を使って人間の可能性(自由)を無視したりする政治技術による管理を行うことだと,する25)

Dubarleの創造する未来は,夭逝(ようせい)したSF作家伊藤計劃(いとうけいかく)の生活・社会の隅から隅まで人工知能によって管理された未来の管理社会を描いた『ハーモニー』26)を想起させるし注6),シンギュラリティがどのような影響を及ぼすか議論が始まった現在27)28),あらためて興味深いものである。

シンギュラリティ後の世界に関して,Wienerの情報倫理学が示唆するところはあるだろうか。Wienerは上記のような統治機械が登場したとしても,私たちは必ずしもその機械の決定にしたがう必要はないし,機械の決定がわれわれの倫理原則や方針にのっとっているか十分に確認することが必要で,機械に自己の責任を委ねるべきではないと主張する注7)29)

前出のJohnsonらは,最近のエッセーで,戦場で利用されるドローンや自律走行車に加えて,近未来に社会で実用化されるだろう自動運転車の可能性をみて,あらゆる技術は人間と人工物との相互作用プロセスであるという観点から,人工知能を組み込んだ自律的機械であっても,人間がその制御ループの中にいて必ず責任をもつべきだと勧告している30)

このように,人工物が自律性を増すにつれて責任の所在があいまいになり,人間の手を離れて人工物が暴走するという懸念に対して,WienerやJohnsonらは,あくまでも人間が人工物の手綱(たづな)を握るように設計すべきだと主張する。

人間が制御ループから外れた方が高速かつ正確な判断と制御が可能になるし,人工物に対しては,人間では経路を追うことが難しい複雑な現象を制御し,より快適で安全な社会を構築しようという欲望は強い。そして,これらの欲望はむげに否定すべきものではないものの,人間の無力化や制御の難しい人工物を生み出す結果も招いた31)

必ずしもWienerの情報倫理学に与(くみ)するものではないが,倫理原則を考慮に入れた人工物の設計や社会実装の重要性がますます高まっているのは間違いない。

本文の注
注1)  なお,同倫理綱領の採択は1973年とする歴史記述7)や,1974年とする資料もある32)

注2)  原著第3版は邦訳33)が出版されている。

注3)  本論文には,抄訳10)がある。

注4)  本稿では,原著第2版の邦訳17)を参照した。

注5)  Bynumの示すWienerの「正義の大原則」を説明するのに,Bynumの要約における用語や概念を主に用いて,邦訳は補助的に用いたことを付記する。

注6)  Wienerは,同様のフィクションとしてSamuel Batlerのディストピア小説『エレホン』に言及している34)。つまり,ユートピアがディストピアに転化する可能性に関しては,人類が過去から長く感じ表現してきたところではある。

注7)  なお,Wienerは機械だけではなく,役所や大研究所や軍隊や会社を「血と肉でできた機械」と見なし,「一個の法人というような擬制の名をかたる悪魔は,魔法で呼びだされた悪魔と全く同様に恐ろしい」と評している29)。巨大組織は,技術と同様に人間が構築した人工物であるが,この人工物が人間に制御困難な力を発揮する危険性があると見る点で,Lewis Manford35)36)と同様の発想が見られる。ただし,巨大組織の制御を不可能とする点で,Manfordのほうがより悲観的であるように思われる。

参考文献
  • 1)   大谷 卓史. 情報倫理学. 技術士, vol. 26, no. 6, p. 16-19.
  • 2)   Parker,  Donn B. Rules of Ethics in Information Processing. Communications of ACM, vol. 11, no. 3, 1968, p. 198-201.
  • 3)   Pugh,  E. W. Creating the IEEE Code of Ethics. 2009 IEEE Conference on the History of Technical Societies. 2009, p. 1-13.
  • 4)   Anderson,  Ronald E.;  Johnson,  Deborah G.;  Gotterbarn,  Donald;  Perrolle,  Judith. Using the New ACM Code of Ethics in Decision Making. Communications of ACM, vol. 36, no. 2, 1993, p. 98-107.
  • 5)   Gotterbarn,  Don;  Miller,  Keith;  Rogerson,  Simon. Software Engineering Code of Ethics. Communications of ACM. vol. 40, no. 11, 1997, p. 110-118.
  • 6)   Gotterbarn,  Don;  Miller,  Keith;  Rogerson,  Simon. Computer Society and ACM Approve Software Engineering Code of Ethics. IEEE Computer, vol. 32, no. 10, 1999, p. 84-88.
  • 7)   Bynum,  Terrell Ward. Milestones in the History of Information and Computer Ethics. Himma, Kenneth Einar and Tavani, Herman T. The Handbook of Information and Computer Ethic. Wiley, 2008, p. 25-48.
  • 8)   Johnson,  Deborah G. Computer Ethics. Prentice Hall, 1985.
  • 9)   Moor,  James. What is Computer Ethics. Metaphilosophy, vol. 16, no. 4, 1985, p. 266-275.
  • 10)   ムーア,  J. H.  児玉 聡訳. コンピュータ倫理学とは何か. 情報倫理資料集, 情報倫理の構築プロジェクト, 2000.
  • 11)  水 谷 雅彦. “インターネット時代の情報倫理学”. 越智貢, 土屋俊, 水谷雅彦編. 情報倫理学:電子ネットワーク社会のエチカ. ナカニシヤ出版, 2000, p. 3-48.
  • 12)   大谷 卓史. “なぜ情報倫理が必要なのか”. 土屋俊監修. 大谷卓史編著. 改訂新版 情報倫理入門. アイ・ケイコーポレーション, 2014, p. 1-15.
  • 13)   Floridi,  Luciano. The Philosophy of Information, Oxford University Press, 2011.
  • 14)   Bynum,  Terrell Ward. Ethical Challenges to Citizens of 'The Automatic Age': Norbert Wiener on the Information Society. Information, Communication and Ethics in Society, vol. 2, 2004, p. 65-74.
  • 15)   Bynum,  Terrell Ward. Norbert Wiener's Vision: The Impact of "the Automatic Age" on Our Moral Lives. Cavalier, Robert J. ed. The Impact of the Internet on Our Moral Lives. State University of New York Press, 2005, p. 11-26.
  • 16)   Wiener,  Norbert. The Human Use of Human Beings. Houghton Mifflin, 1950.
  • 17)   ウィーナー,  ノーバート著.  鎮目 恭夫;  池原 止戈夫訳. 人間機械論. みすず書房, 1979, 原著 The Human Use of Human Beings, 2nd Edition Revised. Doubleday Anchor, 1954.
  • 18)   コンウェイ,  フロー;  シーゲルマン,  ジム著,  松浦 俊輔訳. 情報時代の見えないヒーロー【ノーバート・ウィーナー伝】. 日経BP社, 2006, p. 21-206. 原著Dark Hero of the Information Age: In Search of Norbert Wiener, the Father of Cybernetics. Basic Books, 2005.
  • 19)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 28.
  • 20)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 29-32.
  • 21)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 31.
  • 22)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 51-74.
  • 23)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 109-116.
  • 24)   カー,  ニコラス G. 著;  篠儀 直子訳. オートメーション・バカ:先端技術がわたしたちにしていること. 青土社, 2015, p. 56-59. 原著 The Glass Cage: Automation and Us. W. W. Norton & Co. 2014.
  • 25)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 186-193.
  • 26)   伊藤 計劃. ハーモニー. 早川書房, 2010.
  • 27)   服部 宏充,  江間 有沙ほか. 特集:人工知能技術が浸透する社会を考える. 人工知能, vol. 29, no. 5, 2014, p. 480-532.
  • 28)   塚本 昌彦ほか. 特集:人類とICTの未来:シンギュラリティまで30年?. 情報処理, vol. 56, no. 1, 2015, p. 8-48.
  • 29)   ウィーナー,  ノーバート著.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 197-198.
  • 30)   Johnson,  Deborah G.;  Noorman,  Merel. Recommendations for Future Development of Artificial Agents. IEEE Technology and Society Magazine, vol. 33, no. 4, 2015, p. 22-28.
  • 31)   カー,  ニコラス G. 著;  篠儀 直子訳. オートメーション・バカ:先端技術がわたしたちにしていること. 青土社, 2015, p. 198-226.
  • 32)  AAAS Symposium. Perspectives on the Professions. vol. 1, no. 1, 1981. http://ethics.iit.edu/perspective/v1n1%20perspective.pdf, (accessed 2015-03-02).
  • 33)   Johnson  Deborah G. 著.  水谷 雅彦;  江口 聡監訳. コンピュータ倫理学. オーム社, 2002.
  • 34)   Wiener,  Norbert.  鎮目 恭夫,  池原 止戈夫訳. 人間機械論. みすず書房, 1979, p. 195.
  • 35)   マンフォード,  L. 著.  樋口 清之訳. 機械の神話:技術と人類の発達. 河出書房新社, 1971. 原著 Myth of the Machine: Technics and Human Development. Harcourt, 1967.
  • 36)   マンフォード,  L. 著.  生田 勉,  木原 武一訳. 権力のペンタゴン:機械の神話・第二部. 河出書房新社, 1973. 原著 Pentagon of Power: The Myth of the Machine. Harcourt, 1970.
 
© 2015 Japan Science and Technology Agency
feedback
Top