2015 年 58 巻 2 号 p. 139-144
情報倫理学には3つの起源がある。1つは,専門職倫理としての情報倫理学の起源。次に,応用倫理学としての情報倫理学の起源。最後に,情報の哲学としての情報倫理学の起源である。これら独立の起源から発した知的潮流が1つになって,現在の情報倫理学を形成した。その結果,現在の情報倫理学はこの3つの側面を備えた裾野の広い学問となっている。
まず,専門職倫理としての情報倫理学の起源は,1960年代に求められる1)。
1960年代欧米では,企業や政府における大型計算機利用が拡大する一方で,プライバシー侵害の懸念やコンピュータを悪用する詐欺行為,財産的価値をもつコンピュータプログラムの窃盗など,コンピュータ専門職の犯罪や逸脱行動が懸念され始めた。
スタンフォード研究所(Stanford Research Institute: SRI)のコンピュータ科学者Donn Pakerは,コンピュータ犯罪の事例収集を開始するとともに,米国計算機学会(Association for Computing Machinery: ACM)に働き掛けて,コンピュータ専門職の倫理綱領を作成する2)。
すでに情報通信技術(Information and Communications Technology: ICT)に関連する学会である米国電気電子技術者協会(Institute of Electrical and Electronics Engineers: IEEE)は倫理綱領を有していたが,ACMにはまだ倫理綱領やそれに類するものはなかった3)。
1966年,ACM理事会は,「情報処理における専門職行動ガイドライン」を採択した。同学会はコンピュータ専門職の逸脱行動や倫理問題に対応することで社会への責任を表明し,社会から信頼を得ることを期待していた2)。同ガイドラインは改訂され,1972年に同学会倫理綱領となった注1),4)。
同倫理綱領は,1992年に改訂され,倫理綱領を現実の場面でどのように適用すべきかを示す仮想事例集もつくられた4)。1997年には,ACMとIEEEの合同タスクフォースが,「ソフトウェア工学倫理・専門職実践綱領」を作成・公表した5)。この倫理綱領は,1999年に5.2版が作成され,これが最新版である6)。
次に,応用倫理学としての情報倫理学の起源は,1970年代にある。
1970年代半ば,哲学者Walter Manerは,コンピュータの倫理問題を扱う応用倫理学の1分野を“Computer Ethics”(「コンピュータ倫理(学)」)と名付け,1978年には,コンピュータ倫理教育を行う教師向け手引きを発表した。この手引きには,コンピュータ倫理のカリキュラムと教育上のアドバイスがまとめられた。1980年代,このコンピュータ倫理教材が米国に広がり,多くの大学でコンピュータ倫理教育が始まった7)。
1985年は,コンピュータ倫理学の歴史上重要な年である。同年コンピュータ倫理学に大きな影響を与える著書と論文が発表された。Deborah G. Johnsonの教科書『コンピュータ倫理学』第1版注2),8)と,James Moorの論文「コンピュータ倫理学とは何か」注3),9)である。
Johnsonは,コンピュータ利用はまったく新しい倫理問題を提起するのではなく,伝統的な倫理問題に「ひねり(twist)」を加えると説明した。したがって,彼女の理論的枠組みでは,従来の倫理問題からのアナロジーがコンピュータ倫理の問題を理解するには役立つ。Johnsonの教科書は版を重ね,2009年には原著第4版が出版された8)。
一方,Moorは,前出の論文で,コンピュータ倫理学の基本的な問題設定と枠組みを定義し,この分野を理解するため,頻繁に参照されるようになる。
Moorは,コンピュータ倫理学の役割を,コンピュータ(広く情報通信技術(ICT)でもよい)が生み出した「指針の空白(policy vacuums)」を埋めることと定義した。ICTによって人間のできることの範囲が広がると,私たちはどう振る舞えばよいかわからないことがある。行動指針がまったく存在しなかったり,従来の行動指針が役に立たなかったりするからである。このような状態が,「指針の空白」状態である9)。
この指針の空白状態には,概念の泥沼(conceptual muddle)を伴うことが多い。コンピュータが行為に介在することで行為の性質や意味が変わり,概念の混乱が生じる9)。歴史的にみれば,コンピュータソフトウェアに著作権の概念が適用できるのか,自分のログイン権限がないコンピュータにログインすることはどのような行為であるのか意見の一致がみられない状態が続いたのが,指針の空白とこれに伴う概念の泥沼の例である。
Moorによる問題設定と概念枠組みは,ICTが私たちのできることを広げ続ける現在も有効と思われる。日本の情報倫理学の開拓者の一人水谷雅彦は,情報倫理学の問題設定と枠組みを定義したMoorの論文が登場したこの年を「コンピュータ・エシックス元年」と呼ぶ10)。その後,応用倫理学としての情報倫理学は,専門職倫理を越えて,情報社会の倫理学の位置を占めるようになっている11),12)。
最後に,情報の哲学としての情報倫理学。現在,積極的に情報の哲学としての情報倫理学を展開するのは,Luciano Floridiである。彼は,「情報圏(infosphere)」の概念を提唱し,人間と世界とのかかわりを情報の観点からみて,統一的な倫理学をつくることを構想した。Floridiは,人間と世界のかかわりを情報の観点から考察する情報の哲学を展開するとともに,情報圏における当為を考察する学問分野を情報倫理学(information ethics)と呼び,コンピュータ倫理学をこの大きな分野の1分科として位置付けた13)。
この潮流の起源は,情報倫理学者Terrell Ward Bynumによれば,サイバネティックスの提唱者Norbert Wienerにまで遡る7),14),15)。Wienerは,『人間機械論』注4),16),17)などの著書で,ICTの人間の諸価値に対する影響を考察し,情報の哲学としての情報倫理学の基礎を築いたとされる7)。
早熟の天才だったWienerは,数学・生物学と数学基礎論を学び,18歳で数理論理学で博士号を得た。その後欧米を遊学し,第二次世界大戦中には,高高度を飛行する敵航空機に追随し進路を予測して射撃する高射砲の開発に取り組んだ。この開発の中で,現在値を入力として出力を制御するフィードバック制御に取り組み,生物と機械は通信による制御という点で共通であるというサイバネティックスの基本的なアイデアにたどり着く18)。
Wienerは,情報と物質・エネルギーという2つの要素からこの宇宙はできていて,この宇宙は熱力学第二法則が示唆する熱平衡,つまり熱的死に向かっていると考える19)。ところが,生物も機械も熱力学第二法則が示唆するエントロピー増大に局所的かつ一時的に逆らう装置・過程という点で共通していると,Wienerはみる20)。そして,「生物の神経系も機械も過去になした決定に基づいて決定を行う装置という点で根本的に似ている」21)。ところで,Wienerによれば,人間がほかの生物と大きく違うのは,学習と創造の大きな潜在的能力を有している点である。この能力には生理学的基盤がある。環境の根本的変化に適応できる生理的・知的能力を有している点が人間の大きな特徴である22)。
このような人間観察に基づけば,人間は本来一種の情報処理有機体である。そして,人間の生の目的はこの情報処理有機体として繁栄すべきことと,Wienerは結論付ける。Bynumは,人間を含むすべての生物を情報処理的な存在と見なし,創造・適応・知覚・学習・思考・推論する存在として繁栄することが人間の目的だとする人間観・幸福観はきわめてアリストテレス的だと主張する7),14)。Bynumによれば,この思想がWienerの情報倫理学の基盤なのである。
このように,Bynumの要約にしたがえば,世界を情報圏として見,情報処理装置としての人間と世界のかかわりから情報倫理学を構想するFloridiの着想とWienerは確かに近いようにみえる。
ところで,Bynumによれば,Wienerの情報倫理学の方法は既存の法や倫理などの「受容された方針クラスタ」を新奇な事例に適用するというものである。(1)情報技術が社会に統合される際に生じるだろう倫理問題を特定し,(2)問題となる事例に適用される原則やアイデアを明晰化し,(3)可能ならば既存の方針をあてはめたうえで,(4)既存の方針・原則で不十分ならば,前出の人間の生の目的に加えて「正義の大原則」に訴えて解決を見いだす――というのが,Wienerの情報倫理学の方法だとされる7)。ここで,「正義の大原則」とは,自由・平等・善意の3つの原則と,それを補完する自由侵害の最小限化原則である注5),23)。
Wienerは,これらの基盤と原則,方法論を用いて,『人間機械論』で独自の情報倫理学を展開したとされる。ここで扱われたのは,Bynumの要約によれば,バーチャルコミュニティーの可能性とその課題,オートメーションの進展と人間の労働の意味の喪失と失業の増大24),人間と機械の融合によるサイボーグの可能性とその倫理的課題,人工知能(Artificial Intelligence: AI)・ロボットの倫理問題など,確かに現代に通じる課題を指摘している15)。
『人間機械論』では,Wiener自身と情報科学者のClaude Shannonが構想した計算機によるチェスを指す機械に言及し,これらの機械が軍事上の状況を評価し,任意の特定の段階で最善の手を決定する機械を製作する第一歩となりうると指摘する。『ル・モンド』に掲載されたPére Dubarleの記事を引用しながら,国家の統治機構を代替する統治機械(machine á gouberner)へと進化する可能性を検討する。この統治機械は,社会に関するあらゆる情報を入力して,人間世界のゲームを操作することができる。こうした機械が登場しないまでも,大統領選挙で世論予測や操作が可能な事実が当時すでに予感されていた。Wienerは,こうした機械が暴走して人間を支配する危険ではなく,一人の人間または一握りの人間がほかの人類を管理するのにこのような機械を利用したり,このような機械を使って人間の可能性(自由)を無視したりする政治技術による管理を行うことだと,する25)。
Dubarleの創造する未来は,夭逝(ようせい)したSF作家伊藤計劃(いとうけいかく)の生活・社会の隅から隅まで人工知能によって管理された未来の管理社会を描いた『ハーモニー』26)を想起させるし注6),シンギュラリティがどのような影響を及ぼすか議論が始まった現在27),28),あらためて興味深いものである。
シンギュラリティ後の世界に関して,Wienerの情報倫理学が示唆するところはあるだろうか。Wienerは上記のような統治機械が登場したとしても,私たちは必ずしもその機械の決定にしたがう必要はないし,機械の決定がわれわれの倫理原則や方針にのっとっているか十分に確認することが必要で,機械に自己の責任を委ねるべきではないと主張する注7),29)。
前出のJohnsonらは,最近のエッセーで,戦場で利用されるドローンや自律走行車に加えて,近未来に社会で実用化されるだろう自動運転車の可能性をみて,あらゆる技術は人間と人工物との相互作用プロセスであるという観点から,人工知能を組み込んだ自律的機械であっても,人間がその制御ループの中にいて必ず責任をもつべきだと勧告している30)。
このように,人工物が自律性を増すにつれて責任の所在があいまいになり,人間の手を離れて人工物が暴走するという懸念に対して,WienerやJohnsonらは,あくまでも人間が人工物の手綱(たづな)を握るように設計すべきだと主張する。
人間が制御ループから外れた方が高速かつ正確な判断と制御が可能になるし,人工物に対しては,人間では経路を追うことが難しい複雑な現象を制御し,より快適で安全な社会を構築しようという欲望は強い。そして,これらの欲望はむげに否定すべきものではないものの,人間の無力化や制御の難しい人工物を生み出す結果も招いた31)。
必ずしもWienerの情報倫理学に与(くみ)するものではないが,倫理原則を考慮に入れた人工物の設計や社会実装の重要性がますます高まっているのは間違いない。