情報通信政策研究
Online ISSN : 2432-9177
Print ISSN : 2433-6254
ISSN-L : 2432-9177
寄稿論文
AI脅威論の正体と人とAIとの共生
栗原 聡
著者情報
ジャーナル フリー HTML

2020 年 4 巻 2 号 p. 45-54

詳細
Abstract

 飛躍的な性能向上をもたらしたDeep Learningが牽引する第3次AIブームも落ち着きを見せつつあり、過去2回のように冬の時代に突入することなく、着実な社会浸透が進んでいるように見える。とはいえ、Deep Learningのような機械学習の性能を引き出すには潤沢なデータが必要であり、そのデータ一つ一つに気がつかないようなバイアスが含まれていれば、そのバイアスも学習されることになり、その結果AIが人種差別をするような判断をしてしまうといった問題が発生することになる。これはAIのバイアス問題などと呼ばれるが、これ以外にもAIが高い能力を発揮できるようになったことで、AIに仕事が奪われるのではないかという指摘や、一昨年の年末でのAI美空ひばりに象徴される故人をAIで蘇らせることに関する議論、そして、LAWSとして知られる自律型AI兵器開発禁止に関する話題など、高性能かつ、今後さらにその能力が高まるであろうAIに対する懸念がいろいろ高まっている。本稿では、それら脅威論を整理するとともに、真にAIが人間社会に浸透し、人と共生する関係となるための道筋について考察する。

Translated Abstract

The current 3rd AI boom, mainly driven by deep learning, which has brought dramatic performance improvements, is beginning to settle down. Rather than it appears that this time we will not enter a winter period as in the past two booms but are making steady progress into our society. However, in order to get the best performance out of machine learning such as deep learning, it is necessary to have plenty of data, and if each data contains some bias, these biases will also be learned, resulting in serious problems such as AI making racist decisions. There are other issues such as anxiety that AI will take away our jobs by incredible increasing of AI performance, the heated debate at the end of last year about using AI to bring back the deceased, symbolized by AI Misora Hibari, and the movement for prohibition of the development of autonomous AI weapons, known as LAWS, etc. In this paper, vague threats to AI will be concretely decomposed and clarified, then discussion about how we can construct symbiotic relation with AI will be held.

1.道具としてのAI

1.1.AIという単語が誘発する混乱

人工知能(AI)という言葉自体が現在の混乱を引き起こしているとも言える。人工○○という言葉は人工心肺装置や人工衛星など多数あるが、そのすべてにおいて、○○を人工的に作るために、○○の仕組みや製造法が確立されてなければならないのは当然であろう。しかし、例外がある。それが人工知能である。人工的に作られる知能が人工知能(AI)であるが、では知能とはどのようなもので、どのようにして作るのであろうか? まさにこれを探求するのが人工知能研究であり、現時点において統一した仕様など存在しない。そもそも「知能」は抽象的な言葉であり、多様な想像をかき立ててしまう。過分にSF映画等の影響を強く受けることもあり、AIに対して漠然とした不安的感覚を抱いてしまうことになる。しかし、現在のAIはまだまだ電卓の延長線、すなわち我々が使う道具という位置づけである。よって、現在においてもAI導入による影響がいろいろ出始めているが、これは人がAIという道具を使って人から仕事を奪うのである。AIはコンピュータ上で動作するソフトウェアであり、延々と同じ作業を正確に熟す能力において人の能力を大きく凌駕している。凌駕してくれなければ意味がない。人にとってこれらの作業は苦手であるから電卓やコンピュータを開発したのである。テクノロジーは人の苦手な部分を補いさらなる効率化をもたらすためのものであり、つまりは、AIがすべきタスクはAIにさせるべきなのである。これは自動車などの組み立て作業のロボット化と同じであり、もちろん、過去にはラッダイト運動などが起きたように、急激な変化はいろいろな問題を発生させてしまうことへの対応は必須であることは言うまでもない。

1.2.可読性・制御可能性

可読性・制御可能性の問題も、AI設計ガイドライン策定2などにおいて常に議論されることであるが、著者はいつもこの問題を奇異に感じている。なぜならば、これはAIだからこその問題ではなく、現在でのITシステムにおいてすでに重大な問題だからである。コンピュータのOSを例とすれば、OSのすべてのコードを詳細に理解できているエンジニアはもはやいない。すでに人の認知能力を超えた分量と複雑性を持つに至っているからである。現時点でのITシステムですら可読性・制御可能性において問題を抱えている状態において、さらに複雑化するAIにおいてはさらに困難となることは自明である。この問題についても様々な議論があるが、「目には目を」である。AIによるAIの監視という方法が現実的な解であり、残念ながら人が介入できる余地はどんどん少なくなっていく。

1.3.認知バイアス

冒頭でも触れたAIのバイアス問題については、開発者により意図的に組み込まれたバイアスは論外として、これも特定するのは簡単ではないものの、まだ技術的な対応が可能であろう。厄介なのは、そもそもバイアスのあるデータで学習してしまうことの影響である。このバイアスも2つに分けることができる。

通常、AIが学習する際、教師データという、AIが学習するために、人がデータにラベル付けする行程でバイアスが入り込む可能性がある。世の中に平均的な、バイアスのない人間など存在せず、何かしらの偏りがある。よい意味では個性であり、悪く言えばバイアスである。偏ったラベルが付けられたAIは偏った学習をしてしまうが、これはラベル付けの段階で解決できる可能性がある。厄介なのはデータ自体にバイアスが含まれている場合である。AIが学習するためのデータを集めるのも人が行う。集める際に偏ったデータを集めてしまうこともあるであろうし、そもそもデータ自体においても、それが写真であり、文書であり、人が生み出したものである。生み出す側の人間に偏りがあれば、データに偏りが入り込むのは自明であり、こうなると除去は難しい。つまりはバイアスを持つ我々が生み出すすべてのデータには微々たるものであるがバイアスが含まれる。そのようなデータを膨大に集め、学習することで、まさに蒸留されるかのようにバイアスの濃度が色濃くなりAIの学習に目に見えるような影響を与えるのである。バイアスの責任がAIにあるというのは間違った解釈であり、バイアスは我々にあることを自覚する必要がある。

そもそも、バイアスという尺度は何なのか? 決して恒久的なものではなく、その時代・国・民族におけるモラルや常識に基づく尺度であろう。とするなら、技術的にバイアスを調整することは可能だと言いたくなるが、平均的なものの見方、と言っても人それぞれであり、全員が納得するような、バイアスゼロの学習はそもそも不可能なのかもしれない。

2.次世代の自律型AI

現在の機械学習技術を軸とするAIの次の展開として、著者も次世代型のAIを説明する際、「自律性」という言葉をよく使う。自律と類似する言葉として「自動」がある。自動洗濯機という表現はあるが、自律洗濯機という言い回しは聞いたことがないし、自動運転はあるが自律運転はない。見た目には自動〇〇と自律〇〇の区別は困難であろう。では、自律と自動での大きな違いは何なのか? それはその家電なりシステムが「目的(Goal)」をもち、目的達成のための行動選択をしているかどうか、である。自動〇〇の場合、目的はそれを製造した人の方にあり、その目的を達成するための振る舞いについてのみがその自動〇〇に実装されている。これに対して、自律〇〇は、目的自体もその自律〇〇が持ち、与えられた目的を達成するために、その状況に適合した行動選択もその自律〇〇自体が判断する必要がある。無論、自律性をもつシステムの代表は生物であるが、自律性においてもかなりの幅がある。

昆虫の場合、生きるという目的を達成する(維持し続ける)ために、外界からの入力情報に対して、予めもち合わせている行動系列のうち、どの系列を発動させるのかのルールに従って行動選択をしているだけであろう(ルール自体も生まれながらにもっている)。よって、触覚などのセンサーからの入力情報に対する行動ルールに基づく振る舞いであることから、極めて自動に近い自律性をもつ生物であると見ることができる。これに対して、人の場合であっても目的は「生きること」であることは昆虫と同じである。われわれは普段の日常生活において何か行動する際、生きるために〇〇をする、という意識をいだくようなことはなく、空腹だから食べる行動を発動させ、怒られるのがイヤだから宿題をするのであり、人と会うために移動するのである。しかし、元を正せばすべては生きるためであり、生きるという目的を達成するために、状況に応じて適切と思われる行動を選択し続けているシステムという意味では昆虫も人も同じであろう。違いは、外界からの情報に対して発動する振る舞いの種類が圧倒的に多いことと、外界からの情報に対してどの振る舞いを発動させるのか、の関係も極めて複雑であるところにある。外界に対する反応の仕方が巧妙になればなるほど環境への適応度が高まり生存確率が増す。昆虫は予め生得的な行動ルールに基づく反応しかできないが、われわれは教えられることによる学習や、自ら経験することで学習を通して、蓄えた経験・知識を活用することで、反応の仕方自体を動的に変更するだけでなく、振る舞いのバリエーション自体も動的に増やすことができる。目的達成のため、いろいろな振る舞いを試したり、新たな振る舞いを獲得したりできる能力をもつシステムこそが自律性がある、と呼べるのではないだろうか。この考え方に基づけば、ルンバやAIBO はいかにも意志をもっているように見えるが、自動機械であり、大雑把に見れば昆虫もこれに含まれるものの、学習する動物などは自律性をもつシステムということになる。

この自律性が次世代のAI、すなわち、真に人と共生するAIの実現においては極めて重要なのであるが、これは機械学習とは異なるAI技術である。そして、特に米中に大きく研究開発において遅れをとってしまっている機械学習分野と異なり、自律性や汎用性については現時点では日本が立ち後れているという状況にはないと認識しており、今後のAI研究開発において日本が確固たる立ち位置を確保できる可能性はあると考えている。

もちろん、自律型AIの研究開発は日本だけが注目しているわけではなく、機械学習に対するフェイク問題と同じ関係にて、自律型AI技術に対してはLAWS(致死型自律AI兵器)問題が指摘されるように、自律型AIの研究開発も世界的にアクティブに進められている。文字通り、自律型AIを搭載した兵器が、自らの判断で最後のトリガーを引く兵器の開発である。残念ながら数カ国にて開発が行われており、すでに実用化のレベルに到達した兵器も存在している。国連において、LAWS禁止に向けた取り組みも行われているが、そもそも言語道断である戦争において、さらに言語道断である「機械が人の命を絶つ」ということが現実とならないため、まさに人類の知恵が試されている状況にある[3]。

そして、自律型AIの実現は、人に対して大きな利便性をもたらすと同時に、その開発には困難も伴う。自律的に動作する機械に対する制御可能性は道具型よりも難しくなるであろうし、無論、システムとしてはより複雑なものになる。自ら目的を書き換えるようなことが起きてはならないなど、開発においては様々な課題が山積している。

3.群知能

道具型AIは自律型AIのように勝手に動作することはなく、あらかじめ設定された通りに動作することから安心である、と思われるかもしれないが、実はそうでもないのである。フラッシュクラッシュという現象をご存じであろうか? これは株価や相場が瞬間的に急落する現象のことである。

フラッシュクラッシュが発生する主たる要因としては、人工知能による超高速売買があると考えられている。現在は株の売り買いは、人工知能によっても行われており、その割合は5割を超えていると言われている。株取引において「〇〇の条件が合致すれば□□の株を△△円売る」といったように、どのタイミングでどの株を売り買いするのかを決めるアルゴリズムが組み込まれた人工知能が実行する。アルゴリズム通りに売り買いを行うことから、この人工知能は明らかに道具型である。あくまで手順に従った自動的な株の売り買いを行うプログラムに過ぎない。故に、どんなにアルゴリズムが複雑であってもアルゴリズム通りに動作することから、人工知能が株の売り買いを人に代わって行っても問題ないように思われる。しかし、現実には想定外のことが起きてしまうのである。

アルゴリズム自動取引は超高速で行われるため、結果的に様々なアルゴリズムの株自動取引人工知能が投入されることになる。例として、ほぼすべての人工知能には、短時間での株価の下落がある水準を超えると大量売りする行動規則が埋め込まれているとする。そして、その中のいくつかの人工知能にはそれを設計したエンジニアの考えから、Twitterに「災害」や「テロ」といったネガティブなキーワードが短時間に多数書き込まれることを検知すると、株を大量売りする行動規則が書き込まれていたとする。すると、ある時、人工知能が大量のネガティブな書き込みを検知し、大量売りを実行したとする。するとそれに反応していくつかの人工知能が同時に大量売りを実行する。その結果,株価が一気に下がる。そして、多くの人工知能がそれに反応してほぼ同時に大量売りを実行するという雪崩現象が発生してしまうのである。

このように、一つ一つのAIは制御可能性があり、誤動作しないようしっかり作成されているにもかかわらず、想定外の状況が起きてしまうのが良くも悪くも「群知能」の特性なのである。群知能とは、無数のAIの集合体として高い知能を発揮させるAI技術であり、蟻の群れが最短経路を発見する能力を創発したり、蛍が同期して点滅する行動を創発させることと同様の事象を知能の創発に利用しようとするものである。個々の人工知能の動作はしっかり作り込まれても、それらが群れることで、群れ全体としての挙動として想定外の現象が創発する可能性があるのだ。フラッシュクラッシュはネガティブな創発の典型例である。

群れた場合に発生する現象に対する対処の仕方までを、あらかじめプログラムに書き込むことができれば、フラッシュクラッシュの発生を防ぐことは理論的には可能であろう。しかし、一つ一つの株自動取引人工知能でさえ複雑なアルゴリズムに従って高速に売買を繰り返す上に、そのような様々なアルゴリズムに基づき動作する人工知能が集団となって、株の売り買いに参加する状況においては、もはや群れた時に起こる現象をあらかじめ予測することは極めて難しい。しかも、各人工知能のアルゴリズムは知的財産であるから、どのような段取りで株の売り買いをするかの情報が公開されるわけもない。

このように、フラッシュクラッシュは瞬間的に株価を大きく変動させることから、社会に対する影響は甚大である。これが兵器であった場合を想像して欲しい。すなわち、人がトリガーを引くタイプの自動兵器であれ、制御プログラムが100%の完成度であれば、兵器を運用する上層部としては安心して使用することができる、というわけにはいかないからである。現実の作戦においては複数機が導入されるであろうし、そうなると、複数の人工知能が連携する状況においてフラッシュクラッシュと同様の事態が発生する可能性が出てくるからだ。残念なことに、群知能型の兵器の実戦投入が秒読みの段階のようだ。中国の国有企業である中国電子科技集団が2018年の5月に開催したAI技術発表会で披露されている。119機ものドローンが鳥の群れのように集結したり分散したりしながら飛行し、攻撃目標に到達すると2つの編隊となってそれを取り囲む動画が公開されている。

米国においても自律型致死兵器開発は進められており、すでにドローン編隊をアフガニスタンやイラクで実戦投入させたという報道がある。ただし、編隊飛行といっても前述の中国版のドローンと異なり個々のドローン自体には人工知能は搭載されておらず、中央コンピュータによる遠隔操作とのことなので、人工知能が群れで行動したということではなさそうだ。しかし、個々が遠隔操作だから安心できるわけではない。この方法では中央司令室との遠隔通信が何らかの理由で途絶える可能性もあり、安定した運用の観点で懸念がある。その点では,中国型のように個々のドローンに人工知能が搭載され、ドローン間で連携しつつ、群れで作戦を実行する形態の方が兵器システムとしては優れていると言えよう。ただし、繰り返すが、万が一、群れたことで想定外の事態が発生してしまった場合、株価の急落というレベルでは済まされなくなってしまう。

4.見せ方が誘発する混乱

ここまでは人工知能の道具性や自律性といった仕組みに着目してきたが、もう一つ重要な見方がある。それが見せ方の問題である。一昨年末のNHK紅白歌合戦でAI美空ひばり3が登場し、様々な賛否両論が盛り上がることとなった。これ以外にも夏目漱石アンドロイドが登場し4、著者も関わったAIによる手塚治虫の新作制作プロジェクトなど、故人をAIにて蘇らせる様々なプロジェクトが登場している。AI美空ひばりに対するネガティブな意見を集約すると、私見であるが「不気味の谷」の問題であると考えている。不気味の谷とは、AIやロボット技術を用いて、人のようなCGやアンドロイドを作ると、人に似せるほどに人が不気味に思うようになってしまう、という現象である。そして、本物の人と区別できないレベルに似せてくると谷を越えて不気味さを感じなくなるという。AI美空ひばりの場合、歌声はYAMAHA技術者による完璧な仕上がりであり、歌詞での「語り」の部分が問題であったということはあるかもしれないが、過去の美空ひばりの動画を写しつつ、声だけを流せば問題なかったに違いない。CGが見事に不気味の谷レベルであったのだ。それが証拠に、米国での例であるが、AIでダリを蘇らせたプロジェクトでは、少なくとも著者は違和感を全く感じないのである5。AIダリは最新のDeep Learning技術を駆使して作成されており、谷を越えているのであろう。

このように、人は、中身よりも外見に強く影響を受けてしまう。前出のルンバやAIBOは道具型のAIであるが、その外見と動作から、大方の人にとっては、意識を持ち、能動的に動作する機械に見えてしまう。そして、意識を持つ自律型の機械だと見たとたん、今度は、そのような機械が人に対して危害を加えるかもしれないという考えをかき立ててしまうのである。

5.今後のAI発展

現在のAI技術の今後の展開としては、共生インタラクションが一つのキーワードとなると考えている。データによる学習を前提とするAIシステムでは、動的環境への柔軟な対応が難しいことはこれまで述べた通りである。今後、人の生活圏にどんどん進出し、AIが人との共生関係を構築するには、その場の状況に臨機応変に対応できることが必要不可欠となる。これを可能とするためにAIに求められるのが自律性であるが、加えて、その場の状況に臨機応変に対応するということは、その場でのボトムアップな対応を意味しており、これを可能とする枠組みが創発的手法である。そして、有限とならざるを得ない学習による知識と、その場での臨機応変な対応を可能とする技術を統合することで、高い汎用性を持つAIが実現できると考えている。

現在、JST(科学技術振興機構) においては、CREST「人間と情報環境の共生インタラクション基盤技術の創出と展開6」が、そして、さきがけ「IoTが拓く未来7」が実施中であり、NEDO(新エネルギー・産業技術総合開発機構)においても「人と共に進化する次世代人工知能に関する技術開発事業8」が今年度立ち上がるなど、人との共生や、共生するための実環境からの情報収集という意味でのIoTに関する大型研究プロジェクトへの期待が高まっている。これらの動きも、現在のデータありきのAIから、自ら能動的に動作するAI の実現に向けた展開と見ることができる。では、AIが人と共生するために、人も含めた十分な環境データを取り込むことができるようになったとして、どのようにインタラクションすればよいのであろうか? その鍵が後述するアンビエントコンピューティングにある。

一方、人と共生するAIの実現は、現在までのAIの活用の仕方とは大きく異なる展開を生むことになる。それがAIの創造的作業への進出である。現在のAIは顔認証や異常検知など、効率性の向上という文脈で活用されている。もちろん、効率化の恩恵は絶大であるが、新たなものを生み出す創造的作業は相変わらず人の仕事である。効率化自体がものを生み出すことはない。人工的な知能の用途が効率化のみというものおかしな話である。やはり人のような創造力を発揮してこその知能であろう。人というハードウェアの性能としての創造力の限界もあるであろう。かといって、AI単独での創造というのもまだまだ難しい。すると、AIによる人の創造力サポートという、新たな現実的な可能性が出てくる。ここで、著者がメンバーとして取り組んだTEZUKA20209を引き合いに考察してみたい。

手塚治虫没後30年の節目に、AIによる人の創造力のサポートにより人とAIとの共生による手塚治虫の新作と思える作品を生み出すプロジェクトがTEZUKA2020である。シナリオとキャラクターの生成という2つの課題に取り組む過程で、特にシナリオ生成において興味深い出来事があった。新作のためのシナリオ生成においては、AIはシナリオの骨格であるプロットの生成を行い、シナリオライターがプロットから着想を得てシナリオを完成させた。シナリオを生み出す作業においては、いかにして、その種となる面白くて斬新なプロットを生み出すことができるかが課題であった。興味深い出来事とは、著者らが開発中のAIシステムであるASBSを利用していくつかのプロットを生成し、プロジェクト全体会議で披露した際の次のような展開である[1]。ASBSにより生成されるプロットは、首尾一貫した完成度が高い読み物になっているものもあれば、ちぐはぐ感、よく言えば奇抜なものまで様々である。彼らとしては、完成度の高いプロットが選抜されると思っていたのであるが、一貫性があり整合性があるようなプロット、特にSFジャンルに多かったのだが、総じて単調なストーリーであるという評価を受けてしまった。つまり、人が思いつかないような奇抜な設定の方が、人の想像力を触発したのである。新作「ぱいどん」の元となったプロットは、物語設定として、「哲学者・役者・ギリシャ・日比谷」などという、バラバラなものであったが、逆にこれこそが手塚治虫らしい発想の仕方であり、結果的に「ホームレスでAI」という主人公の設定に至ったのである。プロジェクト統括の手塚眞氏によれば、このような発想の仕方こそ手塚治虫らしく、落語の三題噺と似ているとのことであった。人とAIとの共生において、AIの担当としては効率化や無駄の削減というのが分かりやすいが、効率化自体が何かを生み出すことはなく、人ならではの創造力のサポートが出来てこそ、新たな価値を生み出すためのAIの活用となり、これこそが次世代AIの役割の一つであろう。

ただし、TEZUKA2020を通して著者はある懸念を持つに至っている。本稿においてAIが持ってしまうバイアス問題について触れているが、仮に考え方にネガティブなバイアスを持った創造力サポートAIと共に,人が創造的作業をし続ける過程で、人の創造の仕方を知らないうちに偏ったものに変えてしまう可能性はないのであろうか? 無論、このような人と共生するレベルのAIはまだ開発できてはいないものの、単に作りたいものを作る、ということで突き進める段階は、AI研究開発においてはそろそろ終焉に近づきつつあるのかもしれない。

6.Society 5.0からHumanity 2.0へ

現在、次世代の情報社会である超スマート社会「Society 5.010」の実現を目指した取り組みが開始されている。これまでの人間社会(Society)は、狩猟社会(Society 1.0)に始まり、農耕社会(Society 2.0)、工業社会(Society 3.0)を経て、インターネットの登場により情報社会(Society 4.0)に到達、その次が超スマート社会であるSociety 5.0に至るとしている。現在のSociety 4.0においても、クラウドやエッジコンピューティング、SNSなど、我々はサイバー空間を活用しているものの、まだフィジカル空間の情報との連携は貧弱であり、IoTのさらなる社会浸透が必要であるとともに、セキュリティの問題や、データの所有権をユーザに持たせる必要があるなど、スマート社会への移行に向けては課題が山積である。そこで、すべての情報をサイバー空間に集約し、スマート社会化することを目指すのがSociety 5.0であるのだが、何かが足りないのである。それは人である。肝心の人が置き去りになってしまっているように思えてならない。

すでに何年も指摘され続けている情報過多の状況や、AI技術の悪用であるフェイク問題など、人の認知能力を超えたサイバー空間とのインタラクションは事実上破綻してしまっている。テクノロジーは人が使うものであり、社会とは実態のない概念のようなものである。まずは個々人の活動に着目し、その総体として、概念として形作られる社会に着目する段取りが必要であろう。実態のない社会に着目することは、個々人を見えづらくしてしまう。個々人の動きの総体として創発されるのが社会であり、人と社会の関係はまさに群知能の構図そのものである。そこで、Society 5.0のコンセプトを拡張した『Humanity 2.0(これまでの人類はHumanity 1.0)』という考え方を紹介したい。自己中心という意味ではなく、人間中心のスマート社会を創るという意味である。

人・実環境・サイバー空間をつなぐ枠組みとしては、まずユビキタスコンピューティングが登場した。これは「いつでも、どこでも、誰でも」がキャッチフレーズであり、人が何かサービスを受けたいとアクションを起こすと、ベストなサービスを享受することができる、というものである。ここで重要なことは、トリガーは人にあるということである。

図1.ユビキタスコンピューティングから共生コンピューティングへ

これに対して、その後登場したコンセプトがアンビエントコンピューティングであり、こちらは「今だから、あなただから、ここだから」というコンセプトである(図1参照)。自分が何かサービスを享受したいと思ったとたん、ベストなサービスが提供されるのである。ユビキタスコンピューティングと異なり、アンビエントコンピューティングではトリガーはシステム側にある。これは大きな違いである。アンビエントコンピューティングでは常に人を見守りその行動を予測し、ベストなタイミングでベストなサービスを予測し、ベストなインタラクションを実行する必要がある。Humanity 2.0においてはアンビエントコンピューティング基盤の拡充が必須となる。ユビキタスコンピューティング環境ではシステムはあくまで人にとっての道具であり、人の能力に変化はないが、アンビエントコンピューティングでは人は能力が向上したと勘違いすることになる。アンビエントコンピューティング基盤が黒子として人を暗に助けることになるからである。しかし、これで終わりではなく、さらに先があると著者は考えている。それが共生コンピューティングである。高い自律性と汎用性を持つAIが人と共生し、現在のAIのような効率化のためではなく、人の創造力をサポートするAIが今後登場すると、実際に人の能力の向上が実現されるかもしれない。そして、あくなき人の欲求は、人と機械との融合への突き進み、最終的にはハードウェアとしての強制的な進化を迎える時が来るのかもしれず、それがユヴァル・ノア・ハラリの言うところの「ホモデウス(人間のアップデート)[2]」であり、それはHumanity 3.0ということになるのかもしれない。

7.まとめ

AIに関わる様々な懸念について、そして、AIの現状と今後の展開について概説した。高い能力を持つテクノロジーの登場はより人を高いレベルに押し上げるものの、必ず負の面を持つ。そして、そのテクノロジーの能力が高ければ負の影響も大きくなる。まさに原子力がよい例である。しかし、人の欲求は止まらない。突き進むだけであろう。技術を作る側の著者としては、ひたすら作るだけであるが、今後はこれまで以上にELSIや法律との関わりは無論のこと、広範な視野で自分らが作ろうとするものの影響を考えつつ先に進む必要があり、強い責任を感じる次第である。

Footnotes

1 慶應義塾大学理工学部教授

2 https://www.cas.go.jp/jp/seisaku/jinkouchinou/

3 https://www.yamaha.com/ja/about/ai/vocaloid_ai/

4 https://www.nishogakusha-u.ac.jp/android/index.html

5 https://thedali.org

6 https://www.jst.go.jp/kisoken/crest/researcharea/ongoing/

7 https://www.jst.go.jp/kisoken/presto/researcharea/ongoing/bunya2019-5.html

8 https://www.nedo.go.jp/activities/ZZJP100176.html

9 https://tezuka2020.kioxia.com/ja-jp/

10 https://www8.cao.go.jp/cstp/society5 0/

References
 
© 2020 総務省情報通信政策研究所
feedback
Top