情報管理
Online ISSN : 1347-1597
Print ISSN : 0021-7298
ISSN-L : 0021-7298
視点
視点 人工知能はみようみまねマシンの究極形
樋口 知之
著者情報
ジャーナル フリー HTML

2016 年 59 巻 5 号 p. 331-335

詳細

1. 時代の転換点における人材育成

前回は,データ駆動科学技術を担う人材の育成をテーマに,確率的思考と逆推論の重要性について説いた1)。2016年4月19日に開催された産業競争力会議にて馳文部科学大臣から示された「第4次産業革命に向けた人材育成総合イニシアチブ」2)には,全学的な数理・情報教育の強化として,具体的には,数理・情報教育研究センター(仮称)等の設立を,また数理,情報関係学部・大学院の強化として,新たな学部等の整備の推進やさまざまなカリキュラムの整備などがうたわれている。文部科学省においても,データ駆動科学技術の重要性がようやく認識され,さまざまな施策の実現が図られようとしていることは,誠にうれしい状況である3)

今回は,予告通り,データ駆動科学技術における人工知能(AI: Artificial Intelligence)の役割を解説しながら,今後の科学研究における人とマシンの関係を論説する。筆者が常日頃考えるAIブームへの印象を,主観的であるとの批判を受けることを承知で述べてみたい。

2. AI研究と輪廻(りんね)転生

2015年はAIに関する話題が毎日のようにメディアに取り上げられた一年であった。特に2016年になって囲碁の世界的プロ棋士にGoogleの開発したAIシステム「アルファ碁」が勝利したことにより,一般の方ばかりか,AIに対して懐疑的であった情報技術の専門家も技術の急速な進歩を肌で感じたのではなかろうか。振り返れば,チェスの世界王者がIBMの開発したディープブルーに完敗したのが1997年なので,今年はそれからほぼ20年になる。この間の劇的な環境変化は,なんといってもデータの爆発的増加に他ならない。たとえば,1秒間にゲノム配列を読む量が約1億倍にもなった一方,計算機の性能向上を示す経験則であるムーアの法則によれば,速度向上は“たった”1万倍程度でしかない。データの「爆増」こそが,AI技術のブレイクスルーの主因である。副因は,高性能特殊演算装置を備えた計算機の廉価化および計算のためのソフトウェアのオープン化が促した,AI技術のコモディティー化である。特段に優れた計算アルゴリズムが提案されたわけでもなく,以前から指摘されていた問題点はあいかわらず解決されておらず,それは怒濤(どとう)のようなAIブームの中に一時的に放置されているだけである。

過去にAIブームは,1950年代後半から1960年代前半と,1980年代の2回あった4)。第一次ブームは,一つの脳神経活動を数式でモデル化し,それらを複数組み合わせコンピューターに処理させた,ごく初歩的なニューラルネットワーク(NN: Neural Network)の提案により巻き起こった。このNNはパーセプトロンと呼ばれることもある。第二次は,旧通商産業省の情報産業にかかわる国家プロジェクト「第五世代コンピュータプロジェクト」(1982~1992年の10年間で570億円の予算を投入。プロジェクト推進の中核となった機関名である(財)新世代コンピュータ技術開発機構(ICOT)で呼ばれることも多い)がまずブームを誘起し,1980年代半ばあたりから,ニューロ・ファジ-家電製品の開発・販売に代表されるような,第二次ニューロブームがそれに続いた。その後,計算に莫大な時間がかかることや,試行錯誤による構造やパラメーターチューニングの面倒さ,また理論構築困難(精度保証など)により,NN研究への興味が失われ,AIにとって冬の時代が長く続いた。

ところが,2006年に深層学習(Deep Learning)の応用成果が世に出,2011年に米国のテレビクイズ番組でIBMのAIシステム「ワトソン」が人間のクイズ王に勝利したことなどで,昨今第三次となるAIブームを迎えている。Google,Twitter,Facebook,BaiduなどのITメガ企業が,深層学習を専門とするベンチャー企業を高額で買収し,トヨタなどのメガ自動車企業が自動運転技術の研究開発へ多額の投資を行うなど,深層学習周辺を中心としたAIに関連するニュース報道には事欠かない毎日である。

筆者は第二次AIブームの時代から,統計学(正確にいえばベイズ統計学)の立場でAIにかかわってきたので,AI研究とのつきあいも30年近くになる。特に,「第五世代コンピュータプロジェクト」のあとの旧通商産業省にとっては最後となる新情報技術の大型プロジェクト,「リアルワールドコンピューティング(RWC)計画」5)6)(1992~2001年の10年間で約460億円の予算を投入)の理論・アルゴリズム基盤領域(前期5年)へ参加した。RWCが終結した直後からビッグデータの時代が到来する。1998年にGoogleが,また2004年にはFacebookが創業されるなど,ビッグデータを新しい情報サービスという価値に転換することに成功した企業が続々と誕生する。それらの企業は,ビッグデータが自然に集まる仕組みを作り上げ,集積されたビッグデータを分析し,個人のニーズや利用状況に即した情報サービスを提供し始めた。RWCの精神的指導者であった産業技術総合研究所フェローの大津展之氏がRWCを振り返って,「RWCがあと5年後ろにずれていたら面白かった」ような発言をどこかでされていたことが忘れられない。

あれから二十数年たち,当時,30代であった研究者らが現在のAI研究をプロジェクトリーダーとして率いている。ここまでAI研究の歴史を駆け足でたどってきたが,ざっくりいえば,今の70代以上はフロンティアの時代,60代はICOT,50代はRWC,40代は機械学習注1),30代は深層学習を若い頃(だいたい20代から30代前半)に同時体験している。次章で述べるようにAIへの接近法は概念的に各技術で大きく異なるため,AIに関する考え方に世代間で大きなギャップがあるのはそのせいである。

3. 「3流派」:ニューロ系,統計・知識系,記号・論理系

AI研究は方法論の観点から大別するとニューロ系,統計・知識系,そして記号・論理系の3つに分類できる。興味深いことにこれまでのAIブームは,ニューロ系の活性化と完全に同期している。この背景には,世間一般も含めた脳への科学的興味は圧倒的な存在感があり,ニューロ系で技術的ブレイクスルーがあると,それが触媒のごとく働き,メディアを巻き込んで学術・産業界の奔流となるのではと解している。

ニューロ系は前述したように,パーセプトロンを多層にしたNNを数理モデルとして利用する。深層学習では,第二次ニューロブームのときによく利用されていた3層のNNを,8~十数段に増強した大規模なNNを使う。このように深層学習で使われるNNは,層数が大幅に増えた以外,第二次ニューロブームのときのものと違いはない。パラメーター学習アルゴリズムも,Back propagationを基本とするような,以前のものと大差はない。深層学習では層数が大幅に増えた結果,パラメーター数も爆発的に増え,10層程度のNNでは10億個にもなる。したがって,パラメーター数より多いサンプル数が用意されなければ,必ず過学習が生じる。事実,深層学習が圧倒的なパフォーマンスを示しているこれまでの成果は,特定物体認識(画像内の交通標識がどの標識かを同定する問題),一般物体認識(生活空間の画像から一般的な物体の名称を同定する問題。ただし,物体名の辞書は所与),顔画像判別,音声識別・認識(Appleの音声アシスタンス・Siriなどに利用),推薦システムなど,学習用の莫大な量のデータがすでに存在している例ばかりである。学習アルゴリズムもさほど賢くなっているわけでもないので,必然と計算リソースはこれまでとは桁違いのものが必要となる。

統計・知識系のAIは,近年でいわれるところの統計的機械学習の分野であり,現況の社会・産業界において活躍しているAI技術のほとんどは,統計・知識系をベースにするものである。統計的機械学習の基礎となる数理分野は,統計学,最適化,高速文字列処理(アルゴリズム)などである。2000年代,ビッグデータを仲介にビジネスとアカデミアが急接近したのは,統計・知識系がデータ環境およびニーズの変化に適切に対応し発展したからである。なお,ニューロ系と統計・知識系の推論形式はいずれも帰納型である。帰納法は,有限個のデータ集合から,サンプルの近傍空間の性質を予測する手法,つまり内挿である。内挿の操作を1の左側に模式的に示した。わかりやすくいえば,帰納型のAIは,近くのサンプル(過去の経験)を参考に“みようみまね”をしている「内挿マシン」にすぎない。よって,データ集合が占める領域から遠く離れた空間(未体験ゾーン)の予測,つまり外挿は非常に不得手である。その様子を1の右側に表した。帰納法では「絶対にない」ということは論理的にいえないのも同じ理由からである。ニューロ系も統計・知識系もこの帰納法が持つ限界を超えることは決してできないことを肝に銘じておかねばならない。

記号・論理系とは,記号処理のためのルールや数式をプログラム化し,思考や推論など人間が行う情報処理を行わせる方式である。これは,第二次AIブーム時の「第五世代コンピュータプロジェクト」で精力的に研究がなされた。シニアの方々は若かりし頃,それまでの計算機言語(FortranやCOBOL)とは全くタイプの異なる言語,Prologが存在したことを記憶されているかもしれない。Prologは論理型計算機言語の代表格である。記号・論理系は,今はその影は薄いが,ニューロ系や統計・知識系と異なり,文字通り推論方式が演繹型であるため,帰納型と組み合わせることで帰納型が持ち得ない特性を具備した新しいタイプのAIが誕生するかもしれない。

図1 内挿と外挿の違いの模式図

4. 技術の社会への埋め込みとシンギュラリティ

AI技術の急速な発達とともに,いつもメディアを騒がすのがシンギュラリティ(技術的特異点)の話である。シンギュラリティとは,AIが人間の能力を超え,人間の社会生活がもう後戻りできないほど変容してしまうことを意味している。この種のメッセージは,ハリウッド映画の題材としてうってつけで,事実,人をあおるような趣味の悪いB級映画から繊細な人間性といった機微に触れる秀逸な映画まで,かなりの数の映画が製作された。これまで述べてきたように,今のAIは内挿マシンであり,「知性」の創発機能は持たない。したがって,内挿マシンの弱点を理解していれば,少なくともシンギュラリティを深刻に考える必要はないと筆者は高をくくっていた。ところが,弱点を十分に理解しないまま,AIのさまざまな社会実装を考える人間が増えてきた。この傾向は,シンギュラリティではなく,従前から議論されてきた科学技術と社会のあり方に関する問題ととらえるべきである。

国内では,AIによる車の自動運転への期待が高まるばかりで,一部の国家戦略特区では実走実験まで始まりつつある。筆者は米国西海岸にしばらく居住していた経験もあり,米国の物流や人の移動にかかるコストの大きさを考えると,米国では自動運転が社会実装されるメリットは巨大であることを実感している。インターステート(基幹高速道路)を走るトラックは,高速道路上に市街地から少し離れて設けられた,Weigh Stationと呼ばれる,車両重量を計測するための施設に必ず立ち寄る。Weigh Station間のみでも自動走行させるときはすぐにでも来るのではないか。日本国内においても,今後の急速な人口減少を想定すると,限界集落などへの対応には,自動運転を利用した社会サービスの提供は大きな魅力である。自動販売機をたくさん積載したコンビニカーともいうべきトラックが定期的に自動運転されると,過疎地に住む高齢者は非常に助かるであろう。コンパクトシティーのように移住をともなう社会システム改造には,住民の土地への根強い愛着などを考えると,時間もコストもかかる。車の自動運転は,新しい形の社会システムの基幹インフラともなりえる。

5. 内挿マシンの限界と精度保証

技術を社会にプラグインする際には,その安全性を精度付きで保証せねばならない。前述したように,内挿マシンの外挿能力は疑わしい。また,高次元になると人間の直感がきかなくなることにも留意せねばならない。さらには,過学習の問題は避けて通れない。深層学習を例にこれらの問題を精度保証に関係づけて少し考えてみる。入力ベクトルの次元が高いと,中間層のユニット数も増大し,その結果として,含まれるパラメーター数は莫大になる。パラメーター空間でも,入力ベクトルでも,あるいはユニットで構成される空間でもよいが,その空間の次元は超高次元になる。超高次元空間では,どんなにサンプル数を増やしても決して均一かつ稠密(ちゅうみつ)に空間をサンプルで埋めることはできない。想像以上にスカスカなのである。さらに問題なのは,数式で定義される近傍集合が人の直感的イメージとは大きくかけ離れたものになる点である。そのため,データ集合で構成される,内挿と外挿を特徴づける境界面(1では破線で示した)は複雑すぎて,定性的(位相的)にも形状を人は把握できない。そうすると,深層学習の出力が内挿的(“近傍”のデータを上手に利用した精度的に安心できる推測)なのか,外挿的(「端」のデータから未知の領域を推測)なのかすら,利用者にはわからないのである。

この問題をやや極端な具体例で示そう。ゆるキャラのような巨大な着ぐるみを着た人が自転車で高速道路を走行していたとする。このような事例は,内挿マシンには学習されていないため,どれぐらいの距離と速度を保って車が脇を通り抜けるべきか,AIは判断つきかねる。本事象(シーン)をいくつかの要素に分解すれば,それらはすべて学習済みであり,適当な内挿的推論が起動すれば,適切な自動運転が実現されると期待できる。しかしながら,深層学習は,ほぼすべて過剰学習の状態で学習プロセスが終わっている。そうすると,期待通りの安定した内挿行為が実現されるか100%の保証はない。急ブレーキでストップすればよいが,追い抜き車線に急ハンドルで自転車を避けるような,思いもつかない結果になるかもしれない。

もう少し現実的な例を考えてみよう。たまたまゲリラ豪雨により路面が冠水して,人の視覚では側溝と道路の区別ができなくなったような状況を想像してほしい。自動運転の場合は,三次元地図情報を事前にAI内に獲得済みであり,さまざまなセンサーを搭載しているので,それらを複合的に利用すれば,道路から逸脱することは決して起こらないし,最悪でも停止するようになっているかもしれない。それでは,側溝からの増水が急激になったらどうするのか。そもそもこのような極端にシリアスなケースを,実世界の走行例だけから収集するのは時間的にいって不可能である。それは,前述したように,高次元空間を有限サンプルで埋めることは不可能だからである。同様の理由で,災害などの巨大なリスクインシデントの予知は今のAIの技術では困難であろう。その意味で,エミュレーターのような,実世界と計算空間(学習計算が実施される場所)をつなぐ計算技術の開発は今後ますます重要になる。実際,ビッグデータの収集が難しい場面では,むしろエミュレーターこそがAI研究の主役になるであろう。

6. 見識ある期待感

本稿では,AI研究の歴史を大まかに復習した後,AI技術を類別し,技術の社会への埋め込みの際,留意せねばならない観点を指摘した。誤解のないように断言しておくが,筆者はAI技術の社会実装には非常に前向きである。AIがもたらすベネフィットは,プロセスのスマート化にとどまらず,メンタルヘルスケアへの対応,熟練者の知とスキルのリアル(代替)化など,より人に寄り添ったものへ多面的に拡大するであろう。現在のAI技術は,ほぼすべて帰納型であるため,帰納型の限界点を正確に理解すれば,社会実装に関する議論はもっと具体的で建設的になるはずである。盲目的な過度な期待に判断が惑わされてはならない。

執筆者略歴

  • 樋口 知之(ひぐち ともゆき)

1984年東京大学理学部地球物理学科卒業。1989年同大大学院博士課程修了。理学博士。同年文部省統計数理研究所助手。以来,時系列解析,ベイジアンモデリング,データ同化の研究に従事。現在,情報・システム研究機構理事・統計数理研究所長。日本学術会議情報学分野の連携会員。

本文の注
注1)  入力データと出力データの対から,計算機上に実装された数理アルゴリズムによってその対応関係を類推し,予測や判別などの統計的推測機能を実現する技術一般

参考文献
  • 1)  樋口知之. 視点 データ駆動科学技術を担う人材の育成:確率的思考と逆推論. 情報管理. 2016, vol. 59, no. 1, p. 53-56. http://doi.org/10.1241/johokanri.59.53, (accessed 2016-06-14).
  • 2)  “第4次産業革命に向けた人材育成総合イニシアチブ:未来社会を創造するAI/IoT/ビッグデータ等を牽引する人材育成総合プログラム”. 文部科学省. http://www.kantei.go.jp/jp/singi/keizaisaisei/skkkaigi/dai26/sankou2.pdf, (accessed 2016-06-14).
  • 3)  “ビッグデータの利活用のための専門人材育成について”. 大学共同利用機関法人 情報・システム研究機構. http://www.rois.ac.jp/open/pdf/bd_houkokusho.pdf, (accessed 2016-06-14).
  • 4)  樋口知之. スモールデータ,ビッグデータ,そしてスマートデータ:人工知能ブームの中での統計学. 統計. 2016, vol. 67, no. 1, p. 9-14.
  • 5)  大津展之他. 特集:RWC -実世界知能. 人工知能学会誌. 2002, vol. 17, no. 2, p. 117-119.
  • 6)  大津展之. “実世界情報処理とベイジアンアプローチ”. https://staff.aist.go.jp/y.motomura/bn2002/paper/Otsu.pdf, (accessed 2016-06-14).
 
© 2016 Japan Science and Technology Agency
feedback
Top