2017 年 60 巻 9 号 p. 673-679
国際人工知能学会(International Joint Conferences on Artificial Intelligence)注1)は人工知能(AI)学会分野でトップの国際会議で,「IJCAI(イチカイ)」と呼ばれる。人工知能関連の国際学会は,近年隆盛の機械学習を対象としたICMLやNIPS,エージェントのAAMASや知識処理のKDD注2)など分野別の学会が多数ある中で,本IJCAIとAAAI(Association for the Advancement of Artificial Intelligence:全米人工知能学会)はAI分野全般を対象とした総合的な学会であり,本分野全体の動向を把握することができる。IJCAIは1969年以来,隔年(奇数年)で開催されていたが2016年から毎年開催となった。第26回の開催となるIJCAI-17注3)は,メルボルンで開催され,オーストラリアでの開催は2度目となる。今回の参加者は2,058名で,2016年1,671名から大幅に増えた。中でも中国からの参加者が475名と,主催国オーストラリアの531名に次いで多かった。
IJCAI-17の最初の3日間(19~21日)では41件のワークショップと23件のチュートリアルが実施された。ワークショップは研究者による提案に基づく個別議論の場であり,チュートリアルはAIを専攻する学生向けの教育セッションである。どちらも専門性が高い。
本会議は22日から25日の4日間にわたり以下のようなセッションとイベントから構成される。
本大会のテーマは「Autonomy and AI(自律性と人工知能)」である。背景には,自律型自動車や無人機,モバイル機器のパーソナルアシスタント,工場のロボット自動化のようなアプリケーションの多くが,社会に大きな変化をもたらす可能性があり,その結果,AIの潜在的な悪影響に対する懸念も高まっているという認識がある。
本大会の論文は投稿数2,540本に対して採択は660本(採択率約26%)。いずれも今回は中国が欧州連合と米国を抑えて首位となった。わが国は6位である注4)(表1)。
本稿では,上記に記載したセッション,イベントから主要なものを報告する。講演の動画はYouTubeに公開されている注5)ので,興味のある方は参照いただきたい。
本大会のテーマ「Autonomy and AI」に関する基調講演,招待講演と,パネルディスカッションを報告する。
2.1 基調講演,招待講演 (1) “Provably beneficial AI”(有益であることが証明可能である人工知能)Stuart Russell教授(米国・カリフォルニア大学バークレー校)は,いかにして人間にとって有益なAIを実現するかという講演を行った。
現状,人間が行う定型的な1秒程度のタスクの多くは自動化のめどが立ち,ロボットやカーナビは賢くなり,われわれの生活に大きなインパクトをもたらすさまざまな応用が開発されている。一方で,真の自然言語意味理解,知識と学習の統合,複数のレベルの抽象的な思考,概念や理論の発見と蓄積などはいまだに不可能であり,それには本質的なブレークスルーが必要である。しかしながら,いずれ(いつとはいえないが),AIは人間よりよい判断ができるようになるであろう。なぜなら,人類がもつものはすべて知性の産物であり,著しく巨大な知性の活用は文明に大変革をもたらしうるからである。
自律的なAIを危ぶむ声がある。そこで2016年,UCバークレー校にCenter for Human-Compatible AIを設立した。そこでは,与えられた目的を最適化するStandard AIに対して,Provably beneficial AIとして,人間が結果に満足するように振る舞うシステムのデザインを研究している。アイデアは単純である。(1)ロボットの唯一の目的は人間の価値を最大限に実現すること,(2)ロボットは最初,人間の価値について不確実であるとする,(3)ロボットは人間の振る舞いから価値を学ぶ。ここで価値は将来にわたって望ましいことと読み替えてもよい。技術的な問題となるのは目的の不確実性である。不確実性はAI研究において古典的な問題である。与えられた目的のみを追求するStandard AIは,たとえば冷蔵庫に何もないときにペットを料理してしまうような結果をもたらしうる。これを避けるために不確実性を取り扱えるようにすることは重要である。
(2) “As we train the AI, so the AI can train us”(人が人工知能を訓練するように,人工知能は人間を訓練できる)Marti Hearst教授(米国・カリフォルニア大学バークレー校)は,AIと仕事について語った。
この何十年かで技術は雇用の様相を変化させてきたが,今日さらにその変化が加速しているようにみえる。対策は従来の教育と学習の方法を改善することである。そのために従来よりも大きな役割をAIに担わせる必要がある。学習を加速しなければならない背景について,蒸気機関が肉体労働を置き換えたようにAIが頭脳労働を置き換えるという書籍と,テクノロジーはすでに人間の適応力を超えたという書籍を紹介しその重要性を指摘した。
次いで,新しい教育システムであるMOOCS(Massive Open Online Courses)注6)普及の理由として,コンピューターが介在したアクティブラーニングであることを指摘した。重要なのはアクティブ(能動的)であることだ。One to One教育がベストだが高額なためコンピューターを利用する。Intelligent Tutoring System(ITS)と呼ばれる対話型の教育システムも成果を挙げ,人間のチューターがつく教室形式の教育よりも効果的だという研究結果もある。しかし1問作るのに40時間と時間がかかりすぎるため,実際にいきわたっていない。また,Massive Adaptive Interactive Textbook(オンラインテキスト)は練習問題を間違えると,個々の学習者の間違いに一つひとつ対応するため約7,000時間の労力が必要だったという。これをAIの力で改善すべきとして,ゾーニング(ランク分け),ピアラーニング(相互学習),MOOCCHAT(生徒同士でチャット)などのやり方が紹介された。
最後に,学習を加速するためには研究開発が必要だが,米国においては,防衛予算710億ドルに比べ教育関連予算は40億ドルとはるかに少ない。そのためE-ARPA(ARPA(Advanced Research Projects Agency)の教育版)の必要性を主張し,学習はAIのコアトピックなので協働して取り組もうと結んだ。
2.2 パネルディスカッションモデレーターのMichael Luck教授(英国・キングスカレッジ,情報学)より,「『自律性』はこれまで抽象的,理論的な研究対象だったが,最近の技術進歩により現実的なチャレンジになった。技術的な問題だけでなく社会的,法的,哲学的な問いかけを含む議論が始まっている。本大会でも連日このテーマでさまざまなセッションが開かれるが,本パネルはそのキックオフになる」と説明があった。3名のパネリストが,「AIの自律性は,脅威かチャンスか」について次のような意見を語った。
AIは脅威でもあり機会でもある。問題の複雑性を理解して,価値の本質とコンテキスト(利用状況)の両面から考えることが重要である。倫理をAIに初めからつくりこむことが重要だが,いくつか問題がある。AI研究者は倫理を自分の問題でないと考えがちである。コンテキストは変わるので最初から完璧を目指してもうまくいかない,段階的に適用することが必要だ。
法学的な観点で述べると前置きをした後,完全に自律的なヒューマノイドを待たずとも現行の法体制はすでに影響を受けていると,製造物責任に関する1985年に交付されたEC指令の修正を始めた欧州委員会の活動を紹介した。社会や個人をしばるプライマリーなルールだけでなく,システムそのものを規制するセカンダリールールが必要である。また,ロボットやAIの研究には法的な実験が必要である。日本の「特区」制度を例に挙げ,実験データが取れるという意味でも,社会に対する影響のレベルを知るためにも重要である。逆に,イタリアのドローン規制は技術革新の邪魔をしていると述べた。
国連で正式な協議を開始することが決議された自律型兵器注7)について語った。人々は短期的な話と長期的な話とを混同し,メディアはいつもターミネーター型のロボットを描いている。しかしここ5~10年で起こる問題は,もっと単純で能力が低い自律型兵器によって,兵士と一般人の区別ができずに国際人道法を犯してしまうことである。長期的には,自律型兵器は能力を高めるだろう。推進派は,殺傷能力をもつ自律型兵器の方が倫理的であると主張する。それは戦場で国際人道法に従って正確に行動できるからである。科学技術的な挑戦課題の一つは,そのような倫理的統治に従うマシンを作ることである。その方法は現時点ではわからない。しかしそれができたとしても,戦場に送るわけにはいかない。なぜなら,われわれは作り方を知っていると同時にハッキングのやり方も知っているからである。世の中には悪いやからがたくさんいる。
2027年。われわれの専門性が正しいか間違っているか判断できるほど遠くない未来に関する,パネルディスカッションが行われ,非常に興味深い議論があった。
司会のMaria Gini教授(米国・ミネソタ大学)からの以下の2つの問いに対し,専門分野の異なるパネリスト4名のプレゼンテーションがあった。
会場からは,人間のレベルの知性を達成するためのマイルストーンや,サイバー犯罪,サイバー戦争への対応に関する質問があった。
ロボティクスの研究をAIの視点で話した。現在,本格的なロボットはまだ使われていない。研究では火星探索用の人型ロボット(Valkyrie)や超小型群ロボット(Kilobot)など驚くべき研究がある一方で,実生活では掃除ロボット(Roomba)が使われている程度である。ロボットの利用シーンは3つある,1つ目は家の掃除などクリティカル(失敗が許されない)でないタスク。止まったら電源を入れ直せばいい。2つ目は火星探索や軍用などクリティカルなタスク。3つ目は,倉庫や工場のような整備された環境である。現在,実世界でそれほど使われていないのはまだ信頼性が低いからであり,ロボットは自分自身の不確実性にも環境の不確実性にも対処できていない。
2027年にはAIの研究成果やハードウェアの進歩により実世界にもっと普及するだろう。完璧でなくとも徐々に改良すればよい。自律ロボットや群ロボットにおいても人間との協働が必要である。人体内で活躍するDNAサイズのナノボットにも期待している。IJCAI2027では自然科学や社会科学に深く入り込んだ研究が行われているだろう。
今やGoogleが何でもオンラインでやってしまうので,Googleができないことを考えてみた,と切り出した。たとえば,希少疾患は,希少であるが故に,発見方法も治療方法もわからない。十分な知識がないのである。ここに根源的な問題がある。われわれは知らないこと(Unknown)は知らない。データがないのでGoogleでもUnknownには対処できない。しかし人間が機械より優れているのはUnknownへの対応である。社会的関係にある人間の力はいかなる機械をも凌駕(りょうが)する。AIは人々が自分の目的を達成するために利用できるものでなければならない。世界中の知識にアクセスすることで,人々の知識が拡張される。IJCAI2027ではUnknownに関する論文が発表されることを期待している。
大胆でばかげた意見でもかまわないといわれたので,自分の専門領域(マルチエージェントシステム)を超えてより広範に答えた。どのような技術が普及しているかは,スタンフォード大学の「AI100」注8)に参加した経験を基にしている。2027年は,汎用(はんよう)AIではなく,特定タスクに特化した,現在,実験室で試作されているものが普及しているだろう。具体的には,音声・動画入力の応用,ターゲットマーケティング,翻訳や質問応答,仲裁やクラウドソーシングなどのマッチングサービスなど。交通関連では,自動運転も10年以内に浸透するが,それより縦列走行トラックの方が普及しているだろう。問題が定式化されたうえでの知識労働,法的調査やコールセンターへの応用。警察と保安はAIに強く傾倒すると思う。保安上の要請から,政府もできることを広範囲に速やかに展開することで世界は変わる可能性がある。一方で,育児,ヘルスケア,介護,教育など,規制や社会受容やハードウェア技術が障害となって立ち上がらない技術もある。業界の再編が必要だ。深い意味理解が解決しない限り家庭用ロボットは普及しない。
研究は20年先をみないといけないので予想は難しい。そこで2つのアプローチから考えた。1つ目は,人々の欲望を満たすために技術が開発されると仮定すると,今後拡大するのは娯楽産業である。ゲームを魅力的にする技術,ブローカー,仲介など他の人とのつながりを促進する技術,そして人々の自由な時間を増やし価値のある時間を過ごすために単純作業の自動化は進展する。教育の革新も重要である。適用はそれほど進まなくても研究は盛んになるだろう。
2つ目は,現在成功しているAIの分野が成長すると仮定しよう。この10年でAIはデータからの予測を改善することに成功してきたが,今後は,より微妙でより正確な予測が可能になる。データから構築されたブラックボックスモデルがいつでもうまく機能するか考えるのは有益な思考実験である。優れた予測ができるブラックボックスモデルに対しても,理由や入力に公正であることが求められる。予測の次にやるべきことはどう行動するかであり,最適化と計画が重要になるが,まだデジタルデータが不足している。Stuart Russell教授は,この学会の冒頭で,AIシステムは人々の目標が何であるかを理解し,それに従って行動すべきだと主張した(2章1節)。政治学,経済学,社会学での認識は,人々が互いに葛藤し合う目標をもっているので,この事実を緩和する自律的な方法を見つけることが重要となる。
IJCAI2027では,法制度が重要なトピックになっていると思う。官僚はAIを本当には理解していないので,AIを本当に深く理解しているコミュニティーは今日よりはるかに深い役割を果たすだろう。われわれのフォーカスは,人間レベルのAIを作ることから,超知性体を必要とする問題に変わりつつある。政府や企業は,すでに個人レベルを超えた洗練さや複雑さを有しており,その意味で超知性体といえる。AIも同様に振る舞うと考えると,集団的意思決定や効率的資源配分により,気候変動など社会的課題の解決に取り組むことにつながるだろう。
2027年を予測するとコンピューターは,高校生レベルのエッセーが書け,ゲームにおいて自分の手を説明でき,トップ40レベルのポップスを作ることができる。人間型ロボットは5キロ市民マラソンで人間に勝つだろう。
IJCAI2027の研究では,よい決定をする合理的なエージェント,人間のように相互作用する信じられる(believable)エージェント,そして,人間のように考える認知エージェントがみられるのではないだろうか。合理的なエージェントは,現状ではまだ特定タスクレベルで環境変化に自分では対応できない。機械学習のモデルは,よりよい意思決定を下すという,もっと大きな目的を果たさねばならない。
IJCAI2027では,ビッグデータではなく,ビッグデシジョン(big decision)がトップキーワードになるだろう。与えられた目的を最適化するためのよい決定方法を学ぶには,他にも多くの分野(オペレーションズリサーチ,意思決定理論,経済学,制御理論)がある。まだ未参加のこの分野の研究者をIJCAIに引っ張り,狭い知的システムから広い知的システムへの進歩が必要だ。異なるモジュールの相互接続はロボティクスが何十年も取り組んできたが,よい基盤が整っていない。
次は,信じられるエージェントの話をする。毎日Amazonエコーと話しているが,非常にうまく動作する。2027年には冷蔵庫,ゴミ箱,エレベーターが確実に話しているだろう。認知エージェントは2027年に,合理的エージェントや信じられるエージェントに比べて進歩していないように思う。
AI研究者は技術を開発するだけでなく,どのように使われるかについて考えることが重要である。他人任せではいけない。AAAIとACM(Association for Computing Machinery)は現在,AIや倫理,AI技術の責任ある使用など,社会への影響を議論している。2027年には,AI研究者と政治家,弁護士,社会科学者が結集するだろう。
テクニカルセッションは採択された660本の論文の分類キーワードごとに発表が割り当てられるが,今回は半数近い論文が「機械学習」を第1キーワードに指定した(表2)。IJCAIの伝統的なキーワードである,「知識表現」「エージェント」と続く。
企業家と研究者がAIの未来と産業や社会へのインパクトについて議論する場を,インダストリーデーとして設けている。数年間で大企業に躍進した企業からは競争力の強化に向けた各社のAI技術の役割説明が,スタートアップ企業からはAI技術の商業化について成功や失敗事例の紹介があった。今回は大企業8社中6社が中国企業だった(表3)。ビジネスモデルは米国の先行企業に類似するも,顧客数など事業規模は本家を上回ることも多い。その結果,規模や複雑化に関する課題を克服することで得られる技術レベルの向上は計り知れないものがあると感じた。
IJCAI2017の概要,論文数,主要トピック,特に,大会テーマである自律性とAI,2027年のAI,およびインダストリーデーについて報告した。筆者は学会動向調査の一環で国際,全米,日本の人工知能学会に継続的に参加しているが,いずれの大会でも参加者は年々増加しこの分野の研究が活発であることは共通する。また,研究テーマも機械学習やディープラーニングの割合が高い。海外の大会では特に中国人研究者の活躍が目立つ。わが国の存在感の伸び悩みが気になるが,2015年に産業技術総合研究所に設立された「人工知能研究センター」や,2016年に理化学研究所に設置された「革新知能統合研究センター」など相次ぐ研究機関の設立や,民間での研究開発活動が活発化している状況に鑑みると,今後さらなる存在感の高揚が期待できると考える。
(科学技術振興機構 研究開発戦略センター 茂木強)
NIPS:Conference on Neural Information Processing Systems https://nips.cc/
AAMAS:International Conference on Autonomous Agents and Multiagent Systems http://www.aamas-conference.org/
KDD:Conference on Knowledge Discovery and Data Mining http://www.kdd.org/