2017/7/27
去る7月27日、トーランスのToyota Automobile Museumで、第203回JBAビジネスセミナー「人工知能の現状とそのビジネス応用 -シリコンバレーのスタートアップの事例を中心に-」を開催した。Fujitsu Laboratories of America, Inc.の内野寛治さんを講師に迎え、現在さまざまな業界で注目を集めているAI(Artificial Intelligence)について、その技術の歴史と現状、ビジネスでの活用事例、今後の課題について解説した。
[講 師]
内野寛治さん
Fujitsu Laboratories of America, Inc.リサーチ・マネージャー。富士通研究所入社後、検索を中心としたAIの研究開発に従事。その後、米国同社に移籍し、WebとAIを軸としたサービス・イノベーションのプロジェクトを推進している。筑波大学大学院工学研究科にて博士号(工学)取得。
冒頭、内野さんは星新一の小説『ちぐはぐな部品』の一章「神」から、登場人物が世界中のあらゆる情報をインプットして神を創ろうと試みる部分を引用し、インターネットが牽引する現在のAIの進化について解説を始めた。新しいキーワードのように思われるAIだが、「その歴史は60年前に遡り、1956年にAI関連の研究者が集まる会議で『Artificial Intelligence』という言葉を採用したのが起源」だという。ところがAIにはその後、冬の時代が訪れる。その原因となったのは「フレーム問題」。つまり現実社会の問題は膨大で、起こりうる全ての可能性の枠組み(フレーム)を洗い出して、有限時間内にAIに計算させられないという問題である。例えば自動運転のシミュレーションでは、天候、道路のコンディション、障害物の有無など考えるべきフレームが無数にあり、それを計算させるのは実質不可能で、これがAIの限界と言われた。だがその時期を超え、現在AI技術が飛躍的に進化している要因は2つあるという。一つはインターネットによってビッグデータの収集が可能になったこと、もう一つは、コンピューターの計算能力の向上によって、ビッグデータの解析が行えるようになったことである。「こうしてAIはSFの世界ではなく、現実の世界で使えるサービスになりました」。
最近のIT技術のキーワードである「IoT(Internet of Things)」「クラウド」「ビッグデータ」とAIは、一つの生態系のような相関関係を成している。例えばGoogleやAmazon、Facebookは、それぞれの提供するIoTサービスを通して情報をクラウド上に吸い上げ、その情報をビッグデータという形で蓄積、それを独自のAIで分析・解析するというフレームワークを用いている。その技術について、「AIと一言で言われますが、AIはいろいろな技術の組み合わせの総称と思ってください」と内野さん。AIは「検索・最適化」「制約充足」「論理推論」「確率推論」「制御理論」など、さまざまな技術が組み合わさってそのシステムができあがっている。しかしそのコアになっているのが、大量のデータをコンピューターに読み込ませ、コンピューターが特定のパターンや規則を見つける「Machine Learning(機械学習)」の技術だという。現在進行しているのはその中でも特に「Deep Learning(深層学習)」と呼ばれ、かつて3層が限界だったシミュレーションを、多層に拡張して計算できるようになったことが、ディープラーニングを可能にした。「かつては、人の手で特定のパターンやルールを抽出し入力していました」と内野さんは振り返る。
現在「.ai」のドメイン名を持ったスタートアップ企業やAIサービスが続々と誕生し、「ドットエーアイバブル」と言ってもいいような状況が生じているという。AIが応用される分野は広がっており、Googleが買収したAI企業DeepMindが開発した「AlphaGo」が囲碁の世界チャンピオンを破ったニュースなどはほんの一例で、医療の分野では皮膚科医が何千枚もの腫瘍の写真をAIに学習させることで、皮膚がんを診断するサービスを作った事例もある。車の自動運転の分野にもAIの「物体認識」と「プランニング」の技術が応用されている。また従来は人間にしかできないと言われていた芸術分野においても、複数の音楽を組み合わせて自動作曲するサービス「deepjazz」や、画像を複合して新たな画像を作り出すサービス「DeepDream」などが紹介された。
AIの技術の中でも「自然言語処理」を応用したサービスやそれを扱う企業は多く、なかでも自律的に会話するプログラムによるサービス「Chatbot(チャットボット)」はすでに身近なAIの事例になっている。自然な会話の往復によって対象を絞っていけるこのチャットボットの形式は、次世代の検索インターフェースとして注目されており、iPhoneに搭載されている音声アシスタント機能「Siri」もその一つである。またAmazonは音声アシスタントデバイス「Amazon Echo」を2015年に発売。800万台を販売しており、その存在が市場に浸透しつつある。そのほか各社独自のチャットボットの開発が進んでおり、Microsoftは英語版で「Tay」、中国語版で「小冰(シャオアイス)」、日本語版で女子高生AI「りんな」というチャットボットを提供し話題になった。会場では具体的なAIデバイスの一例として「Amazon Echo Show」が登場し、デモンストレーションが行われた。「Alexa」と呼びかけられると起動する仕組みで、ディスプレーが備わることによってビジュアルを使ったコミュニケーションが可能になり、AIの新たなインターフェースとそのサービスの可能性を示した。
「現在のAIの課題はビッグデータを取り込んだディープラーニングの結果、そのプロセスがブラックボックス化してしまい、人がその法則性を読めないこと」だという。最近では、AIが人間に判別のつかない言語で会話し始めたケースや、プログラム作成者が「私の理解を超えつつある」と語ることもある。つまり設計者もどう動いているのか分からないというのが今の人工知能の一つの側面だ。そこでこれからのAIの目指すべき姿として取り組みが始まっているのが「eXplainable AI(説明可能なAI)」だという。「今までのAIは、データを読み込ませて、アウトプットはできても『なぜ』ということに答えられませんでした。今後はどう判断をするかが見える、説明できるモデルを作り、説明できるインターフェースをもって、人に返すAIを作っていかなくてはいけません」と内野さんは語る。
最後に内野さんは「AIは何かデータを入力すれば良い結果を返してくれる魔法の杖のようなものではありません。調整やさまざまな相互作用が必要です」とAIを考える上での注意点を付け加えた。そして質疑応答で挙がった「日系企業ならではのAIの活用方法」という質問に、「AIを設計する上でのアドバンテージはビッグデータにあり、各企業に蓄積するオープンになっていない顧客データなどが、次のビジネスにつながる可能性がある」ということを示唆してセミナーを締めくくった。