ジェレミー・ハワード

自ら学習するコンピュータの素晴らしくも物恐ろしい可能性

2,158,867 views • 19:45
Subtitles in 26 languages
Up next
Details
Discussion
Details About the talk
Transcript 26 languages
Translated by Yasushi Aoki
Reviewed by Misaki Sato
0:11

これまではコンピューターに 何かさせようと思ったら プログラムを書く 必要がありました プログラミングはやったことが ないかもしれませんが やりたいことを 実現するために コンピューターが 行うべきことを 事細かに指定してやる 必要があります だから実現したいことの 具体的なやり方を知らずに プログラムを書くというのは 難しい話です

0:35

それがこの写真の人物 アーサー・サミュエルが直面した問題でした 1956年のこと 彼はチェッカーで 自分に勝てるプログラムを 作りたいと思いました しかしどうしたら 自分より上手く チェッカーを指す手順を 詳細に記述することができるでしょう? 彼は良い方法を 思いつきました コンピュータ自身を相手に 何千回も チェッカーの対局をさせて 自分で学ばせるんです これはうまくいきました そのプログラムは実際 1962年に コネチカット州チャンピオンを 破ることができました

1:06

だからアーサー・サミュエルは 機械学習の父とも言え 私自身 彼に 多くを負っています というのも私は機械学習の応用を 生業としているからです 私が代表を務めていた Keggleには20万人以上の 機械学習専門家が属しています Keggleでは かつて解かれたことのない課題を使って 競技会を開催していて 何百回となく 成功を収めています そのような立場から 機械学習には かつて何ができ 今何ができて 将来何ができるようになるか 多くのことを 学ぶことができました 機械学習が商業的に大きな成功を収めた 最初の例は Googleかもしれません Googleは 機械学習を使った アルゴリズムによって 情報を見つけられることを 示しました それ以来 機械学習の商業的な成功事例が たくさん生まれています AmazonやNetflixのような企業は 機械学習を使って ユーザーが買いたいであろう商品や 見たいであろう映画を 提示していて その精度は 時に不気味なくらいです LinkedInやFacebookは 知り合いかもしれない人を示唆し なぜ分かったのか 当人には 見当も付きませんが これも機械学習の力を 使っているのです 手順が事細かに プログラミングされているのではなく どうすべきかをデータから学習する アルゴリズムが使われています

2:18

IBMのワトソンが ジェパディの世界チャンピオン 2人を破ったのも そのような方法によってで ご覧のような複雑な問いに 答えることができました [2003年にこの町の国立博物館から古代の “ニムルドの獅子” が (その他多くの品とともに) 消えた] 自動運転車が実現可能になったのも 機械学習のお陰です たとえば木と歩行者を 見分けるといったことが できる必要があります そのようなことの具体的な手順が どうすれば書けるのか 分かりませんが 機械学習で可能になったのです 事実この車は 事故を起こすこともなく 普通の公道を 何百万キロも走行しています

2:51

コンピューターは 単に学べるだけでなく どうしたらできるのか 分からないようなことも 学ぶことができ 人間よりも上手くなることも あり得るのです 機械学習で最も目覚ましい 事例の1つは 私がKeggleで主催した プロジェクトで ジェフリー・ヒントン率いる トロント大のチームが 薬を発見する競技に 優勝した時です これがすごいのは 医薬大手のメルク社や この分野の専門家チームの 開発したアルゴリズムを破った彼らのチームに 化学や生物学やライフサイエンスを ちゃんと学んだ経験のある人が誰もいなかったことで しかも たった2週間で やってのけたのです どうして可能だったのか? ディープ・ラーニングと呼ばれる アルゴリズムを使ったのです ことの重大さは 数週間後に ニューヨークタイムズ紙の 一面で取り上げられたことでも 分かると思います 画面の左に出ているのが ジェフリー・ヒントンです ディープ・ラーニングというのは 人の脳の仕組みを参考にしたアルゴリズムで 何が可能かについて 理論的には限界がありません より多くのデータと 処理時間を使うほど より良い結果が得られます

3:59

ニューヨークタイムズは その記事でもう1つ ディープ・ラーニングのすごい事例を 取り上げています それをこれからお見せしましょう コンピューターが人の話を聞いて 理解できることを示すものです

4:11

(ビデオ) このプロセスの 最後に加えたいステップは 実際に中国語で 話させるということです ここで鍵になるのは 中国語話者から得た 膨大な情報を使って 中国語のテキストを 音声に変える 音声合成システムを作り 1時間ほどの 私自身の声のデータを使って そのシステムを調整し まるで私が話しているかのようにする ということです まだ完璧なものではありません たくさんミスをします (音声合成された中国語訳) (拍手) この領域で為されるべきことは まだたくさんあります (音声合成された中国語訳) (拍手)

5:12

これは中国で行われた カンファレンスでのものですが 学会で拍手が 沸き起こるというのは あまりないことです もっともTEDxは もっと自由な雰囲気がありますが ご覧いただいたものはみんな ディープ・ラーニングで実現されました (拍手) どうも 英語の文字起こしも ディープ・ラーニングだし 右上の中国語に翻訳されたテキストも ディープ・ラーニングによるもので 音声の合成にも ディープ・ラーニングが使われています

5:37

ディープ・ラーニングは このようにすごいものです 単一のアルゴリズムで ほとんど何でもできるように見えます この1年前にディープ・ラーニングが 「見る」こともできると知りました ドイツ道路標識認識ベンチマーク という奇妙な競技会で このような道路標識をディープ・ラーニングで 識別できることが示されました 他のアルゴリズムよりも 上手く識別できた というだけでなく このスコアボードにある通り 2位の人間より 2倍高い精度で 識別できたんです 2011年には コンピューターが人よりも 良く見ることができる事例が 生まれたわけです それ以来いろんなことが 起きています 2012年にGoogleが発表したんですが ディープ・ラーニング・アルゴリズムが YouTubeビデオを見て 1万6千台のコンピュータで 1ヶ月 データ処理した結果 コンピューターが「人」や 「猫」といった概念を 自分で学んだということです これは人が学習する方法に 近いものです 人は見たものを 教えられて学ぶよりは むしろそれが何なのか 自分で学んでいくものです 2012年にはまた 先ほど名前の出たジェフリー・ヒントンが 有名なImageNet競技会で 優勝しましたが これは150万の画像を 何の写真か 判別するというものです 2014年の時点で 画像認識の誤り率は 6%までになっています これも人間より高い精度です

6:52

機械はこの面で非常に良い仕事を するようになっており 商業的にも 利用されています たとえばGoogleは 去年フランス国内のすべての番地を 2時間で地図に登録したと 発表しました その方法は ストリートビューの画像を ディープ・ラーニング・アルゴリズムに食わせて 所番地を識別させるというものです かつてなら どれほど時間を 要したか分かりません 何十人掛かりで 何年もかかったでしょう こちらは中国の Baiduによるもので 中国版のGoogle のようなサービスです 左上の画像は 私がBaiduのディープ・ラーニング・システムに アップロードしたものです 下に並んでいるのは システムがその画像を理解して 似た画像を集めた結果です 類似画像は 似たような背景や 似た顔の向きを持ち 同じく舌を出してる ものまであります ウェブページの文章によって 見つけたものではありません アップしたのは 画像だけです 今やコンピュータは 見た物を理解して 何億という画像の データベースから リアルタイムで検索できるまでに なっているのです

7:57

コンピュータに「見る」ことができるというのは どんな意味を持つのか? しかしできるのは 見ることだけではありません ディープ・ラーニングには それ以上のことができます このような複雑で ニュアンスに富んだ文章を ディープ・ラーニング・アルゴリズムは 理解できます ご覧いただいているのは スタンフォード大のシステムですが 一番上の点が赤色になっていて 文が全体としてネガティブな感情を 表していることを示しています ディープ・ラーニングは今や 文章が何について何を言っているのかを 人間に近い精度で 理解できるようになっているのです ディープ・ラーニングは 中国語を読むのにも使われ 中国語のネイティブ話者並の 精度があります これを開発したのは スイスのチームですが その中に中国語の分かる人は いなかったそうです ディープ・ラーニングは これに関して ネイティブの人間にも劣らない 最も優れたシステムなのです

8:47

これは私の会社で 構築したシステムで すべてを組み合わせたものです これらの画像には テキストが紐付けされてはおらず ユーザーが文をタイプすると リアルタイムで画像を理解し 何の画像かを判別して 書き込まれた文に近い画像を 見つけます だから私の書いた文と これらの画像を 同時に理解しているわけです Googleのサイトで 似たものを見たことがあるでしょう 何かタイプすると 画像が表示されますが そこで実際に行われているのは テキストによるウェブページの検索です 画像を理解するというのとは ずいぶん違うことです このようなことが できるようになったのは ほんのここ数ヶ月のことです

9:28

コンピューターには「見る」だけでなく 「読む」こともでき 「聞く」ことによって理解できることも お見せしました そうすると「書く」ことだってできると言っても 驚かないかもしれません これは私が昨日 ディープ・ラーニング・ アルゴリズムで生成したテキストです こちらはスタンフォード大のアルゴリズムで 生成されたテキストです それぞれの画像を 説明する文が ディープ・ラーニング・アルゴリズムによって 生成されています アルゴリズムは「ギターを弾いている黒いシャツの男」を 前に見たことはありません 「男」を見たことはあり 「黒い」ものを見たことはあり 「ギター」を見たことはありますが このキャプションは画像に対して 新しく独自に作り出されたものです 書くことに関してはコンピューターは まだ人間に及びませんが 近づいています テストでは4回に1回は コンピューターの生成した文の方が好ましい — という結果になっています このシステムはできて まだ2週間しかたっていないので このまま行くと たぶん来年中には コンピューターアルゴリズムの成績が 人間を上回るのではと思います だからコンピューターは 書くこともできるのです

10:27

これらをまとめたら 非常に興味深い可能性が開けます たとえば医療です あるボストンのチームは コンピューターによって 医師が がんの診断を する上で役に立つ 何十という腫瘍の特徴を発見したと 発表しました 同様にスタンフォードのグループは 組織の拡大画像を見て がん患者の生存率を 人間の病理医よりも 正確に予想する 機械学習システムを 開発しました どちらのケースも 予測が人間より正確というだけでなく 新たな科学的洞察を もたらしています 放射線医学のケースでは 人間に理解できる 新しい臨床的な指標です 病理学のケースでは 診断において がん細胞だけでなく がんの周囲の細胞も 重要であることを 発見しました これは病理医が 何十年も教わってきたのとは逆です どちらのケースでも システムは 医学の専門家と機械学習の専門家の 組み合わせによって開発されましたが 去年我々はこの面をも 乗り越えました これは顕微鏡で見た 人の組織から がんの領域を 識別する例です このシステムは 人間の病理医と同じか それ以上の精度で がん領域を識別できますが 医療の知識や経験のない チームによって ディープ・ラーニングを使って 開発されました 同様に これは ニューロンの区分けです 今ではニューロンを人間と 同じ正確さで区分けできますが このシステムは医学を 学んだことのない人々が ディープ・ラーニングを使って 開発しました

12:07

医学を学んだことのない人間が 医療の会社を始めるのも もはや変なことではないと思え 実際に会社を作ることにしました そうするのは 怖くもありましたが データ分析技術だけでも 有益な医療サービスは 提供可能であると 理論は示しているように見えます ありがたいことに 大変好意的な反応を受け取っており メディアばかりでなく 医学界の人々も 支持してくれています 私たちは医療の 中間部分を受け持って そこを可能な限り データ分析で置き換え 医師には彼らが最も適した部分をやってもらう というのが基本方針です 例をお見せしたいと思います 新しい医療診断テストの生成には 現在15分ほどかかります それをリアルタイムで ご覧に入れますが 一部をはしょって 3分に縮めてやります 医療診断テストを作って お見せするよりは 車の画像を診断するテストを お見せしようと思います その方が分かりやすいので

13:05

150万の車の画像から 始めます まず写真を 撮った角度によって 分類したいと思います 画像にラベルはまったく付いておらず 一から始めます ディープ・ラーニング・アルゴリズムを使って 写っている構造領域を 自動的に識別することができます これの良いところは 人とコンピューターで協力して作業できるところです ご覧のように 人が関心のある領域を コンピューターに教え コンピューターがそれに基づいて アルゴリズムを改良します このディープ・ラーニング・システムは 1万6千次元空間になっていて その空間の中で 軸を回転させて 新たな構造領域を 見つけようとします それが成功したら 人間が関心のある領域を 指摘します コンピューターがうまく 領域を見つけられました たとえば角度です このプロセスを経ることで どのような構造を 探しているのか 徐々に伝えていきます これが病気の診断であれば 病理医が病的状態にある領域を 識別するとか 放射線医が問題のある可能性のある小結節を示す といったことを想像できるでしょう 時にアルゴリズムには 難しいこともあります 今の場合 コンピューターが混乱して 前部と後部が ごちゃまぜになっています そのため少し注意して 手で前部を後部から 選り分けてやらなければなりません そうやって こんなグループに関心があるのだと コンピューターに 伝えるのです

14:32

こうやって続けていき 少しはしょりますが 機械学習アルゴリズムを 改善させるために 数百の事例を使って 訓練してやります 画像の一部が 薄れていますが これはどう理解すれば良いか 既に認識されたものです それから似たイメージという概念を 使ってやることで コンピューターが 車の前部だけを 見つけられるように なりました そうなったら 人間がコンピューターに その点で上手くできていることを 教えてやります

15:04

もちろんこの期に及んでも ある種のグループを分離するのが 難しいことがあります 今の場合 コンピューターに しばらく回転をさせても 依然として 左側と右側の画像が 混在しています コンピューターにもう 少しヒントをやり 右側と左側を可能な限り 分離できる射影を ディープ・ラーニング・ アルゴリズムを使って 見つけられるようにします そのヒントを与えることで — 上手くいきました 右側と左側を 見分ける方法を どうにか見つけられました

15:37

基本的な考え方を 分かっていただけたと思います これは人間がコンピューターに 置き換えられるという話ではなく — 人とコンピューターが 協力するということです やろうとしているのは これまでは5、6人のチームで 何年もかかっていた ようなことを 1人で15分ほどで できるようにする ということです

16:01

このプロセスには 4、5回の反復が必要です 150万の画像を 62%の精度で 分類できるようになりました そうなったら 大きなセクションを選んで 誤りがないか 素早くチェックできます 誤りがあった場合は コンピューターに教えてやります それぞれのグループについて そういうことを行うことで 150万の画像を 80%の精度で 分類できるようになりました そうしたら 正しく分類されなかった 少数のケースについて その理由を考えます このアプローチを 15分やることで 97%の精度で 分類できるようになりました

16:42

このようなテクニックは 世界の重要な問題を解決してくれるでしょう 世界的な医師不足です 世界経済フォーラムは 発展途上国において 医師が今の10倍から20倍必要で それだけの医師を育てるには 300年かかると言っています ディープ・ラーニングを使って 医療の効率を上げることで 対処するというのは どうでしょう?

17:07

このような機会に 私はワクワクしていますが 同時に懸念している こともあります 地図で青になっている国は 雇用の80%以上が サービス業のところです サービスとは何か? このようなものです これらのことは コンピューターが できるようになりつつあることでもあります 先進国の雇用の80%は コンピューターができるようになったことで 成り立っているのです これは何を 意味するのでしょう? 「他の仕事で置き換えられるから 問題ないよ たとえば データサイエンティストの仕事とか」 と思うかもしれませんが このようなものをデータサイエンティストが構築するのに そう時間はかかりません たとえば今回取り上げた4つのアルゴリズムは 1人の人間によって作られたものです こういうことは 以前にも起き 新しいものが現れては 古い職が新しい職で 置き換えられてきた と言うなら その新しい職は どのようなものになるのでしょう? とても難しい問題です なぜなら人間の能力は 徐々にしか向上しませんが ディープ・ラーニング・ システムの能力は 指数関数的に 向上しているからです 私達がいるのは 追い抜かれる一歩手前です 今は周りを見渡して 「コンピューターはまだ馬鹿だ」 と思っていても 5年もしたら このグラフの天井を突き破ってしまうでしょう 私たちは今この能力について 考える必要があるのです

18:21

前にも似たことは 経験しています 産業革命です エンジンの出現による 能力の急激な変化がありました しかししばらくすると 物事はまた落ち着きました 社会的な変動はありましたが あらゆる場面でエンジンが 使われるようになると 状況は安定したのです 機械学習の革命は 産業革命とは 全然違うものになるでしょう 機械学習の革命は 留まることがないからです より優れたコンピューターが 知的活動を受け持ち それによって 知的活動にさらに優れた コンピューターが作れるようになり 世界がかつて 経験したことのないような 変化を起こすことに なるでしょう 何が起こりうるかについての 以前の知見は 当てはまらないのです

19:01

この影響は既に現れています 過去25年で 資本生産性は増大しましたが 労働生産性は平坦で むしろ少し下がっています

19:12

だから この議論を 今始めて欲しいのです 私がこの状況を 説明しても なかなか真剣に 取り合ってもらえません 「コンピューターには 本当に思考することはできない」 「感情がない」 「詩を理解しない」 「我々は腦の働きを本当に理解してはいない」 などなど だったら何でしょう? 人間がお金をもらい 時間を費やして やっていたことが 機械にも可能になっているんです この新たな現実を踏まえて 社会構造や経済構造を どう調整したら良いか 考え始めるべき時です ありがとうございました (拍手)

コンピューターに学び方を教えた時何が起きるのでしょう? 科学技術者であるジェレミー・ハワードが急速に発展しているディープ・ラーニングの分野で起きている驚くべきことを紹介してくれます。コンピューターが中国語を学び、写真に写っている物を認識し、医療診断をする。(あるディープ・ラーニング・プログラムは何時間ものYouTubeビデオを見た後、「猫」の概念を自ら学び取りました。) この分野の最新動向を押さえておくことにしましょう。それは私達の身の回りのコンピューターの振る舞いを変えることになるでしょうから・・・あなたが思っているよりも早く。

About the speaker
Jeremy Howard · Data scientist

Jeremy Howard imagines how advanced machine learning can improve our lives.

Jeremy Howard imagines how advanced machine learning can improve our lives.