Return to the talk Return to talk

Transcript

Select language

Translated by Tomoshige Ohno
Reviewed by Akiko Hicks

0:14 今日お話するのは我々が現在オックスフォードで 開発中の技術のことで コンピューターゲームやハリウッド映画の 制作法を変えると考えています その技術とは人間シミュレーションです 模擬人体とその体をコントロールする 模擬神経システムを持った シミュレートされた人間です さて その技術についてお話する前に 現在のゲームの人間のキャラクターは どんなものなのかちょっと見てみましょう 『グランド・セフト・オート3』というゲームのクリップです 昨日ちょっと見てみましたが ご覧の通りとてもよく出来たゲームです 今までで最も成功したゲームの一つでしょう しかしお気付きの通り このゲームの アニメーションは繰り返しばかりです どれも 同じに見えます キャラクターを壁に 何度も何度もぶつけてみましたが ご覧の通り常に同じ動きをします その理由はキャラクターが 本物の人間ではないからです これは人物を視覚化した グラフィックでしかありません

1:15 これらのアニメーションを作るために スタジオのアニメーターは 実際にゲーム中で何が起こるかを予測し その一連の流れを アニメーション化しなければなりません つまり机上でアニメーションを作る時 何が起こるのか予測する事で このようなアニメーションがゲーム内の 適切なタイミングで再生されるのです この方法では真にインタラクティブな ものにはなり得ず 得られるのは妥当なタイミングで再生される アニメーションに過ぎません その結果 思ったように意外性のある ゲームにはなり得ないのです キャラクターに限っていえば 組み込んだものしか出てこないのですから 何か新しい物が出てくるわけではありません

1:58 第三に 先述の通り アニメーション全体で 繰り返しが多いのも このためです これを解決する唯一の方法は 実際に人間の体をシミュレーションし 体をコントロールする脳神経系の一部を シミュレートすることです 違いを説明するために ちょっと実演してみます 見ればすぐにわかりますから クリスをこんな感じにちょっと押すと 彼はそれに反応します 別の角度から押してみるとまた違った反応をします それは彼に体が物理的に備わっていて その体をコントロールする運動機能を 持ち合わせているからです 当たり前なことなんです 現在まだこれはゲームに使われていません ありがとう クリス・アンダーソン: 終わり?

2:37 トーステン・レイル: はい 終わりです これを クリスだけに限らず人間全般で シミュレートしようとしているわけです これを クリスだけに限らず人間全般で シミュレートしようとしているわけです この研究をオックスフォード大で 進めているわけですが まずは簡単なところから 棒人間に歩き方を教えることから始めました この棒人間は物理的刺激を受けています スクリーンでご覧下さい 重力の影響を受けたり 関節があったりします シミュレーションを行うだけだと こんな感じに転んでしまいます ここに人工知能の 制御装置を組み込んで これを上手く動かそうというわけです そのために我々はニューラルネットワークを用います 背骨にある神経系の一部に基づいており 人間の歩行を制御します 中枢パターン発生器と呼ばれるものです これもシミュレートしました ここで 厄介なのは このネットワークに歩行を教える事です そのために我々は人工的な進化を取り入れました 遺伝的アルゴリズムです

3:28 これについては昨日 話があったので 皆さんご存知かとは思いますが 簡単に概念をご説明しますと はじめに多数の互いに異なる個体 -- この場合はニューラルネットワークを -- ランダムに生成します そしてこれらを仮想筋肉に繋げ-- ここでは この2本足の動物のですが-- 何か面白い事が起こるのを待つわけです 最初はつまらない事ばかりです ほとんどは動きすらしないでしょう しかし動き出すものもあるかもしれません そのような個体はアルゴリズムにより選ばれ 突然変異と交叉を交えて複製し 交配もさせます このプロセスを 歩く個体が得られるまで 何度も何度も繰り返します この場合 このように真っ直ぐ歩くまでです これが背景となるアイデアです 研究初期のある晩 シミュレーションを立ち上げ 3~4時間程 実行しました 翌朝起きてコンピュータのところに 結果を見に行きました 一つくらいは真っ直ぐに歩いていてくれ と期待しながらです ちょうど今やってみたように すると得られたのはこれでした

4:27 (笑)

4:37 ふりだしに戻ってしまいました 試行錯誤を重ねて 最終的には 歩かせることができました これは進化過程の成功例です これから単純な二足動物が 人工進化を用いて 歩き方を学習していく様子をご覧頂きましょう 最初は全く歩くことはできませんが 時間とともに改善されていきます これは全く歩けないものです

5:04 (笑)

5:10 5世代分の進化過程を適用すると 遺伝的アルゴリズムはほんの少しだけ良くなっていきます

5:16 (笑)

5:24 第10世代では幾分かはマシになりますが 歩けるようになったわけではありません しかし 第20世代を過ぎた段階では 転ばずに真っすぐ歩くようになります 我々にとって大きな進歩でした 学問的に極めて難しいプロジェクトでしたが この段階まで来ると他のことにも このアプローチが使えるだろうと確信できました 人体をシミュレートするのに 神経系の必要な部分を シミュレートできるはずです ここまで来ると ゲームやネット上の世界で どう使えるか楽しみにもなります これはキャラクターが立っていて その行く先に障害物を配置した様子です このキャラクターが障害物に つまずく様子をご覧頂きましょう 面白いことに障害物を右にずらすと ここでやってみますが 全く異なる転び方をします 再び障害物をずらしてみると また違ったように転びます

6:28 (笑)

6:30 上部に表示されているのは 神経の活性化の一部が仮想筋肉に 送られている様子です 以上ビデオでした ありがとうございました 当然のようでもこれが重要なのは インタラクティブなものや仮想世界で まだ実用化されていないからです この段階で我々は会社を設立し さらに先へ進むことにしました ごく簡単な二足動物で始めたものを 人間の体全体でしたかったのです 我々は会社を立ち上げ 物理学者 ソフトウェアエンジニア 生物学者を雇ってチームを結成し これに取り組みました 最初にしなければならなかったのは 基本的には人間の体を作ることです 通常のコンピューター上で使えるよう 処理スピードが重要ですが 見栄えを考えると 精度も大切です

7:14 我々は 生体工学の知識を注ぎ込み できるだけ現実に近付けようと試みました 今スクリーンでご覧頂いているのは その体をシンプルに視覚化したものです ちなみに髪や服などを 付け足すことも容易ですが ここではシンプルなモデルを使い 動作に集中できるようにしました では このキャラクターをちょっと押して 何が起こるのか見てみましょう とりたてて面白いことは起こりません 転び方も まるでぬいぐるみの人形です その理由は知能を持っていないからです 人工知能を組み込むと面白くなります このキャラクターは上半身の運動スキルを 身に付けています この段階では脚にはまだですが もう一度押してみましょう このキャラクターは 押されていることを自律的に認識し 手を突き出します 転ぶ方に体をひねって 地面に手をつこうとします ご覧の通り

8:21 下半身にもAIを組み込んでみると 更に面白いことが起こります ここでは同じキャラクターを使いますが 前よりも少し強く押してみます クリスを押したのよりも強く このキャラクターは画面向かって左から押されます 数歩後ずさりながら バランスを取ろうとして 着地するであろう場所を見たのが お分かり頂けたでしょう ではもう一度 最終的には地面に倒れます 私が今やってみせたように このキャラクターを 別の方向に押してみると さらに面白くなります 現在 このような事はできません 今ゲームで使われているのは 空っぽのCG だけです ここに実際のシミュレーションが あるのでお見せします

9:12 先ほどお見せしたのと同じキャラクター 同じ動作ですが 今度は別の方向から押してみましょう まずは右から ちなみに何が起こっているのか見れるように 全てスローモーションとなっています では角度を少し変えてみると 違う反応をするのがお分かり頂けるでしょう もう一度 今度は正面から押してみましょう そうすると また違う転び方をします では左から するとまた違う転び方 我々はこれを見て感動しました こんなの見たことはなかったからです これを今回初めて皆さんにも見ていただきます ずっとステルスモードでやってきましたので まだ誰にも見せていないのです 面白いものがあります このキャラクターを-- 木製バージョンですが同じAIを持っています-- 氷のようなすべりやすい表面に置いたらどうなるでしょう ネタとしてやってみました

10:05 (笑)

10:06 こうなりました

10:08 (笑)

10:11 (拍手)

10:14 特別に何かをする必要は無く 先ほどのキャラクターを つるつるした所に置くと 自然とこうなるのです これがこのアプローチの素晴らしさです 映画スタジオやゲーム会社に行って この技術を見せたところ とても良い反応が得られました 彼らによると 今すぐ必要なのは 仮想スタントマンだそうです スタントは非常に危険なので 多額の費用がかかる上 実際には行えないスタントシーンも多数あります スタントマンに大怪我をさせるわけにはいきません ですので仮想スタントマンが 必要とされているのです ここ数ヶ月それに取り組んできました これが初作品で 数週間のうちにリリース予定です 男がただ蹴られるだけの 単純なシーンを用意しました 依頼されたとおりに 作っただけです

11:01 (笑)

11:08 ご覧の通り常に反応しています まるで生きているかのように この体はこの場合力を感じ取り 頭を守ろうとします とても大きな衝撃だろうと思います 皆さんは同情するかもしれませんが 我々は何度も繰り返して来たので 誰も気にしなくなりました

11:24 (笑)

11:25 もっとひどいビデオもあるんですが ここではお見せしません これは別の例 依頼された動作は 爆発により 大きな力がキャラクターにかかったときの 空中でキャラクターがどう反応するかです 必要なのは ぐにゃぐにゃのキャラクターではなく 空中ではまるで生きているかのように見え アクション映画でそのまま使えるキャラクターです このキャラクターが吹き飛ばされると 空中にいるのだと認識し 着地する方向へ 手を突き出そうとします さっきとは違う角度から これだけリアルであれば 映画でも十分使えます

12:05 少し違うのも見てみましょう 我々のソフトウェアを試験的に使っている ロンドンのアニメスタジオから 昨日届いたばかりです 先ほど見たものと全く同じ動きですが より高品質にレンダリングされています キャラクターをよく見てみると 体のあちこちが動いていますが これを動画化する必要はありません 従来はアニメーターが動画化したものです 全てシミュレーションにより自動的に作られます では少し違う角度から もう一度スローモーションで見てみましょう とても高速です リアルタイムに シミュレートされています 目の前でリアルタイムでシミュレーションを走らせ 必要に応じてその場で修正することもできます そのような作業は手作業だと 数日かかってしまうでしょう

12:54 これはリクエストを受けたもう一つの動作です 用途は不明ですが ともかく作ってみました このアプローチの有用性を証明する 単純な動作です この場合 キャラクターの手は 空間中のある点に固定されていて キャラクターに命令したのは もがくことだけです 自然かつリアルに見えます 可哀想にさえ感じてしまいます これはもっとひどいもの 昨夜届いたばかりのビデオですが__ よりリアルにレンダリングされています

13:22 これをお見せしたのは 自然さやリアルさを体感して頂くためです 全身を物理シミュレーションで再現し AIで筋肉を仮想的に動かしました ここで1つネタとして 少し複雑なスタントシーンを作ってみました ジェームス・ボンドがスイスのダムへ飛び込み バンジージャンプをする 有名なシーンです ごく短い動画ですが

13:53 ご覧頂きましょう 映画では実際のスタントマンが使われました とても危険なスタントでした Sunday Timesだったと思いますが 最も印象的なスタントに選ばれました 我々の作ったキャラクターを見て思いました 「我々にもできるだろうか?」とね キャラクターの物理シミュレーションと 人工知能を用いて その人工知能をキャラクターに組み込み 仮想的な筋肉を動かし ダムに飛び込む様をシミュレートして そのあとスカイダイビングをさせた上で バンジーのコードに引っかからせるのです やってみました シミュレートするのに 全体で2時間程しか かかりませんでした こうなりました どうぞ まだまだ改善の余地があります これはまだ初期段階に過ぎません 単にできるかどうかを確認するために あくまでネタとして用意しただけですしね しかしここ数ヶ月で分かったのは 我々が標準として用いているこのアプローチは 信じられないほど有用だということです シミュレーションの出来に自分でも驚いています 全く予想しなかった動作をすることも珍しくありません

14:58 他にも可能性は多数あります 1つは先ほどお話した仮想スタントマンです 現在このソフトウェアを使って 仮想スタントマンを作っているスタジオもあり これを使ったメジャーな映画の作品が 幾つか間もなく公開される予定です 2つ目はテレビゲームです この技術を用いればテレビゲームはガラッと変わります 真にインタラクティブに反応するキャラクターが 初めてゲームに登場するわけです 本当に面白くなると思います おそらく始めはスポーツゲームで よりインタラクティブになることでしょう しかし個人的には 例えばトム・メルヒャーがやってくれたように この技術をオンラインの世界で使うと 面白いのではないかと思います インタラクティブ性は現在よりも 格段に向上するのではないかと思います

15:43 3番目に我々が興味を持っているのはシミュレーションです シミュレーション会社 数社に アプローチされましたが 中でも特に楽しみなのが 来月開始予定のプロジェクトで 我々の技術 特に歩行技術を使用して 脳性小児麻痺の術後経過を予測することで 小児外科医の補助をしようというものです 恐らく皆さんご存知でしょうが うまく歩けるように治療を施してみても 手術の結果を予測するのは大変困難です

16:11 古くからの格言にもこうあります いくら頑張っても予測は不可能 結果について皆こう考えています 我々のソフトウエアを使って 外科医のツールを作りたいのです 我々の作る 特定の子供の歩行の シミュレーションを使って 医者は実際に手術を行う前に 歩行を改善する様々な方法を 試す事ができます 歩行を改善する様々な方法を 試す事ができます このプロジェクトはとても楽しみで 来月開始する予定です 最後に申し上げますが これは初めの一歩でしかありません まだ 行える動作に限りがあります 人体を完全にシミュレートするには AI はまだ不十分なのです 体については問題無いのですが 全ての運動技能の再生は無理なのです バレエのような動きができて初めて うまくいったと言えると思います 現在はまだ そこまで行っていませんが いつかはそれが可能になると確信しています

16:56 実は偶然生まれたダンサーを 最後にお見せします AIにより生成された輪郭で 進化により — 厳密には半進化と言うべきですが — バランスをとるように 作られました ですので キックすると逆方向にバランスを保とうとします そうなるはずと思っていましたが 結局得られたのはこれでした

17:16 (音楽)

17:26 なぜか頭はついていません これは我々が組み込んだものではなく このキャラクターが勝手に作ったダンスです ちなみに 私よりダンスは上手いようです しばらく見ていると 最後にクライマックスまで演出しています おそらく — 始まりますよ

17:51 (笑)

17:53 全く自動的に発生したもので 我々ではなくシミュレーションが ダンスを創作したのです ですので —

18:00 (拍手)

18:01 ありがとう まだジョン・トラボルタとは行きませんが それにも取り組んでいます ご清聴ありがとうございました ありがとう

18:10 (拍手)

18:11 CA: 素晴らしい 実に素晴らしい

18:13 TR: ありがとう