2015年7月11日土曜日

人工知能で何枚かの静止画から動画がつくれるようになるらしいよ、という話。




これすごくないですか。

グーグルのストリートビューがAIを使ってものすごい進化をしていた 
ギズモード・ジャパン
http://www.gizmodo.jp/2015/07/ai.html?utm_source=rss20&utm_medium=rss



グーグルの開発チームが新しい人工知能を開発しているそうです。

いままでストリートビューは、静止画をつなぎ合わせたサービスだったため
利用者は見る角度をかえることはできても、
リアルなヴィジュアルを見ることはできなかったわけです。

それが、この Deep Stereo という人工知能を導入すると
静止画から判断し「そちらを向けば見えるはずの景色」を自動生成するのだとか。
これだけだと僕は、もう、なに言ってるかわかんないなー状態だったので
どうぞ参考動画を参照くださいませ。





開発中のため、まだ処理速度の問題とか画像の荒さとかあるみたいですけど
実用化されたらと考えるだけで面白い。

何枚かの静止画から連結した動画を生成できる、というかんじですかね。
かなりリアルな映像になっているのに驚きます。
光の反射具合までも、視点が変わることによってナチュラルに変わっていくのとかすごい。

VRの技術に組み込まれていくんでしょうかね。
3Dの空間を作るのが、簡単になるってことですしね。



アコースティックな空間で、直接パフォーマンスを届けることを生業とする僕らは
こういったテクノロジーとどうやって共生していくのかを考え始めるべきですね。
現に、舞台芸術にはプロジェクションマッピングや映像が多用され始めて
具体的な大道具みたいなものを削減できてたりしますから。
アニメーションやCGでしか再現できなかった世界観も、
生の舞台に適応できるとなったら、かなり表現の幅が広がります。

反対に、世の中のテクノロジーが進歩していって、
ヴァーチャルな世界観がより普通のものになっていく流れのなかで
あえてよりアコースティックな、アナログなパフォーマンスにこだわってみるというのも
ひとつの共存の仕方だとも思います。


どちらにしても、テクノロジーの存在に無知でありながら
「生がいいんだ」「アコースティックがいいんだ」って主張するのは、
どうにも片手落ちなかんじが僕的にしてしまうので、
ちゃんとアンテナ張っておきたいなと思います。
今年の9月に来日する英国ロイヤルオペラも
プロジェクションマッピング使いまくりですからね。
その潮流のなかで日本のプロダクトとしてはどのポジションをとるのか、
しっかり考えていきたいと思います。(僕が考えても意味ないけど)



0 件のコメント:

コメントを投稿

Related Posts Plugin for WordPress, Blogger...