Video

参考資料

The Third Floor スタイライズドアニメーションに進出

The Third FloorがUnreal Engineを使用したスタイライズドアニメーションに進出するとの記事が公開されています。

https://www.fxguide.com/quicktakes/the-third-floor-move-into-stylized-animation/

 

大手ビジュアライゼーション・スタジオのThe Third Floor(TTF)は、ゲームエンジン技術を利用したハリウッドレベルの様式化されたアニメーション・コンテンツの制作に着手することを発表しています。
同社は、Maya や Houdini などの従来のツールを使用しながら、主に Unreal Engine でのコンポジットとレンダリングを目的とした新しいパイプラインで、ショートデモを開発しました。

The Third Floor の共同設立者兼チーフ クリエイティブ オフィサーの Josh Wassung 氏に、この新しい動きと技術について話を聞きました。
UE4/UE5で仕上げることを目的としていますが、パイプラインは、レイヤーとAOVをFoundry Nukeで仕上げるのと同じように簡単にエクスポートできるように確立されています。ただ、番組によって異なります。パイプラインは、同じアセットとマテリアルで、完成したアニメーション映画、VR体験、またはインタラクティブなプロモーションを制作できるように構築されています。

同社は長年にわたり、撮影やレンダリングの前にシーンをプリビジュアライズするシネマティック・ツールを開発してきました。TTFは、このような初期の視覚的な実験や探求を、映画品質の完成されたアニメーション映画やテレビ番組に変換するプラットフォームを開発しました。ストーリーテラーやディレクターは、TTFのツールを使って、ストーリーボードのようなプリビジュアライゼーションを開発し、共同作業によってそのドラフトを改良し、4K Dolby Visionの完成品シーケンスにすることができるようになったのです。

 

 

Skytribeのショートデモは、これまで手作業で丹念に描かれ、オフラインのコンピュータで1フレームずつレンダリングされていたものと見分けがつかないほどです。

リアルタイム ゲーム エンジンの使用には、反復のスピード、インタラクティブ性、そしてレンダリング品質の向上など、多くの利点がありますが、Josh Wassung 氏は「当社の 30 のパイプライン プロジェクトの半分以上は、現在 Unreal Engine を使用しています」しかし、ハイエンドなゲームワークフローのニーズは、映画やシナリオのパイプラインとは重要な部分でかなり異なるため、TTF は Unreal を中心とした構造を拡張して構築する必要がありました。

 

映画の撮影準備では、ショットをカメラに着せます。映画の現実はショットごとのごまかしがたくさんある。椅子は長いレンズのショットの前景で持ち上げられた方がよく見えるかもしれません。現実世界ではクルーがその下にリンゴ箱を置くかもしれませんが、3Dでは地面から浮いているかもしれません。もちろん、マッチングされたワイドショットでは、このトリックは取り除かれ、視覚的な連続性があるように見える限り観客は何も気にしません。
それに対してゲームのパイプラインでは、世界を構築し、その中をプレイヤーが移動するのが一般的です。小道具はある視点から見たときに、魔法のように位置が変わるわけではありません。そのためTTFではデジタルシーンのスナップショットだけでなく、ショットごと、さらにはテイクごとの撮影を可能にするショット固有のツールやメタデータを開発する必要がありました。
監督は複数のテイクをバリエーションとして撮影し、いつでも以前のバージョンに戻せるようにすることができます。テイクを再読み込みする際には、たとえ後のテイクでアセットが変更されたとしても、その前にあったものと正確に一致させなければならない。

ほかにもいろいろな例があります。TTFは完全に再現可能なパイプラインを提供する必要があります。Josh Wassung氏は過去にゲームエンジンがリアルタイム性能を実現するために、微妙にアスペクトを変更するプロジェクトを経験したことがある。
「あるプロジェクトは素晴らしいものでしたが、通常の3Dアニメーションから来た私には理解不能でした。「アニメーターがキャラクターの足を特定のオブジェクトに乗せると、後で再生したときに足があるときとないときがあるんです。これは、エンジンが本当に重いシーンを最適化しようとしていたためです。数年前のことですが、本当に重いシーンでした。

その他、非リアルタイムの高品質なレンダリングができるなど、カットシーンやマーケティング資料を制作するためのエンジンではすでに広くサポートされています。しかし、TTFは後のNukeコンポジット(複雑なパスやAOVを含む)のために複数のパスをレンダリングしたり、ARやVRなど幅広いメディアオプションに適用するために再利用できる新しいアニメーションツールも構築しています。
ストーリー性のあるアニメーションの場合、レンダリングはすべてUnrealで行われますが、場合によっては一部の作業がNukeで外部的にコンポジットされることがあります。

 

新しいアニメーションツールはこのようなTTF映画製作のコアとなるゲーム技術を多く受け継ぐ一方で、ルックデヴや特に絵画的効果のための複雑なアニメーション専用ツールも開発されているのです。その好例が、キャラクターの顔のシェーディングです。カメラや光源に対する頭の角度によって変化し、かつ伝統的なメディアの絵画的な側面も取り入れているのです。
「私たちにとって重要なことのひとつは、顔の上で交換可能なアーティスティックなスタイルをどう実現するかということでした」とジョシュは説明します。「ダイナミックな照明とブレンドするための"ペイントオン照明"をいかに得るか」これらはTTFがエンジンを使って開発し、すでに素晴らしい既存のビジュアライゼーションの武器に追加した、より芸術的なツールの一部です。

 

TTFチームは『イントゥ・ザ・スパイダーバース』のような、実写と手描きの世界を融合させたスタイリッシュなアニメーションを制作したパイオニアとして、早くからその功績を称えています。技術的にはこれを実現するために、Maya の作業を UE4 とシームレスに行き来できるライブ リンクなどのツールを構築する必要がありました。チームは柔軟に対応しますが、Maya でアニメーションを制作し、アニメーション キャッシュを UE4 にインポートすることが多いそうです。また、強力なラウンドトリップツールを開発し、エンジン内で行われたカメラブロックや編集からの自動アップデートをフィードバックできるようにしました。
「シーン記述と呼ばれるものがあります」と彼は説明します。「私たちは、システムが同期し、エンジンにあるアセットを公開するための独自のコードを書きました。レンダリングするたびに、Mayaで完全に同期されたバージョンが作成されます。「同様のことは、Houdini のエフェクトにも対応しますが、TTF は非常に直感的で触感的なエフェクトのために Engine にインポートされる手描き要素にも同様に対応しています。

 

この新しい最終品質出力パイプラインは、バーチャル・プロダクションにおける TTF の作業への情報提供であると同時に、The Mandalorian のために開発した技術を基に構築されたものです。同社はすでにバーチャルアートデパートメント(VAD)に積極的に取り組んでおり、プロセスを通じてアセットを多様に変化させることができます。ポストプロダクションで2バージョン作るより、プリビズで200バージョン作る方が安上がりで簡単だという考えから、同社は設立されたのです。TTFの文化は変化と実験を奨励することです。しかし、多くの長編アニメーションの現実は、3回の修正というルールである。
「クライアントやアニメーションのディレクターと話をすると、彼らが一番に感じる制約、そして共通の不満は、3回のノートのみということでした」とジョシュは言います。私たちは "変化としての視覚化 "を重視しており、この哲学をアニメーションに取り入れたいと考えています。私たちは、クライアントを3回の修正で終わらせたくありません。私たちは、"ちょっと、この期間だけ "と言いたいのです。私たちは何でも変更することができます。あなたが望むだけ変更したいのです」と言いたいのです。そして、できるだけ早い段階で、高品質のステージに到達できるようにしたいのです」。

参考資料

Enemies – real-time cinematic teaser | Unity

ゲームエンジンのUnityを使用したリアルタイムデモが公開されています。これまでのUnityを使用した映像に比べると、だいぶリアルなルックになってますね。凄い。

https://unity.com/ja/demos/enemies

 

Unityのビジュアルクオリティの水準を高める

Enemies は、ハイエンドで魅力的なコンテンツを作成するための Unity プラットフォームのパワーと能力を示すもので、あらゆるクリエイティブチームがそのビジョンを完全に実現することができます。
リアルタイム3D(RT3D)技術は、クリエイターが求めるビジュアルクオリティや臨場感を実現するために、常に進化を続けています。

 

Unityのデジタルヒューマン

Unity初のリアルなデジタルヒューマンを搭載した「The Heretic」の作業を発展させたのが「Enemies」です。改良点は以下の通りです。

  • より優れた4Dパイプライン
  • GPU上のスキンアタッチメントシステムにより、高密度メッシュを実現(例:桃色毛羽)。
  • 虹彩にコースティクスを適用し、よりリアルな目を実現
  • 新しいスキンシェーダー
  • 血流シミュレーションとしわマップのためのテンション技術により、細かいディテールのためのフェイシャルリグが不要になりました。

 

エネミーを支える技術

High Definition Render Pipeline(HDRP)のすべての機能が改善され、Adaptive ProbeボリュームやScreen Space Global Illumination(SSGI)など、いくつかの新システムが導入されました。
リアルタイム・レイトレース反射、レイトレース環境オクルージョン、NVIDIAのDeep Learning Super Sampling(DLSS)のネイティブサポートにより、デモは4Kでネイティブ解像度並みの画質で実行可能です。

 

ストランドベース・リアルタイム・ヘアソリューション

主人公の非常にリアルな髪のために、DemoチームとUnityのR&Dチームは、ストランドベースの髪のオーサリング、インポート、シミュレーション、レンダリングのための全く新しいヘアソリューションを共同開発しました。
このソリューションは、Alembic形式のデータを出力するすべてのオーサリングツールに対応しています。Enemiesでは、Maya XGenを使用し、Weta Barbershopでパイプラインを検証しています。

 

リリース情報

このデモは、3月23日~25日に開催されるGame Developers Conference(GDC)のUnityブースで紹介され、参加者はスタンドアローンとして、またはUnity Editorで動作させてチェックすることができます。

デモチームは、2022年第2四半期にHairソリューションとアップデートされたDigital Human Packageをリリースする予定です。ご期待ください。

参考資料

Microsoft Office Hub 2.0

最近のMicrosoftはUIが飛び出す形のビデオが多いですね。

参考資料

OMEGA - QUALITY CAMPAIGN

モデリングもレンダリングも綺麗。アニメーションとレンダリグはC4Dっぽいですね。

参考資料

BELLATRIX-SébastienGuérive

CGかと思ったら、結晶化の8Kフィルムだそうです。綺麗ですね。

参考資料

TVアニメ『エスタブライフ グレイトエスケープ』が「PPixel」を制作に初の全面導入

TVアニメ『エスタブライフ グレイトエスケープ』で「PPixel」を全面導入だそうです。従来のソフトウェアでは難しかった手描きのように強弱をつけた線が表現できるらしい。

線が両側に太くなってるのでポストエフェクトベースのラインでしょうか。前髪と後ろ髪の境目のラインや、頭飾りと髪の隙間のラインがよれてるのを見ると、AOやマップで線の太さ制御してる感じですかね。

https://www.ppi.co.jp/news_release/ppipr20220217/

 

株式会社ポリゴン・ピクチュアズ(本社:東京都港区、代表取締役社長:塩田周三)は、TVアニメ『エスタブライフ グレイトエスケープ』を、自社開発のレンダリングソフトウェア「PPixel(ピクセル)」を初めて全面的に導入し、制作したことを発表いたします。

PPixelは、近年多様化する映像表現において独自性のあるルックやスタイル表現の実現を目的に、当社が長年培ったアイデアやノウハウを組み込んで開発してきた、セルルックCG(※注1)スタイルをはじめとするNPR(ノンフォトリアリスティックレンダリング)表現に特化したレンダリングソフトウェアです。

今回、『エスタブライフ グレイトエスケープ』の全てのキャラクターとCG背景をPPixelにより作成しました。キャラクターを形作るラインを、従来のソフトウェアでは難しかった手描きのように強弱をつけた線で表現し、魅力的なキャラクターを完成させました。
また、前髪が透けて眉が見えるといった表現をまとまった一つのレイヤーでおこなえるため、作業の効率化も達成。さらに、高速な処理、レンダリング時間の短縮などにより、自由なカメラワークやダイナミックな動きといったCGアニメーションの利点はそのままに、ハイクオリティな映像を高い生産性で制作することが可能となりました。

なお、今後、当社が制作する他作品においても、それぞれの作品の個性に合わせ、PPixelの新機能の追加開発を迅速におこなえる点も大きな特徴となっています。

引き続き当社は、ハイエンドな映像制作のために、IT技術を効果的に映像制作に活用し、必要なソフトウェアを部分的に自社開発していくことで、独自のCG表現の進化、制作の効率化などを推進して参ります。

※注1:セルルックCGとは、3DCGをセル画(手描き)アニメーションのように表現する手法のことです。

 

A:従来のソフトウェアを使用したキャラクターのライン
B:PPixelを使用したキャラクターのライン
C: PPixelを使用したキャラクターのライン(ラインのみを表示)

単一なラインしか描画できなかった従来に比べ、PPixelではラインにメリハリつき、耳のような複雑な形状も違和感なく表現できている。

 

【PPixelについて】

PPixelはセルルックCGスタイルをはじめとするNPR表現に特化した自社開発のレンダリングソフトウェアです。本ソフトの開発・導入により、独自性の高い映像表現を作り出すとともに、既存の制作パイプラインシステムの融合、NPR表現にフォーカスすることによる処理の高速化、レンダリング時間の短縮などの効率化を実現しています。

PPixelの詳細については過去のプレスリリースをご覧ください。

 

 

参考資料

Pixel Fondue Live Stream | MODO in Japan

Pixel FondueのLive Streamで日本のMODOユーザーの作品が紹介されています。素敵な作品ばかりです、ぜひご覧ください。

参考資料

Deathadder

RazerのマウスDeathAdderの非公式広告ビデオ。レンダリングが綺麗。

昔DeathAdderを使ってましたが、FoundryのmodoフォーラムでRazerの方を見かけるのと、NewTekマウスがたぶんRazer CopperheadのOEMだったり、製品のイメージは悪くないです。

参考資料

The Liberator | Official Trailer

Netflixはアレックス・カーショウの著書「The Liberator」を基に、Trioscopeによるハイブリッドアニメーションで贈る4部作の第二次世界大戦物語「The Liberator」の予告編を公開しました。シチリアの浜辺からダッハウの門まで500日にわたる第二次世界大戦の兵士の旅を描いた作品です。

手描き風のフィルターとCGをミックスした独特の絵になってますね。「EbSynth」のような技術だったりするのかしら?

 

Trioscope enhanced hybrid animation

私たちは「トリオスコープ・エンハンスド・ハイブリッド・アニメーション」と言いましたが、その意味はわからないはずです。新しいタイプのアニメーション、あるいは、少なくともこれまで何となく見てきたタイプのアニメーションの新しい用語だ。予告編でご覧いただけます。

トリオスコープによるハイブリッドアニメーションは、ロトスコープとは大きく異なるのでしょうか?ロトスコーピングは、実写映像を撮影し、その上を手動またはデジタルでなぞることで実現するアニメーションスタイルです。

トリオスコープ・エンハンスド・ハイブリッド・アニメーションは、アニメーションスタジオSchool of Humansが考案したもので、『The Liberator』はその最初のショーケースとなる予定です。School of Humansによると、彼らのアニメーション技術は以下の通りです。

特許出願中の新技術と革新的なプラットフォームにより、鮮やかな3Dグラフィックノベルを実現する、進化したアニメーションイメージの反復です。TRIOSCOPE™ EHAは、人間の顔に写真のようにリアルな感情を与え、キャラクターの動きやアクションに前例のないディテールをもたらします。この独自技術は、TRIOSCOPE℠スタジオのみで発明・利用され、3D CGIペイント環境、実写映像、従来の2Dアニメーションを融合しています。

 

 

他にもインタビューが掲載されてるサイトがいくつかあるみたいです。

 

ザ・リベレーター」のメイキング

https://beforesandafters.com/2020/11/19/a-new-kind-of-animation/

 

Netflixで配信中のGrzegorz Jonkajtys監督による4部作の実写/CGIハイブリッドアニメーション「The Liberator」は、どこか異質な雰囲気を漂わせています。最初は、単にロトスコープアニメーションのプロセスを変えただけだと思うかもしれません。しかし、よく見ると、演技の細部や感情がとてもよくわかるのです。

befores & aftersは、米国Trisoscope Studiosと共同でこのシリーズを制作したポーランドのスタジオJuiceに、この表情と感情がどのように作られたのかを聞いてみることにした。実写からアニメーションへの具体的なワークフロー(「Trioscope Enhanced Hybrid Animation」と呼ばれる)は今のところ伏せられていますが、このシリーズの制作に何が関わっているのか、掘り下げてみました。

 

b&a 通常の実写映画やアニメーション映画と比較して、『リベレーター』ではどのような点が異なりましたか?

ミハエル・ミシンスキー(アートディレクター、セカンドユニットディレクター)。最初から、コミック・ブックのスタイルにリアルな感情を取り入れることを心がけています。撮影現場には実際に演じている人がいるんですよ。そのうえで、コミックのようなスタイルを加えることができたのです。これは、何か新しいものを生み出すものであり、ユニークなものです。というのも、感情を損なわないようにするために、顔をクロスハッチングで覆ったり、スタイライズしたりと、何度もテストを繰り返したからです。

マルコ・ザリッチ(視覚効果スーパーバイザー)。技術的な観点から言うと、実写で撮影した後、何らかのCGを組み込む場合、CGの部分は実写によって、照明条件や環境条件によって、すべてのニュアンスを一致させる必要があるのです。しかし、今回は舞台で撮影し、それを自分たちの好きなように演出し、さらに実写とCGをそのスタイルに合わせる必要があり、最終的にこのようなルック&フィールになりました。

マンガを見ると、手前にいる全員を意図的に強調することがありますが、映像が奥に行くにつれて、細部がどんどん見えなくなってきて目立ちますよね。そこで、技術的な観点から、通常のCGの世界から来た私たちは、このバランスを見つける必要がありました。ディテールをどこで止めるか。これは非常にリアルなものである、あるいは非常にリアルな建物や小道具である、といった細い線はどこにあるのでしょうか?同時に、グラフィカルで、まるでコミックを読んでいるような感覚を与える必要があります。しかし、同時に、リアルに見える必要があります。同じ世界の一部であるかのように見える必要があるのです。

 

b&a: 従来のロトスコープアニメーションとの違いは何ですか?

マルコ・ザリッチ 従来のロトスコープ・アニメーションでは、例えば『スキャナー・ダークリー』のように、フレームごとにペイントしたり、半自動的に顔を認識させたりしますよね。そうすると、最終的なルック&フィールは、ちょっと平板なものになってしまうんです。
Trioscopeが開発したのは、もう少しプロシージャルに近いものです。そのため、通常のロトスコープアニメーションでは見られないような、ニュアンスや演技、微妙なディテールをすべて得ることができます。非常に存在感があり、ステージでの演技が原動力になっています。私たちは実際に彼らの演技を使い、他のすべてがそれによって動かされているのです。ですから、最終的なルックは、撮影中に俳優がどのように振る舞うかに大きく依存します。

 

b&a: 撮影現場では、メイクアップ、衣装、小道具が様式化されていました。そのために何をしたのか、どこまでスタイライゼーションが必要だったのか、少し教えてください。

ミハエル・ミシンスキー:基本的に、すべてにラインアートを加える必要がありました。顔には線を入れました。ワードローブにも同じような線があります。この線は、コミックブックのようなスタイルからきています。セットは感情にあまり関係しないので、実はそれほど問題ではありません。だから、できる限りペイントを施しましたが、ここでの鍵は顔でした。

 

b&a: ブルースクリーンのセットをたくさん使っていますね。どのようにして、どの程度のセットを作る必要があるかを決定したのですか?
ブルースクリーンにするかグリーンスクリーンにするかは、どのように決定したのですか?

マルコ・ザリッチ: ブルー・スクリーン/グリーン・スクリーン、ここでの決定は厳密に実用的な理由によるものでした。私たちは第二次世界大戦のドラマを撮影しており、つまり90%のユニフォームはグリーンかグレーなのです。
ですから、ブルー・スクリーンは当然の選択でした。セットの小道具は、特定のテーブルや椅子、銃や武器など、俳優が扱う必要のあるものに限定するようにしました。それ以外はすべてCGで作り込んだので、私たちが望むように自由に解釈することができました。

外装に関しては、さまざまなプラットフォームやブルーボックス、セットを作りました。だから、下り坂を走るときは、実際に下り坂を走っていたんです。それから、セットには面白いものがありました。発泡スチロールで作った青い石がたくさんあって、役者がどう振舞うかわかるように、置き石のようなものでした。それが、倒れたり、とても軽い小道具なので、かなりのスピードであちこちに飛んでいったんです!(笑)。

このように、技術全体が新しいものだったのです。本物の小道具を使うことの限界と、CGを使うことの限界を理解するまで、私たちは何度も試行錯誤を繰り返しました。例えば、そのひとつが水です。水とのインタラクションは初日から頭痛の種でしたが、どうすればいいのかがわかりました。何をしたかを正確に明かすことはできませんが、撮影中のステージの中から1つ課題を挙げるとすれば、それは間違いなく水とのインタラクションです。

 

b&a:ブルースクリーンのステージで撮影し、多くの作業をポストプロダクションで行う必要がありましたが、このプロセスの中で、ライブコンプやバーチャルプロダクションのアプローチなど、撮影現場でリアルタイムにフィードバックを得られるような部分はありましたか?

ミハエル・ミシンスキー :それは可能ですが、発展させるには時間がかかります。4つのエピソードはすべてプリビズで撮影され、このプリビズによって、何カット撮影するか、どのようにカメラをセットアップするか、そういったことがわかります。
しかし、今後の制作では、バーチャルスタジオがフィードバックを得るための鍵になります。ブルースクリーンに大勢の兵士を登場させ、これが戦争であるかのように見せかけなければなりません。ブルースクリーンの中で走り、叫び、銃を撃つ姿は滑稽に見えます。ですから、将来的には、リアルタイムでのプレビューを実現したいと考えています。