スゲー

参考資料

Enemies – real-time cinematic teaser | Unity

ゲームエンジンのUnityを使用したリアルタイムデモが公開されています。これまでのUnityを使用した映像に比べると、だいぶリアルなルックになってますね。凄い。

https://unity.com/ja/demos/enemies

 

Unityのビジュアルクオリティの水準を高める

Enemies は、ハイエンドで魅力的なコンテンツを作成するための Unity プラットフォームのパワーと能力を示すもので、あらゆるクリエイティブチームがそのビジョンを完全に実現することができます。
リアルタイム3D(RT3D)技術は、クリエイターが求めるビジュアルクオリティや臨場感を実現するために、常に進化を続けています。

 

Unityのデジタルヒューマン

Unity初のリアルなデジタルヒューマンを搭載した「The Heretic」の作業を発展させたのが「Enemies」です。改良点は以下の通りです。

  • より優れた4Dパイプライン
  • GPU上のスキンアタッチメントシステムにより、高密度メッシュを実現(例:桃色毛羽)。
  • 虹彩にコースティクスを適用し、よりリアルな目を実現
  • 新しいスキンシェーダー
  • 血流シミュレーションとしわマップのためのテンション技術により、細かいディテールのためのフェイシャルリグが不要になりました。

 

エネミーを支える技術

High Definition Render Pipeline(HDRP)のすべての機能が改善され、Adaptive ProbeボリュームやScreen Space Global Illumination(SSGI)など、いくつかの新システムが導入されました。
リアルタイム・レイトレース反射、レイトレース環境オクルージョン、NVIDIAのDeep Learning Super Sampling(DLSS)のネイティブサポートにより、デモは4Kでネイティブ解像度並みの画質で実行可能です。

 

ストランドベース・リアルタイム・ヘアソリューション

主人公の非常にリアルな髪のために、DemoチームとUnityのR&Dチームは、ストランドベースの髪のオーサリング、インポート、シミュレーション、レンダリングのための全く新しいヘアソリューションを共同開発しました。
このソリューションは、Alembic形式のデータを出力するすべてのオーサリングツールに対応しています。Enemiesでは、Maya XGenを使用し、Weta Barbershopでパイプラインを検証しています。

 

リリース情報

このデモは、3月23日~25日に開催されるGame Developers Conference(GDC)のUnityブースで紹介され、参加者はスタンドアローンとして、またはUnity Editorで動作させてチェックすることができます。

デモチームは、2022年第2四半期にHairソリューションとアップデートされたDigital Human Packageをリリースする予定です。ご期待ください。

参考資料

NeROIC: Neural Object Capture and Rendering from Online Image Collections

カメラ、照明、背景が異なるオンライン画像から、3Dオブジェクトを作成する技術が発表されています。

https://formyfamily.github.io/NeROIC/

 概要

カメラ、照明、背景が異なる写真から任意の物体の高品質な形状と材料特性を取得し、オンライン画像コレクションから物体表現を取得する新しい方法を提案する。これにより、ノベルビュー合成、再照明、調和的な背景合成など、様々なオブジェクト中心のレンダリングアプリケーションを、困難な実環境の入力から実現することができる。

ニューラルラジアンスフィールドを拡張した多段アプローチにより、まず表面形状を推定し、粗く推定された初期カメラパラメータを改良し、粗い前景オブジェクトマスクを活用して学習効率と形状品質を向上させる。また、ロバストな法線推定技術を導入し、重要なディテールを保持しつつ、幾何学的ノイズの影響を排除する。最後に、表面の材料特性と環境照明を抽出し、球面調和で表現し、鋭い影などの過渡的な要素を処理する拡張を行う。これらのコンポーネントを組み合わせることで、高度にモジュール化された効率的なオブジェクト取得フレームワークが実現する。

広範な評価と比較により、レンダリングアプリケーションに有用な高品質のジオメトリと外観特性を取得する上で、我々のアプローチの優位性が実証されている。

 

オーバービュー

異なる条件の物体画像を入力とし、2段階のモデルを構築する。まず、他の手法で取得した画像のカメラポーズと物体の前景マスクを用いて、NeRFベースのネットワークを学習させることにより、スキャンした物体の形状を最適化し、カメラポーズを改良する。次に、法線抽出層を用いて、形状(密度関数で表現)から表面法線を計算し、最後に、第2段階のモデルにより、各画像について物体の材料特性を分解して照明条件について解決する。

 

新しいビューの合成

共通のオブジェクトのオンライン画像があれば、学習画像の照明条件を用いて、オブジェクトの新しいビューを合成することができます。

 

マテリアル分解

また、キャプチャしたオブジェクトの材料特性(アルベド、スペキュラリティ、ラフネスマップを含む)および表面法線を解くことができます。

リライティング

モデルから生成されたマテリアルプロパティとジオメトリを使用して、さらに新しい照明環境でオブジェクトをレンダリングすることができます。

参考資料

The Matrix is Unreal

先日公開された映画マトリックスを題材にしたUnreal Engine 5 のデモのインタビュー記事が公開されています。

車に人が反射してるなと思ってましたが、リアルタイムレイトレースだったんですね。ネオとトリニティが掛け合うシーンと、街のワイドショットがプリレンダーで他はリアルタイムらしいですが、車内の掛け合いがリアルタイムだったなら凄い。

https://www.fxguide.com/fxfeatured/the-matrix-is-unreal/

1999年、キム・リブレリはマトリックスのオリジナル映画でバレットタイムのスーパーバイザーを務めました。現在、彼はEpic GamesのCTOを務めており、彼とチームはマトリックスに帰ってきたところです。
UE5で示された技術的な進歩と新作「The Matrix Awakens」との驚くべき結びつきで、新しい技術デモAn Unreal Engine 5 Experienceが開始されました。この最先端のショーケースは、PlayStation5とXbox Series X/Sで無料でダウンロードできます。

この境界を越える技術デモは、WarnerBrosのThe Matrix Awakensの世界におけるオリジナルコンセプトピースです。ラナ・ウォシャウスキーが監督・脚本を手がけた、ウィットに富んだ巧妙なシネマティックです。キアヌ・リーブスとキャリー・アン・モスのデジタルバージョンが登場し、二人の俳優がスキャンされて複製され、1999年のネオとトリニティの役をそのまま再現しています。

編注:この体験は映画の一部ではなく、UE5 でできることを紹介するための技術デモです。

 

今週初め、チームにインタビューした際、シニアキャラクターアーティストのLana Lanは、「このプロジェクトは、UE5の進化、優れた芸術性と技術、そしてキャラクターに関する新しいスキャン技術の多くを表しています」とコメントしました。
Epicチームの目標は、新しく進化した技術をすべてテストして押し進め、UE5がクリエイターのために準備万端であることを本当に確認することでした。「学んだことの多くはツールに折り返されると思いますし、また来年にはこの多くをコンテンツサンプルとしてリリースする予定です」と付け加えています。

ゲーム機のダウンロードパッケージは約28ギガで、当初は国内のゲーム機で何ができるかをリアルタイムに見せるためのものです。その後、都市などのアセットパーツは、Epicのメインサイトからダウンロードできるようになり、デスクトップパソコンで探索できるようになる予定です。

 

このプロジェクトには、James McTeigue、Kym Barrett、John Gaeta、Jerome Platteaux、George Borshukov、Michael F Gayが参加し、SideFX、Evil Eye Pictures、The Coalition、WetaFX(旧称Weta Digital)などのパートナーやEpic Games全体のチームと共同しています。

ワコウスキー、リブレリ、ゲータの3人は、3部作の時代からの友人です。「私が Matrix の新作を作ることを彼らに告げると、Epic のサンドボックスで遊ぼうと提案されました」と Wachowski 氏は語ります。「そして、なんということでしょう、このサンドボックスは!」とWachowski氏は言います。

映像はプリレンダリングされた2つのショットを除き、すべてリアルタイムでレンダリングされています。ネオとトリニティが掛け合うシーンと、街のワイドショットの2つです。
これはデータが膨大なため、アセットの読み込みに時間がかかり、体験のテンポが崩れてしまうからです。これらのショット以外は、標準的なゲーム機でリアルタイムにレンダリングされます。

 

デジタルアクター

デモではキアヌ・リーブスとキャリー・アン・モスが、驚くほどリアルなデジタルヒューマンとして演技と肖像画を披露しています。これを実現するためにEpicの3Lateralチームは、Novi Sadのスタジオで俳優の顔の高忠実度3Dスキャンとパフォーマンスの4Dキャプチャを行いました。リーブズとモスはドイツにいたため、セルビアに飛び1日かけて顔と4Dスキャンを行いました。

「EpicのシニアテクニカルアーティストであるPete Sumanaseniは「このプロジェクトは本当にタフでした」CG のキアヌ・リーブスを、本物のキアヌと同じショットに登場させたのです。
ティーザー予告編が公開された直前の1週間、人々はデジタル キアヌを見ているのか、それとも実際の俳優を見ているのか混乱していましたが、ツイッターの驚くべき反応から判断すると、Epicチームは成功したのです。

今でも、人々は何度も映像を見て混乱しています。「初めて見る古いキアヌは、私たち(Epic)が撮影した彼のビデオ撮影でした」とPeteは説明します。「モーフィアスを追って戻ってきた後は、すべてCGバージョンです。同じに見えるように色調補正をしたんだ。
また、鏡に映った映像が見える箇所がありますが、これはUE5でコンプした本物のフィルム映像でした。モーフィアスの最初のショットもCGではなく、その後、若き日のトーマス・アンダーソン(ネオ)が登場するとCGになる。冒頭のアンダーソンが寝ている机のシーンも、オリジナル映画のシーンをリアルタイムに再現したものです。

 

Epicのチームは、さまざまな新しい技術をたくさん使いました。3Lateralチームは、さまざまなスキャンソリューションとシナリオを使用しました。彼らは7台のステレオペアのカメラを搭載したモバイル4Dスキャナーを使用し、このデータは特に価値のあるものであることが証明されました。
また、EpicのCubic Motonチームによって作られたHMC IIリグと、よりクラシックな交差偏光スキャンアレイも使用しました。特に、IO用にキャプチャされたダイアログに対してオフラインで実行されるポーズベースのソルバーを使用したそうです。

しかし、スキャンが進歩しても、CG素材やリグ、そして背景のキャラクターはすべて、現行のMetahumanの技術です。主な違いは、特定の衣装や髪が必要なことです。
例えば、IOは標準的なメタヒューマンの編み込みではない、複雑な髪の手入れをしています。ヘアについては、グルーミングを外部で行い、インポートしています。

オリジナルのミートマイクのプロジェクトに携わっていたアダムは、UEのヘアが時代とともにどのように変化してきたかを説明します。
「Digital Mikeの時はXgenを使用し、小さなジオメトリストリップをエンジンにインポートしました。それ以来、私たちはより良いワークフローとシステムを作るために多くの努力を払ってきました。今ではジオメトリストリップを持ち込むのではなく、スプラインを持ち込んで、そのガイドスパインヘアからヘアが作成されるようになっています。インポートされるとすべてのヘア ダイナミクスが Engine でリアルタイムに生成されます」

 

体験者の台詞はすべて、セルビア滞在時に録音された本人の声です。ほとんどの場合3Lateralのチームは、俳優が言ったセリフの一つひとつを4Dキャプチャーアレイで撮影しました。
メインの台本に加えて、俳優たちはROM(レンジ・オブ・モーション)を行いました。変更されたセリフもありましたが、その場合は機械学習プロセスで顔の動きを推測し、3Lateralのリグを駆動させました。

3Lateral Studioのリードテクニカルアニメーターのマルコ・ブルコヴィッチは「しかし、新しい4Dキャプチャ技術を使ってキャプチャされリファレンスされなかった、カメラの近くで配信されたセリフはありませんでした」と説明しています。

 

主役のキャラクターはルックデヴが多く行われましたが、通常の3Lateral Metahumansがベースになっています。「彼らは他のキャラクターと同じメタヒューマンのフレームワークに基づいており、すべてのLOD(詳細レベル)とすべてのフェイシャルコントロールを担当するシステムは、すべてのキャラクターで同じです」

例えばキャラクターの目は、角膜の膨らみと強膜への移行方法をより正確にモデル化するために、ベースモデルにいくつかの調整を加えた、すべてメタヒューマンの目です。
ベーススキャンはEpic GameのChris Evansの目をベースにしています。Lana Lan 氏は「眼球のさまざまな軸をすべて把握するために、眼科の論文のウサギの穴に入り込みました。チームは目のモデルを作り、それをクリスの目のスキャン画像と比較しました。そこから、キアヌとキャリー・アンの目を正確に表現できるように調整したのです」

 

キアヌのディージングの実現は、より困難なことのひとつでした。Epic Gamesのシニアキャラクターアーティスト、アダム・スカット氏。
キアヌがスキャンを受けるために3Lateralを訪れたとき、彼はメインユニットでの撮影を終えており、髭も剃っていました。しかし、57歳の俳優の若返りは、1999年当時の完璧なリファレンスがなかったため、複雑なものとなりました。「完璧なニュートラルポーズがなく、さらに1999年のユニバーサルキャプチャーを参考にしました」とアダムはコメントします。

オリジナルのマトリックスでは、主要な俳優たちはHDカメラをサイドマウント(9:16)して撮影されました。しかし、Sony F900sのISOの関係で、マルチカメラのパフォーマンスキャプチャーは非常に強い照明を使用していました。「彼は非常に暑く、明るい照明の下にいたので、目を細めていたと思うし、屋外のリファレンスもあったが、サングラスをかけていました」

衣装は実際にトリニティスーツを作ってもらい、モデルに着せました。その後、スキャンしてリファレンスしました。デジタル衣装は、アダム・スカットが担当しました。
「また、ワーナー・ブラザーズから大量のアーカイブを入手し、オリジナル映画のキャリー・アン・モスのリファレンスも用意しました。このリファレンスを使って、Marvelous Designerで彼女の服を作りました」

 

 

メタヒューマン クリエイター

オープンワールドの都市環境には、『MetaHuman Creator』の発売当初に2人いたローンチキャラクターのうちの1人である主人公のIOが登場します。

エクスペリエンスの制作にあたっては、CPU、グラフィックス、パフォーマンスの予算がありました。例えば、CGキャラクターが白地にいるときは背景がないため「レイトレースされたエリアライトをより多く使うことができました」とピートは振り返る。

「一方、車に乗り込むときは、複雑な背景のためにバッジェットを割かなければならなかったので、ライトの数を減らさなければならなかったのです。プロジェクト開始当初は15fpsで動作していましたが、最適化されるにつれてフレームレートが急速に上がりました。4Kテクスチャを多用し、ジオメトリを多用し、Lumenを使い、それ自体にコストがかかり、太陽光のための新しいシャドウマップ技術を使い、もともとすべての限界に挑戦していたのです」

ただし、最終的なエクスペリエンスは、PS5またはXBoxシリーズX / Sで実行されているゲームで何が可能かを示しており、ゲームデザイナーがゲームの通常のメカニズムを実行できるようにするCPUヘッドルームがまだたくさんあります。チームは新しいAAAゲームで実現できることに対して非現実的なデモを作成することを望んでいませんでした。

 

 

ワールドビルディング

サンプルプロジェクトのValleyof the Ancientが、UE5で利用可能な新しいテクノロジーのいくつかを垣間見せたところ、The Matrix Awakens:Unreal Engine5 Experienceは、インタラクティブなデモゲームであり、誰でもリアルタイムで実行できるエクスペリエンスであるため、さらに一歩進んでいます。

すぐにダウンロードしてください。 体験はカットシーン、最初のシューティングゲームのデモセクションで構成され、最後にユーザーは探索できる都市があります。

デモのアクションシーンの多くは、エキサイティングなショットをキャプチャするために街中を車で運転する乗組員から始まりました。 チームはシミュレートされた宇宙を使用して、実写映画製作者が都市を偵察してストーリーを伝えるのに最適な通りを見つけるなど、映画のコンテンツを作成することができました。

テクニカルデモでは、以前に紹介されたUE5の機能であるNaniteとLumenも展示されています。 インタラクティブな追跡シーケンスの後、ユーザーはUE5の仮想化されたマイクロポリゴンジオメトリシステムを使用して、密集したオープンワールドの都市環境を歩き回ることができます。

260 kmの道路、512 kmの歩道、1,248の交差点、27,848のランプポスト、12,422のマンホールが、実際のロサンゼルスのダウンタウンよりもわずかに大きい仮想世界にあります。
さらに、街をドライブしたり歩き回ったりすると、35,000人のメタヒューマンが日常業務を行っているところを通り過ぎることができます。

「確かに、私たちに最も近いものが実際のメタヒューマンであり、遠くにあるものは、メタヒューマンから生成された頂点アニメーションの静的メッシュであるという近接性があります」とLanaLan氏は説明します。

建物は法線マップではなく、Naniteの何十億ものトライアングルでできているため、非常に精細です。 建物にはすべてのディテールが組み込まれているため、ユーザーは任意の建物まで歩いて行き、完全にディテールになっていることを確認できます。

「ジオメトリに含まれるものはすべてモデル化されており、法線マップではありません。 高解像度モデルです」とラナは言います。 平均ポリゴン数は7000kで、建物は1000のアセットで構成されており、各アセットは最大で数百万のポリゴンになる可能性があるため、都市の建物だけを構成する数十億のポリゴンがあります。

街には、ナンバープレートから主要な開発者のショップまで、イースターエッグが用意されています。ラナは宝石店、ピートは何を売っているのか忘れてしまったのです!結局、この街は幅4,138km、長さ4.968kmもあるので、迷子になるのは簡単です。

 

ライティング

Unreal Engine 5 の完全ダイナミック グローバル イルミネーション システム Lumen は、リアルタイム レイトレーシングを活用して、デモのインタラクティブな部分全体でリアルな照明と反射を実現します。
リアルタイム レイトレーシングは、シネマティックな要素にも使用され、キャラクターの美しくリアルなソフトシャドウを生成しています。

ワールド全体の照明は、メッシュ上の太陽、空、放射性マテリアルのみで行われています。数万個ある街灯やヘッドライトの光源は配置していません。夜間モードでは、ほぼすべての照明が、数百万個の発光する建物の窓から照らされています。

このプロジェクトは1年以上前に始まり、60人から100人ほどのアーティストが参加し、多くはリモートで作業していた巨大なものでした。 マトリックスの覚醒 An Unreal Engine 5 Experience はゲームではありませんし、今後ゲームとしてリリースされることもありませんが、この技術デモは、インタラクティブ コンテンツの将来像を示すものであり、最先端のコンソール向けビジュアルの水準を示すものとなっています。

「キアヌ、キャリー、そして私は、このデモの制作をとても楽しみました。Epicのサンドボックスは、実験と大きな夢が大好きな彼らにとって、かなり特別なものです。シネマティック・ストーリーテリングの未来がどうであれ、Epicはその進化に少なからず貢献してくれるでしょう」

この新しい体験の舞台となるのは、広大で探索可能なオープンワールドの都市で、豊かで複雑な世界です。16キロメートル四方のフォトリアルで素早く移動できるこの街には、リアルな住民や交通機関が存在します。

参考資料

The Matrix Awakens: An Unreal Engine 5 Experience

映画マトリックスを題材にしたUnreal Engine 5 のデモがPSStoreで無料公開されています。ゲームっぽい技術デモとしてイベントシーンのガンシューティングとオープンワールド的な街の散策が楽しめます。

下のビデにある冒頭のカーチェイス部分が実写さながらで凄い。街中を歩くモードでは反射や遠くの建物がチラついてゲームだなとわかる感じですが、街がまるごと再現されてて物量が凄いです。コンフィグでカメラの設定いじったり、フィルターや時間を変更したり色々楽しめます。

https://store.playstation.com/ja-jp/product/UP1477-PPSA05753_00-MATRIXUNREALDEMO

参考資料

THE EMMY-WINNING SPECIAL VISUAL EFFECTS OF THE MANDALORIAN: SEASON 2

すごい。

視覚効果スーパーバイザーのリチャード・ブラフが、エミー賞7部門(特殊視覚効果、音響効果、撮影、補綴メイク、スタントコーディネーション、スタントパフォーマンス、作曲)を受賞した「マンダロリアン:シーズン2」の効果の舞台裏を語ります。

ルーカスフィルムのDisney+の大ヒットシリーズは、シーズン2では、シーズン1で達成した画期的な技術的・芸術的成果を基に、伝統的な方法論と常に進歩する新技術を組み合わせました。
ILM StageCraft LED Volumeのサイズも大きくなり、全シーンの半分以上で使用されるようになりました。また、このシーズンでは、ILMの最先端のリアルタイム・シネマ・レンダリング・エンジンである「Helios」がデビューしました。この高解像度、高忠実度のエンジンは、LEDスクリーンに表示されるすべての最終ピクセルレンダリングに使用され、今日のエピソード映画や長編映画の制作でよく見られる複雑なシーンに対して、比類のないパフォーマンスを発揮します。

実用的なクリーチャー・エフェクトは、1977年以来、「スター・ウォーズ」の世界の美学と魅力の重要な一部となっています。シーズン2では、エフェクトチームは100体以上の人形化されたクリーチャー、ドロイド、アニマトロニクスのマスクを実現しました。

実用的なミニチュアとモーション・コントロール・フォトグラフィーは、スケールモデルの船や、ILMのStageCraft LEDボリュームで使用するために作られたミニチュア・セット・エクステンションに再び使用されました。
また、Karthon Chop FieldsのScrap Walkerにはストップモーションアニメーションが使用された。タトゥイーンに生息するグレーター・クレイト・ドラゴンは、コンピュータグラフィックスを駆使して100メートルもの高さを実現し、砂が水のようになる液状化現象を利用して、砂の中をサメのように泳ぎ回るというものでした。

ILMのチームはもちろん、Legacy Effects、Hybride、Image Engine、Important Looking Pirates、Ghost VFX、Lola、Stereo D、Tippett Studios、Base FX、Raynault、Virtuous、Yannixなどのパートナー企業とともに、このショーのために心血を注いでくれたことを感謝します。

この「The Mandalorian: Season 2」の内側を楽しんでいただければ幸いです。

参考資料

Apple Object Capture

AppleがWWDC21で3DキャプチャーAPI「Object Capture」 を発表しました。Object Captureはアングルの異なる複数の画像から3Dモデルを生成する技術です。SDKがダウンロードできる状態のようです。

https://developer.apple.com/videos/play/wwdc2021/10076/

Creating a Photogrammetry Command-Line App
https://developer.apple.com/documentation/realitykit/creating_a_photogrammetry_command-line_app

概要

Object Capture は、ほんの数枚の画像を使用して、現実世界のオブジェクトのリアルな 3D モデルをすばやく簡単に作成する方法を提供します。macOS 用のフォトグラメトリを使用してアセットに命を吹き込む方法を学びましょう。そして、最高品質の結果を達成するのに役立つオブジェクトの選択と画像キャプチャのベスト プラクティスを見つけてください。

リソース

 

 

すでに試してる人もいるみたいです。

https://twitter.com/MikkoH/status/1402136906587070469?s=20

CG News

Unreal Engine 5 早期アクセス リリース

Unreal Engine 5 の早期アクセスがリリースされました。Epic Games Launcherからダウンロードすることができます。

https://www.unrealengine.com/ja/blog/unreal-engine-5-is-now-available-in-early-access

 

この Unreal Engine 5 の早期アクセスビルドは実制作に適したものではありませんが、昨年の発表時に大きな反響があった新機能や、今回はじめて発表する新機能に触れる最初の機会となります。お試しいただける主要な新機能を紹介します。

 

Nanite

仮想化マイクロポリゴン ジオメトリ システムの Nanite で膨大なジオメトリディテールを含むゲームを作りましょう。ディテールの法線マップへのベイクや LOD モデルの手動作成といった時間がかかり面倒な作業はなくなります。

ZBrush のスカルプトからフォトグラメトリスキャンまで、映画品質の数百万ポリゴンのソースアートを直接インポートし、そのアセットを数百万個設置しても、見た目の忠実度を損なわずにリアルタイムのフレームレートを維持しているという様子を想像してみましょう。そんなことは不可能と思いますか?今、これが実現します!

 

Lumen

次は完全に動的なグローバルイルミネーションソリューションの Lumen です。Lumen は動的でリアルなシーンの作成を可能にします。太陽の角度変更、 懐中電灯の点灯、ドアを開く、といった直接ライティングやジオメトリの変更に対して間接光がその場で適応して更新されます。

Lumen によって、ライトマップ UV を作成する必要も、ライトマップのベイクを待つ必要も、リフレクション キャプチャを配置する必要もなくなります。Unreal Editor でただライトを作成し編集すれば、ゲームのコンソールでの実行時の最終結果と同じライティングをその場で確認できます。

 

オープンワールド

私たちはオープンワールドの作成を高速に、簡単に、どのような規模のチームにとっても共同作業が行いやすいものにすることを常に目指しています。最新の成果の一部をお試しください。

まず、World Partition システムはワールドを自動的にグリッドに分割し、必要なセルをストリーミングします。One File Per Actor (1 アクタあたり 1 ファイル) システムによって共同作業が簡単になります。チームメンバーはお互いに足を引っ張ることなく同一のワールドの同一の領域について同時に作業できるようになります。

そしてData Layers によって、一つのワールドについて複数のバリエーションを作成できます。例えば、同じ空間に存在するレイヤーとして、日中のバージョンや夜のバージョンを用意し、ゲームプレイの中で切り替えることができます。

 

アニメーション

アニメーション作成や編集を行うために毎回 Unreal Engine の外で作業をしないといけないのは、時間がかかり大変です。イテレーションを行う障害にもなります。そこで Unreal Engine 5 ではアニメーション向けのツールセットを拡張し強化しました。実際の環境の中で詳細なキャラクターを制作できます。

コントロールリグのようなアーティストが使いやすいツールで、手早くリグを構築し、複数のキャラクターでリグを共有することができます。シーケンサーでポーズを作り新しい Pose Browser でポーズの保存と適用ができます。新しいフルボディ IK で自然な動作を簡単に作成できます。そして Motion Warping を使うことで、単一のアニメーションから様々なターゲットに合わせてキャラクターのルートモーションの位置を動的に調整できます。例えば、様々な高さの壁に対する飛び越えアニメーションを作成できます。

 

MetaSounds

ルックデベロップメントのようなコントロールと柔軟性がオーディオ作成にもあったら良いのに、と思ったことはありますか?UE5 ではオーディオ制作の根本的に新しい方法を提供します。MetaSounds はサウンドソースからオーディオ DSP グラフでの生成とフルコントロールを提供する高パフォーマンスのシステムです。オーディオ レンダリングのすべての面の管理から、次世代プロシージャル オーディオ体験の駆動までを実現します。

MetaSounds は、サウンドにおけるプログラマブルなマテリアル パイプライン、レンダリングパイプラインにあたるようなものです。マテリアルエディタがシェーダーの制作を助けるように、オーディオでプロシージャルなコンテンツ制作が可能になります。動的なデータ駆動のアセット、ゲームのパラメータとサウンド再生のマッピング作成、大幅なワークフロー改善など様々な恩恵があります。

 

エディタ UI とワークフローの強化

リニューアルの時間です!UE5 では Unreal Editor のビジュアルが更新され、ワークフローの効率化、画面デザインの最適化によって、より簡単に、高速に、気持ちよく使えるようになっています。

早期アクセスの新機能の一部を紹介します。コンテンツブラウザを簡単に呼び出したり、非表示にしたりする機能や、エディタタブを折り畳めるサイドバーにドッキングする機能を追加しています。メインツールバーに新しく追加された新規作成ボタンで、ワールドへのアクタ配置も簡単になります。新規プロジェクト作成のワークフローも見直しを行い簡単になりました。

参考資料

UNIGINE 2.14

リアルタイムエンジンUnigine2.14がリリースされました。雲がサクサク動いてるのが面白いですね。手軽に使える感じのエンジンなのかしら。

  • 積乱雲を含むフルセットの雲タイプ
  • 新しい風景ジェネレータ。Sandworm Tool」(製品化対応)
  • .NET Core 5(C# 9)の統合
  • ウォーターシステムのアップグレード:波のスペクトルを正確にコントロール
  • 平面反射プローブ
  • 物理的に正確なビジュアライゼーションのためのライトメーターツール
  • エンジンと物理システムのより安全な実行シーケンス
  • エフェクトごとの品質プリセットシステム
  • アセットパッケージシステム

参考資料

フレーム補間ソフト「Rife-APP」

ディープラーニングを使用したフレーム補間ソフト「Rife-APP」がリリースされました。価格は$ 24.90 以上。

https://grisk.itch.io/rife-app

概要

Dain-Appの後継であるRife-Appは、新しいアルゴリズムを使用してい ます。

Rife-APPはDain-Appの25 倍の速度で動作し、Vram の使用量も少なくて済みます。Nvidiaカードはアプリケーションの速度を向上させることができますが、Dain-Appとは異なりCPU上で実行することもできます(低速)。

Rife-Appは入力されたmp4/gif/webm/etcのフレームを補間して、入力されたFPSの2倍/4倍/8倍にします。