Unreal Engine

参考資料

The Third Floor スタイライズドアニメーションに進出

The Third FloorがUnreal Engineを使用したスタイライズドアニメーションに進出するとの記事が公開されています。

https://www.fxguide.com/quicktakes/the-third-floor-move-into-stylized-animation/

 

大手ビジュアライゼーション・スタジオのThe Third Floor(TTF)は、ゲームエンジン技術を利用したハリウッドレベルの様式化されたアニメーション・コンテンツの制作に着手することを発表しています。
同社は、Maya や Houdini などの従来のツールを使用しながら、主に Unreal Engine でのコンポジットとレンダリングを目的とした新しいパイプラインで、ショートデモを開発しました。

The Third Floor の共同設立者兼チーフ クリエイティブ オフィサーの Josh Wassung 氏に、この新しい動きと技術について話を聞きました。
UE4/UE5で仕上げることを目的としていますが、パイプラインは、レイヤーとAOVをFoundry Nukeで仕上げるのと同じように簡単にエクスポートできるように確立されています。ただ、番組によって異なります。パイプラインは、同じアセットとマテリアルで、完成したアニメーション映画、VR体験、またはインタラクティブなプロモーションを制作できるように構築されています。

同社は長年にわたり、撮影やレンダリングの前にシーンをプリビジュアライズするシネマティック・ツールを開発してきました。TTFは、このような初期の視覚的な実験や探求を、映画品質の完成されたアニメーション映画やテレビ番組に変換するプラットフォームを開発しました。ストーリーテラーやディレクターは、TTFのツールを使って、ストーリーボードのようなプリビジュアライゼーションを開発し、共同作業によってそのドラフトを改良し、4K Dolby Visionの完成品シーケンスにすることができるようになったのです。

 

 

Skytribeのショートデモは、これまで手作業で丹念に描かれ、オフラインのコンピュータで1フレームずつレンダリングされていたものと見分けがつかないほどです。

リアルタイム ゲーム エンジンの使用には、反復のスピード、インタラクティブ性、そしてレンダリング品質の向上など、多くの利点がありますが、Josh Wassung 氏は「当社の 30 のパイプライン プロジェクトの半分以上は、現在 Unreal Engine を使用しています」しかし、ハイエンドなゲームワークフローのニーズは、映画やシナリオのパイプラインとは重要な部分でかなり異なるため、TTF は Unreal を中心とした構造を拡張して構築する必要がありました。

 

映画の撮影準備では、ショットをカメラに着せます。映画の現実はショットごとのごまかしがたくさんある。椅子は長いレンズのショットの前景で持ち上げられた方がよく見えるかもしれません。現実世界ではクルーがその下にリンゴ箱を置くかもしれませんが、3Dでは地面から浮いているかもしれません。もちろん、マッチングされたワイドショットでは、このトリックは取り除かれ、視覚的な連続性があるように見える限り観客は何も気にしません。
それに対してゲームのパイプラインでは、世界を構築し、その中をプレイヤーが移動するのが一般的です。小道具はある視点から見たときに、魔法のように位置が変わるわけではありません。そのためTTFではデジタルシーンのスナップショットだけでなく、ショットごと、さらにはテイクごとの撮影を可能にするショット固有のツールやメタデータを開発する必要がありました。
監督は複数のテイクをバリエーションとして撮影し、いつでも以前のバージョンに戻せるようにすることができます。テイクを再読み込みする際には、たとえ後のテイクでアセットが変更されたとしても、その前にあったものと正確に一致させなければならない。

ほかにもいろいろな例があります。TTFは完全に再現可能なパイプラインを提供する必要があります。Josh Wassung氏は過去にゲームエンジンがリアルタイム性能を実現するために、微妙にアスペクトを変更するプロジェクトを経験したことがある。
「あるプロジェクトは素晴らしいものでしたが、通常の3Dアニメーションから来た私には理解不能でした。「アニメーターがキャラクターの足を特定のオブジェクトに乗せると、後で再生したときに足があるときとないときがあるんです。これは、エンジンが本当に重いシーンを最適化しようとしていたためです。数年前のことですが、本当に重いシーンでした。

その他、非リアルタイムの高品質なレンダリングができるなど、カットシーンやマーケティング資料を制作するためのエンジンではすでに広くサポートされています。しかし、TTFは後のNukeコンポジット(複雑なパスやAOVを含む)のために複数のパスをレンダリングしたり、ARやVRなど幅広いメディアオプションに適用するために再利用できる新しいアニメーションツールも構築しています。
ストーリー性のあるアニメーションの場合、レンダリングはすべてUnrealで行われますが、場合によっては一部の作業がNukeで外部的にコンポジットされることがあります。

 

新しいアニメーションツールはこのようなTTF映画製作のコアとなるゲーム技術を多く受け継ぐ一方で、ルックデヴや特に絵画的効果のための複雑なアニメーション専用ツールも開発されているのです。その好例が、キャラクターの顔のシェーディングです。カメラや光源に対する頭の角度によって変化し、かつ伝統的なメディアの絵画的な側面も取り入れているのです。
「私たちにとって重要なことのひとつは、顔の上で交換可能なアーティスティックなスタイルをどう実現するかということでした」とジョシュは説明します。「ダイナミックな照明とブレンドするための"ペイントオン照明"をいかに得るか」これらはTTFがエンジンを使って開発し、すでに素晴らしい既存のビジュアライゼーションの武器に追加した、より芸術的なツールの一部です。

 

TTFチームは『イントゥ・ザ・スパイダーバース』のような、実写と手描きの世界を融合させたスタイリッシュなアニメーションを制作したパイオニアとして、早くからその功績を称えています。技術的にはこれを実現するために、Maya の作業を UE4 とシームレスに行き来できるライブ リンクなどのツールを構築する必要がありました。チームは柔軟に対応しますが、Maya でアニメーションを制作し、アニメーション キャッシュを UE4 にインポートすることが多いそうです。また、強力なラウンドトリップツールを開発し、エンジン内で行われたカメラブロックや編集からの自動アップデートをフィードバックできるようにしました。
「シーン記述と呼ばれるものがあります」と彼は説明します。「私たちは、システムが同期し、エンジンにあるアセットを公開するための独自のコードを書きました。レンダリングするたびに、Mayaで完全に同期されたバージョンが作成されます。「同様のことは、Houdini のエフェクトにも対応しますが、TTF は非常に直感的で触感的なエフェクトのために Engine にインポートされる手描き要素にも同様に対応しています。

 

この新しい最終品質出力パイプラインは、バーチャル・プロダクションにおける TTF の作業への情報提供であると同時に、The Mandalorian のために開発した技術を基に構築されたものです。同社はすでにバーチャルアートデパートメント(VAD)に積極的に取り組んでおり、プロセスを通じてアセットを多様に変化させることができます。ポストプロダクションで2バージョン作るより、プリビズで200バージョン作る方が安上がりで簡単だという考えから、同社は設立されたのです。TTFの文化は変化と実験を奨励することです。しかし、多くの長編アニメーションの現実は、3回の修正というルールである。
「クライアントやアニメーションのディレクターと話をすると、彼らが一番に感じる制約、そして共通の不満は、3回のノートのみということでした」とジョシュは言います。私たちは "変化としての視覚化 "を重視しており、この哲学をアニメーションに取り入れたいと考えています。私たちは、クライアントを3回の修正で終わらせたくありません。私たちは、"ちょっと、この期間だけ "と言いたいのです。私たちは何でも変更することができます。あなたが望むだけ変更したいのです」と言いたいのです。そして、できるだけ早い段階で、高品質のステージに到達できるようにしたいのです」。

参考資料

Project Titan

Houdini のプロシージャルワークフローをUnreal Engine 5でテストするインハウス技術デモで「Project Titan」のページが公開されています。

https://www.sidefx.com/ja/titan/

PRODUCTION TECH DEMO

Project TitanはHoudini のプロシージャルワークフローを実制作環境でテストするためのインハウス技術デモで、3D 環境の生成に Unreal Engine 5 の最新テクノロジを活用しています。このデモ用に作成されたツールとテクニックは、学習資料やダウンロード可能なコンテンツとしてコミュニティに共有されます。

プロシージャルツールのサポートのため、 Kitbash3D によるジオメトリが大きな役割を果たし、Houdini ツールで再構成するテクスチャモデルを提供しています。

 

UNREAL ENGINE 5 PLUGIN | ALPHA

Unreal Engine 5 用の Houdini Engine は、対応すべき公式の UE5 リリースが未だのため、Houdini にはまだ付属しておりません。
試用には、Githubで取得し、最新の UE5 コミットに対し、手動でビルドする必要があります。

https://github.com/sideeffects/HoudiniEngineForUnreal/tree/Houdini19.0-Unreal5.00

 

PROJECT TITAN | Process

プロジェクト・タイタンへようこそ。この紹介ビデオではこのインハウス技術デモの開発プロセスを探り、コンセプトアートからプロシージャルツールまで、プロジェクトの範囲を理解することができます。

 

PROJECT TITAN | Tools

Project Titan には、Houdini Engine プラグインにより Unreal エディタ内で動作する、さまざまなツールが用意されています。これらのツールをエディタ内で使用することにより、環境アーティストは、アーティスティックなコントロールと演出性を維持しながら、より迅速にレベルを構築することができます。

建物の生成、フェンスの作成、プロップの追加など、このプロシージャルなワークフローにより、小規模なチームでも印象的なレベルのディテールをすばやく実現することが可能になります。

 

 

 

参考資料

UnityがZivaDynamicsを買収

Unityが機械学習を使用したフェイシャル作成や、筋肉シミュレーションをおこなうMaya用プラグインを開発しているZivaDynamicsを買収しました。

Unityの技術買収が続いてますね、プリレンダーの技術を取り入れるならQuad Poly読み込みとOpenSubdivに標準対応して欲しい。

https://blog.unity.com/technology/welcome-ziva-dynamics
https://zivadynamics.com/

 

ユニティは高度なシミュレーションと変形、機械学習、リアルタイムキャラクタークリエーションのリーダーであるZiva Dynamicsを買収しました。
ユニティは、クリエイターのためのツールの民主化に力を注いでおり、業界で最も輝かしい逸品を、一部の人だけでなく、すべての人が利用できるようにしています。そして、アーティストが夢を実現するための支援に力を注ぎ続けています。

Weta Digital、SpeedTree、SyncSketch、Pixyz、RestARといった最近の買収企業の背後にある並外れた才能とツールに見られるものは、アーティストやすべてのクリエイターがビジョンをより簡単に、より速く、より安く実現するための中核技術なのです。私たちは、コンテンツクリエイターをスーパーヒーローにしたいと考え、それを実現するためのツールやサービスを提供するつもりです。

本日、Ziva Dynamicsの買収により、アーティストへのコミットメントが倍増したことを発表できることを誇りに思います。

私たち人間は、人の動きに反応するユニークな性質を持っています。私たちの脳の中には、顔や表情を高速で処理するための領域があります。私たちの心を満たすクオリティと自然なダイナミクスを備えたデジタルヒューマンを作るには、専門的な知識と根気強さが必要で、複雑で苦しい作業となります。

その問題を解決するのが、Ziva Dynamicsです。Zivaチームは、複雑な解剖学的シミュレーションとリアルタイムアーティストリーツールに関する深い専門知識と理解を持っています。彼らの素晴らしい技術は、リアルタイムのキャラクターと、スケーラブルでアクセスしやすいワークフローへの道を切り開いているのです。

 

Zivaは自らを語る...文字通り

Zivaのデジタルヒューマンであるエマが、今回の発表に協力してくれました。

 

Emmaは、最先端の機械学習を搭載し、Unityでリアルタイムに動作しています。彼女のモデルは、ZRT Trainerを使用して30テラバイト以上のユニークな4Dデータでトレーニングされ、72,000以上のトレーニングされたシェイプをエモーションし、全く新しい顔のポーズを実現することができます。
これは驚くほどリアルなアニメーションと、驚くほど感情的なパフォーマンスを実現するディープテックであり、要求の厳しいリアルタイム環境においても、キャラクターを輝かせることができます。そしてまもなく、あらゆるレベルのアーティストやクリエイターが、この技術にアクセスできるようになります。

このような忠実度をリアルタイムで実現することは、画期的なことです。機械学習、ディープラーニング、バイオメカニクスの先進的な技術を活用した高度な技術の成果です」とエマは語っています。キャラクターの作り方を根本的に変えるものです。Zivaの技術は、コンシューマー向けハードウェア上で、人間、クリーチャー、衣服、リアルなもの、様式化されたもの、高忠実度なものなど、あらゆるサイズの変形を、リアルタイムで実現できるように設計されているのです。

 

Zivaの魔法をUnityへ

Zivaはリアルタイムおよびゲーム向けの主要な変形およびシミュレーションアーティストツールとして、高品質のクリーチャー作品の新しい標準となり、Ninja TheoryのSenua's Saga: Hellblade IIなどのタイトル、Game of ThronesやGodzilla vs. Kongなどの映画やテレビで何百もの映画やゲームスタジオにアートとリアリティの境界をぼやかしています。

Zivaを買収することで、ユニティはZivaのクラス最高のツールをさらに民主化し、スキルレベルに関係なく、アーティストが簡単かつ迅速に、これまでにないデジタルキャラクターを作成できるようにすることを目指します。
さらに今回の買収により、ユニティは、機械学習の力を借りて、クラウドを通じてWetaツールをリアルタイム3Dにするプロセスを加速させることも可能になります。Zivaはすでに、複雑な映画品質のシミュレーションをRT3Dにもたらすという課題を解決しています。私たちは共に信憑性のあるデジタルキャラクターの作成を、幅広いプラットフォームやアーティストが、大規模に利用できるようにする予定です。

 

Zivaの技術の裏側

当社の主力ソフトウェアであるZiva VFXは、筋肉、脂肪、皮膚などの軟部組織の物理的・物質的特性をデジタルで再現・結合し、アーティストが最もリアルなCGIキャラクターを作成するために使用されています。この強力なテクノロジーは、エンジニアリングとバイオメカニクスの最先端技術を基に構築されており、Zivaはこれらの複雑なプロセスを、建物の複雑さを最小限に抑えるフレンドリーなアーティストツールに抽出することに成功しました。
使いやすさ、破壊されないワークフロー、そして派生アセットの作成に重点を置いています。完全な動的解剖学により、バーチャルな動物や人間は現実と同じように動き、伸び、曲がるので、キャラクターワークフローから何週間もの芸術的労力を取り除くことができます。Zivaのユーザーには、学生、インディーズ、小規模スタジオ、大規模なVFX施設などがあります。

Zivaのシミュレーションデータは、ZivaRTを使用して、あらゆる種類のクリーチャーやキャラクターをリアルタイム環境で動作させるためのトレーニングに使用することができます。ZivaRTはゲームエンジン内の非線形変形の挙動を正確に再現するために設計されました。ZivaRTの多層古典機械学習モデルは、学習入力の制約を尊重しながら、予測可能な実行時間と軽快なメモリ割り当てを一貫して達成しています。
ZivaRTは、民生用ハードウェア(GPUまたはCPU)であっても、リアルタイム変形で真に比類のない品質を提供します。ZivaRTはすでに、クラス最高のキャラクターで広く認知されているAAAゲームに搭載されています。

また、Zivaの強力な機械学習技術は、キャラクター制作を合理化し、アーティストの時間とコストを節約するクラウドベースの制作を可能にします。

 

アカデミー賞受賞チームをバックに

Zivaを買収したことで、ユニティはさらに多くの優秀な人材にアクセスできるようになりました。彼らの経営陣には、科学技術アカデミー賞の受賞者やVFX、物理、変形、機械学習などの専門家がずらりと並んでいます。このような素晴らしいリーダーたちとともに働き、彼らから学ぶことができることに、私たちはとてもわくわくしています。

Zivaはアカデミー賞受賞者でUSCビタビ工学部教授、MIT TR35受賞者のJames Jacobs(CEO)、Jernej Barbic(CTO)、カナダの実業家Chris Godsallによって共同設立されました。Zivaのチームには、クリエイティブ担当副社長のSimon Clutterbuckもいます。彼はWetaでクリーチャー部門の責任者を務め、Weta在籍中にJames JacobsとともにTissue(物理ベースのキャラクターシミュレーションフレームワーク)を開発し、アカデミー科学技術賞を受賞しています。Crawford Doran、Essex Edwards、Ravi Agrawalなどの業界のエキスパートが、彼らの深い専門知識をUnityにもたらし、すべてのアーティストにこれらのツールを普及させる手助けをしてくれるでしょう。

ユニティとジーバは、共に成長しながら、ユニティの技術を使用する多くの革新的なチーム、クリエイター、エンジンに貢献し続け、デジタルヒューマンやクリーチャーのためのユニティツールの進化に強く投資していきます。

参考資料

Unreal LiveLink for Maya

MayaとUnrealの間でアニメーションデータを交換するための新しいライブリンクプラグイン「Unreal LiveLink for Maya」が公開されています。

もともとEpicGamesによって開発されたLiveLinkを、オートデスクと提携してツールの機能を拡張して、アーティストやスタジオのニーズをより適切に満たすように更新した物のようです。

https://apps.autodesk.com/MAYA/en/Detail/Index?id=3726213941804942083&appLang=en&os=Win64

 

概要

Unreal Live Link プラグインを使用すると、Maya から Unreal へアニメーション データをリアルタイムでストリーミングすることができます。
バーチャルプロダクション環境で 2 つのツール間で作業を行っている場合でも、次のゲームを作成している場合でも、Maya でキャラクタ アセットを処理し、変更を加えるとすぐに Unreal に反映されるプレビューを確認することができます。

 

主な機能

  • 簡素化されたインストール環境により、数分で使用開始することができます
  • 新しい合理的なインターフェイスにより、Unreal にストリーミングする Maya アセットを簡単に定義および管理することができます
  • ジョイント階層トランスフォームを接続することで、キャラクタ間のアニメーション ストリーミングを可能にします
  • ブレンドシェイプがサポートされているため、顔の表情やリップシンクなどのキャラクタの変更を行い、Unreal でその変更をコンテクストで確認することができます
  • トランスフォーム、画角、焦点距離、フィルム ゲート、カメラ アパーチャ、フィルム アスペクト比、被写界深度、フォーカス距離、fStop などのカメラ属性がサポートされています
  • 色、強度、コーン角、ペナンブラ角などの照明調整もサポートされています
  • シーンのタイムコードは、メタデータとして Unreal にストリーミングされるため、Maya と Unreal 間でプレイヘッドの同期をとることができます
  • バックバージョン対応により、Maya 2018からMaya 2022までプラグインを使用することができます

Live Link を使用して Unreal Engine 4 を Maya に接続する
https://docs.unrealengine.com/4.27/en-US/AnimatingObjects/SkeletalMeshAnimation/LiveLinkPlugin/ConnectingUnrealEngine4toMayawithLiveLink/

Unreal Live Link for Autodesk  Maya プラグインを使用する方法 (リンクが機能していないっぽい)
https://www.autodesk.com/unreal-livelink-docs

Maya ラーニング チャンネル
https://www.youtube.com/playlist?list=PL8hZ6hQCGHMWtAxA5TQAjgeWmZ9MeVRtF


参考資料

The Matrix is Unreal

先日公開された映画マトリックスを題材にしたUnreal Engine 5 のデモのインタビュー記事が公開されています。

車に人が反射してるなと思ってましたが、リアルタイムレイトレースだったんですね。ネオとトリニティが掛け合うシーンと、街のワイドショットがプリレンダーで他はリアルタイムらしいですが、車内の掛け合いがリアルタイムだったなら凄い。

https://www.fxguide.com/fxfeatured/the-matrix-is-unreal/

1999年、キム・リブレリはマトリックスのオリジナル映画でバレットタイムのスーパーバイザーを務めました。現在、彼はEpic GamesのCTOを務めており、彼とチームはマトリックスに帰ってきたところです。
UE5で示された技術的な進歩と新作「The Matrix Awakens」との驚くべき結びつきで、新しい技術デモAn Unreal Engine 5 Experienceが開始されました。この最先端のショーケースは、PlayStation5とXbox Series X/Sで無料でダウンロードできます。

この境界を越える技術デモは、WarnerBrosのThe Matrix Awakensの世界におけるオリジナルコンセプトピースです。ラナ・ウォシャウスキーが監督・脚本を手がけた、ウィットに富んだ巧妙なシネマティックです。キアヌ・リーブスとキャリー・アン・モスのデジタルバージョンが登場し、二人の俳優がスキャンされて複製され、1999年のネオとトリニティの役をそのまま再現しています。

編注:この体験は映画の一部ではなく、UE5 でできることを紹介するための技術デモです。

 

今週初め、チームにインタビューした際、シニアキャラクターアーティストのLana Lanは、「このプロジェクトは、UE5の進化、優れた芸術性と技術、そしてキャラクターに関する新しいスキャン技術の多くを表しています」とコメントしました。
Epicチームの目標は、新しく進化した技術をすべてテストして押し進め、UE5がクリエイターのために準備万端であることを本当に確認することでした。「学んだことの多くはツールに折り返されると思いますし、また来年にはこの多くをコンテンツサンプルとしてリリースする予定です」と付け加えています。

ゲーム機のダウンロードパッケージは約28ギガで、当初は国内のゲーム機で何ができるかをリアルタイムに見せるためのものです。その後、都市などのアセットパーツは、Epicのメインサイトからダウンロードできるようになり、デスクトップパソコンで探索できるようになる予定です。

 

このプロジェクトには、James McTeigue、Kym Barrett、John Gaeta、Jerome Platteaux、George Borshukov、Michael F Gayが参加し、SideFX、Evil Eye Pictures、The Coalition、WetaFX(旧称Weta Digital)などのパートナーやEpic Games全体のチームと共同しています。

ワコウスキー、リブレリ、ゲータの3人は、3部作の時代からの友人です。「私が Matrix の新作を作ることを彼らに告げると、Epic のサンドボックスで遊ぼうと提案されました」と Wachowski 氏は語ります。「そして、なんということでしょう、このサンドボックスは!」とWachowski氏は言います。

映像はプリレンダリングされた2つのショットを除き、すべてリアルタイムでレンダリングされています。ネオとトリニティが掛け合うシーンと、街のワイドショットの2つです。
これはデータが膨大なため、アセットの読み込みに時間がかかり、体験のテンポが崩れてしまうからです。これらのショット以外は、標準的なゲーム機でリアルタイムにレンダリングされます。

 

デジタルアクター

デモではキアヌ・リーブスとキャリー・アン・モスが、驚くほどリアルなデジタルヒューマンとして演技と肖像画を披露しています。これを実現するためにEpicの3Lateralチームは、Novi Sadのスタジオで俳優の顔の高忠実度3Dスキャンとパフォーマンスの4Dキャプチャを行いました。リーブズとモスはドイツにいたため、セルビアに飛び1日かけて顔と4Dスキャンを行いました。

「EpicのシニアテクニカルアーティストであるPete Sumanaseniは「このプロジェクトは本当にタフでした」CG のキアヌ・リーブスを、本物のキアヌと同じショットに登場させたのです。
ティーザー予告編が公開された直前の1週間、人々はデジタル キアヌを見ているのか、それとも実際の俳優を見ているのか混乱していましたが、ツイッターの驚くべき反応から判断すると、Epicチームは成功したのです。

今でも、人々は何度も映像を見て混乱しています。「初めて見る古いキアヌは、私たち(Epic)が撮影した彼のビデオ撮影でした」とPeteは説明します。「モーフィアスを追って戻ってきた後は、すべてCGバージョンです。同じに見えるように色調補正をしたんだ。
また、鏡に映った映像が見える箇所がありますが、これはUE5でコンプした本物のフィルム映像でした。モーフィアスの最初のショットもCGではなく、その後、若き日のトーマス・アンダーソン(ネオ)が登場するとCGになる。冒頭のアンダーソンが寝ている机のシーンも、オリジナル映画のシーンをリアルタイムに再現したものです。

 

Epicのチームは、さまざまな新しい技術をたくさん使いました。3Lateralチームは、さまざまなスキャンソリューションとシナリオを使用しました。彼らは7台のステレオペアのカメラを搭載したモバイル4Dスキャナーを使用し、このデータは特に価値のあるものであることが証明されました。
また、EpicのCubic Motonチームによって作られたHMC IIリグと、よりクラシックな交差偏光スキャンアレイも使用しました。特に、IO用にキャプチャされたダイアログに対してオフラインで実行されるポーズベースのソルバーを使用したそうです。

しかし、スキャンが進歩しても、CG素材やリグ、そして背景のキャラクターはすべて、現行のMetahumanの技術です。主な違いは、特定の衣装や髪が必要なことです。
例えば、IOは標準的なメタヒューマンの編み込みではない、複雑な髪の手入れをしています。ヘアについては、グルーミングを外部で行い、インポートしています。

オリジナルのミートマイクのプロジェクトに携わっていたアダムは、UEのヘアが時代とともにどのように変化してきたかを説明します。
「Digital Mikeの時はXgenを使用し、小さなジオメトリストリップをエンジンにインポートしました。それ以来、私たちはより良いワークフローとシステムを作るために多くの努力を払ってきました。今ではジオメトリストリップを持ち込むのではなく、スプラインを持ち込んで、そのガイドスパインヘアからヘアが作成されるようになっています。インポートされるとすべてのヘア ダイナミクスが Engine でリアルタイムに生成されます」

 

体験者の台詞はすべて、セルビア滞在時に録音された本人の声です。ほとんどの場合3Lateralのチームは、俳優が言ったセリフの一つひとつを4Dキャプチャーアレイで撮影しました。
メインの台本に加えて、俳優たちはROM(レンジ・オブ・モーション)を行いました。変更されたセリフもありましたが、その場合は機械学習プロセスで顔の動きを推測し、3Lateralのリグを駆動させました。

3Lateral Studioのリードテクニカルアニメーターのマルコ・ブルコヴィッチは「しかし、新しい4Dキャプチャ技術を使ってキャプチャされリファレンスされなかった、カメラの近くで配信されたセリフはありませんでした」と説明しています。

 

主役のキャラクターはルックデヴが多く行われましたが、通常の3Lateral Metahumansがベースになっています。「彼らは他のキャラクターと同じメタヒューマンのフレームワークに基づいており、すべてのLOD(詳細レベル)とすべてのフェイシャルコントロールを担当するシステムは、すべてのキャラクターで同じです」

例えばキャラクターの目は、角膜の膨らみと強膜への移行方法をより正確にモデル化するために、ベースモデルにいくつかの調整を加えた、すべてメタヒューマンの目です。
ベーススキャンはEpic GameのChris Evansの目をベースにしています。Lana Lan 氏は「眼球のさまざまな軸をすべて把握するために、眼科の論文のウサギの穴に入り込みました。チームは目のモデルを作り、それをクリスの目のスキャン画像と比較しました。そこから、キアヌとキャリー・アンの目を正確に表現できるように調整したのです」

 

キアヌのディージングの実現は、より困難なことのひとつでした。Epic Gamesのシニアキャラクターアーティスト、アダム・スカット氏。
キアヌがスキャンを受けるために3Lateralを訪れたとき、彼はメインユニットでの撮影を終えており、髭も剃っていました。しかし、57歳の俳優の若返りは、1999年当時の完璧なリファレンスがなかったため、複雑なものとなりました。「完璧なニュートラルポーズがなく、さらに1999年のユニバーサルキャプチャーを参考にしました」とアダムはコメントします。

オリジナルのマトリックスでは、主要な俳優たちはHDカメラをサイドマウント(9:16)して撮影されました。しかし、Sony F900sのISOの関係で、マルチカメラのパフォーマンスキャプチャーは非常に強い照明を使用していました。「彼は非常に暑く、明るい照明の下にいたので、目を細めていたと思うし、屋外のリファレンスもあったが、サングラスをかけていました」

衣装は実際にトリニティスーツを作ってもらい、モデルに着せました。その後、スキャンしてリファレンスしました。デジタル衣装は、アダム・スカットが担当しました。
「また、ワーナー・ブラザーズから大量のアーカイブを入手し、オリジナル映画のキャリー・アン・モスのリファレンスも用意しました。このリファレンスを使って、Marvelous Designerで彼女の服を作りました」

 

 

メタヒューマン クリエイター

オープンワールドの都市環境には、『MetaHuman Creator』の発売当初に2人いたローンチキャラクターのうちの1人である主人公のIOが登場します。

エクスペリエンスの制作にあたっては、CPU、グラフィックス、パフォーマンスの予算がありました。例えば、CGキャラクターが白地にいるときは背景がないため「レイトレースされたエリアライトをより多く使うことができました」とピートは振り返る。

「一方、車に乗り込むときは、複雑な背景のためにバッジェットを割かなければならなかったので、ライトの数を減らさなければならなかったのです。プロジェクト開始当初は15fpsで動作していましたが、最適化されるにつれてフレームレートが急速に上がりました。4Kテクスチャを多用し、ジオメトリを多用し、Lumenを使い、それ自体にコストがかかり、太陽光のための新しいシャドウマップ技術を使い、もともとすべての限界に挑戦していたのです」

ただし、最終的なエクスペリエンスは、PS5またはXBoxシリーズX / Sで実行されているゲームで何が可能かを示しており、ゲームデザイナーがゲームの通常のメカニズムを実行できるようにするCPUヘッドルームがまだたくさんあります。チームは新しいAAAゲームで実現できることに対して非現実的なデモを作成することを望んでいませんでした。

 

 

ワールドビルディング

サンプルプロジェクトのValleyof the Ancientが、UE5で利用可能な新しいテクノロジーのいくつかを垣間見せたところ、The Matrix Awakens:Unreal Engine5 Experienceは、インタラクティブなデモゲームであり、誰でもリアルタイムで実行できるエクスペリエンスであるため、さらに一歩進んでいます。

すぐにダウンロードしてください。 体験はカットシーン、最初のシューティングゲームのデモセクションで構成され、最後にユーザーは探索できる都市があります。

デモのアクションシーンの多くは、エキサイティングなショットをキャプチャするために街中を車で運転する乗組員から始まりました。 チームはシミュレートされた宇宙を使用して、実写映画製作者が都市を偵察してストーリーを伝えるのに最適な通りを見つけるなど、映画のコンテンツを作成することができました。

テクニカルデモでは、以前に紹介されたUE5の機能であるNaniteとLumenも展示されています。 インタラクティブな追跡シーケンスの後、ユーザーはUE5の仮想化されたマイクロポリゴンジオメトリシステムを使用して、密集したオープンワールドの都市環境を歩き回ることができます。

260 kmの道路、512 kmの歩道、1,248の交差点、27,848のランプポスト、12,422のマンホールが、実際のロサンゼルスのダウンタウンよりもわずかに大きい仮想世界にあります。
さらに、街をドライブしたり歩き回ったりすると、35,000人のメタヒューマンが日常業務を行っているところを通り過ぎることができます。

「確かに、私たちに最も近いものが実際のメタヒューマンであり、遠くにあるものは、メタヒューマンから生成された頂点アニメーションの静的メッシュであるという近接性があります」とLanaLan氏は説明します。

建物は法線マップではなく、Naniteの何十億ものトライアングルでできているため、非常に精細です。 建物にはすべてのディテールが組み込まれているため、ユーザーは任意の建物まで歩いて行き、完全にディテールになっていることを確認できます。

「ジオメトリに含まれるものはすべてモデル化されており、法線マップではありません。 高解像度モデルです」とラナは言います。 平均ポリゴン数は7000kで、建物は1000のアセットで構成されており、各アセットは最大で数百万のポリゴンになる可能性があるため、都市の建物だけを構成する数十億のポリゴンがあります。

街には、ナンバープレートから主要な開発者のショップまで、イースターエッグが用意されています。ラナは宝石店、ピートは何を売っているのか忘れてしまったのです!結局、この街は幅4,138km、長さ4.968kmもあるので、迷子になるのは簡単です。

 

ライティング

Unreal Engine 5 の完全ダイナミック グローバル イルミネーション システム Lumen は、リアルタイム レイトレーシングを活用して、デモのインタラクティブな部分全体でリアルな照明と反射を実現します。
リアルタイム レイトレーシングは、シネマティックな要素にも使用され、キャラクターの美しくリアルなソフトシャドウを生成しています。

ワールド全体の照明は、メッシュ上の太陽、空、放射性マテリアルのみで行われています。数万個ある街灯やヘッドライトの光源は配置していません。夜間モードでは、ほぼすべての照明が、数百万個の発光する建物の窓から照らされています。

このプロジェクトは1年以上前に始まり、60人から100人ほどのアーティストが参加し、多くはリモートで作業していた巨大なものでした。 マトリックスの覚醒 An Unreal Engine 5 Experience はゲームではありませんし、今後ゲームとしてリリースされることもありませんが、この技術デモは、インタラクティブ コンテンツの将来像を示すものであり、最先端のコンソール向けビジュアルの水準を示すものとなっています。

「キアヌ、キャリー、そして私は、このデモの制作をとても楽しみました。Epicのサンドボックスは、実験と大きな夢が大好きな彼らにとって、かなり特別なものです。シネマティック・ストーリーテリングの未来がどうであれ、Epicはその進化に少なからず貢献してくれるでしょう」

この新しい体験の舞台となるのは、広大で探索可能なオープンワールドの都市で、豊かで複雑な世界です。16キロメートル四方のフォトリアルで素早く移動できるこの街には、リアルな住民や交通機関が存在します。

参考資料

The Matrix Awakens: An Unreal Engine 5 Experience

映画マトリックスを題材にしたUnreal Engine 5 のデモがPSStoreで無料公開されています。ゲームっぽい技術デモとしてイベントシーンのガンシューティングとオープンワールド的な街の散策が楽しめます。

下のビデにある冒頭のカーチェイス部分が実写さながらで凄い。街中を歩くモードでは反射や遠くの建物がチラついてゲームだなとわかる感じですが、街がまるごと再現されてて物量が凄いです。コンフィグでカメラの設定いじったり、フィルターや時間を変更したり色々楽しめます。

https://store.playstation.com/ja-jp/product/UP1477-PPSA05753_00-MATRIXUNREALDEMO

参考資料

EpicGamesがHarmonixを買収

EpicGamesがRock Band、Dance Central、Guitar Heroシリーズの最初の開発者Harmonixを買収したようです。Guitar Heroシリーズははまったなー。

https://www.epicgames.com/site/en-US/news/harmonix-joins-epic-games-to-create-immersive-music-experiences
https://www.harmonixmusic.com/blog/harmonix-is-joining-the-epic-games-family

本日、HarmonixチームがEpic Gamesファミリーに加わることが発表、エキサイティングなニュースです。これはチームにとって記念すべき日であり、ファンの皆様からの長年のサポートなしには実現しなかったことです。

過去26年間、私たちは、人々が音楽を体験し、交流する方法を再定義するために、自らを奮い立たせてきました。初期のThe AxeからGuitar Hero、Rock Band、Dance Central、VRタイトル、FUSER、そしてその間にあるすべてのものに至るまで、我々は音楽ゲームのあり方を再定義することを志してきました。今回、Epicと協力して、再び期待に応えようと、当社独自の音楽ゲーム体験をメタバースに提供することになり、これ以上ないほど興奮しています。

このことが何を意味するのか、きっと皆さんも疑問に思っていることでしょう。そこで、簡単なFAQを作成し、最初の質問にお答えします。

 

Rock BandのDLCにはどんな意味があるのですか?

何もありません。2021年を終えて来年に突入するまでに、たくさんの素晴らしい楽曲をリリースする予定です。

 

Rivals Seasonsは続けるのでしょうか?

はい。シーズン25はすでに計画済みで、シーズン26やそれ以降もたくさんのアイデアがあります。

 

FUSERのイベントはどうですか?

こちらも変更ありません。

 

Rock Bandのインストゥルメントがもっとたくさん作られるということですか?

現在の計画にはありません。

 

FUSERや他のゲームはSteamで配信されますか?

はい、全てのゲームはSteamとコンソールで引き続きご利用いただけます。

 

INSERT HARMONIX GAME HERE]のサーバーはどうなりますか?オフラインになるのでしょうか?

当社の旧作ゲームのサポート方法を変更する予定はありません。

 

Harmonixチームは次に何に取り組むのでしょうか?

私たちのチームは、Epicと協力して、『Fortnite』の音楽の旅とゲームプレイを作り上げる予定です。まだ具体的なことは言えませんが、チーム全体が非常に楽しみにしています。ご期待ください。

CG News

Unreal Engine 5 早期アクセス リリース

Unreal Engine 5 の早期アクセスがリリースされました。Epic Games Launcherからダウンロードすることができます。

https://www.unrealengine.com/ja/blog/unreal-engine-5-is-now-available-in-early-access

 

この Unreal Engine 5 の早期アクセスビルドは実制作に適したものではありませんが、昨年の発表時に大きな反響があった新機能や、今回はじめて発表する新機能に触れる最初の機会となります。お試しいただける主要な新機能を紹介します。

 

Nanite

仮想化マイクロポリゴン ジオメトリ システムの Nanite で膨大なジオメトリディテールを含むゲームを作りましょう。ディテールの法線マップへのベイクや LOD モデルの手動作成といった時間がかかり面倒な作業はなくなります。

ZBrush のスカルプトからフォトグラメトリスキャンまで、映画品質の数百万ポリゴンのソースアートを直接インポートし、そのアセットを数百万個設置しても、見た目の忠実度を損なわずにリアルタイムのフレームレートを維持しているという様子を想像してみましょう。そんなことは不可能と思いますか?今、これが実現します!

 

Lumen

次は完全に動的なグローバルイルミネーションソリューションの Lumen です。Lumen は動的でリアルなシーンの作成を可能にします。太陽の角度変更、 懐中電灯の点灯、ドアを開く、といった直接ライティングやジオメトリの変更に対して間接光がその場で適応して更新されます。

Lumen によって、ライトマップ UV を作成する必要も、ライトマップのベイクを待つ必要も、リフレクション キャプチャを配置する必要もなくなります。Unreal Editor でただライトを作成し編集すれば、ゲームのコンソールでの実行時の最終結果と同じライティングをその場で確認できます。

 

オープンワールド

私たちはオープンワールドの作成を高速に、簡単に、どのような規模のチームにとっても共同作業が行いやすいものにすることを常に目指しています。最新の成果の一部をお試しください。

まず、World Partition システムはワールドを自動的にグリッドに分割し、必要なセルをストリーミングします。One File Per Actor (1 アクタあたり 1 ファイル) システムによって共同作業が簡単になります。チームメンバーはお互いに足を引っ張ることなく同一のワールドの同一の領域について同時に作業できるようになります。

そしてData Layers によって、一つのワールドについて複数のバリエーションを作成できます。例えば、同じ空間に存在するレイヤーとして、日中のバージョンや夜のバージョンを用意し、ゲームプレイの中で切り替えることができます。

 

アニメーション

アニメーション作成や編集を行うために毎回 Unreal Engine の外で作業をしないといけないのは、時間がかかり大変です。イテレーションを行う障害にもなります。そこで Unreal Engine 5 ではアニメーション向けのツールセットを拡張し強化しました。実際の環境の中で詳細なキャラクターを制作できます。

コントロールリグのようなアーティストが使いやすいツールで、手早くリグを構築し、複数のキャラクターでリグを共有することができます。シーケンサーでポーズを作り新しい Pose Browser でポーズの保存と適用ができます。新しいフルボディ IK で自然な動作を簡単に作成できます。そして Motion Warping を使うことで、単一のアニメーションから様々なターゲットに合わせてキャラクターのルートモーションの位置を動的に調整できます。例えば、様々な高さの壁に対する飛び越えアニメーションを作成できます。

 

MetaSounds

ルックデベロップメントのようなコントロールと柔軟性がオーディオ作成にもあったら良いのに、と思ったことはありますか?UE5 ではオーディオ制作の根本的に新しい方法を提供します。MetaSounds はサウンドソースからオーディオ DSP グラフでの生成とフルコントロールを提供する高パフォーマンスのシステムです。オーディオ レンダリングのすべての面の管理から、次世代プロシージャル オーディオ体験の駆動までを実現します。

MetaSounds は、サウンドにおけるプログラマブルなマテリアル パイプライン、レンダリングパイプラインにあたるようなものです。マテリアルエディタがシェーダーの制作を助けるように、オーディオでプロシージャルなコンテンツ制作が可能になります。動的なデータ駆動のアセット、ゲームのパラメータとサウンド再生のマッピング作成、大幅なワークフロー改善など様々な恩恵があります。

 

エディタ UI とワークフローの強化

リニューアルの時間です!UE5 では Unreal Editor のビジュアルが更新され、ワークフローの効率化、画面デザインの最適化によって、より簡単に、高速に、気持ちよく使えるようになっています。

早期アクセスの新機能の一部を紹介します。コンテンツブラウザを簡単に呼び出したり、非表示にしたりする機能や、エディタタブを折り畳めるサイドバーにドッキングする機能を追加しています。メインツールバーに新しく追加された新規作成ボタンで、ワールドへのアクタ配置も簡単になります。新規プロジェクト作成のワークフローも見直しを行い簡単になりました。

参考資料

EpicGamesがArtStationを買収

EpicGamesがクリエイターコミュニティのArtStationを買収したようです。これにあわせてマーケットプレイスの手数料の引き下げ、年末までアートステーションラーニング無料化が発表されました。

https://magazine.artstation.com/2021/04/artstation-is-joining-the-epic-games-family/
https://www.epicgames.com/site/ja/news/artstation-is-now-part-of-epic-games

ArtStation Marketplaceで収入アップ

本日よりArtStation Marketplaceでの販売者の収益の可能性を大幅に拡大します。標準的な手数料を30%から12%に引き下げます。プロメンバーの場合、手数料は20%から8%に下がり、セルフプロモートの場合は5%になります。新しいArtStation Marketplaceの手数料の詳細については、収益計算機をご覧ください。

 

ArtStation Learningが2021年末まで無料

2021年の残りの期間、アートステーション・ラーニングをすべてのメンバーに無料で提供します。アートステーション・ラーニングは、アーティスト向けのストリーミングビデオサービスです。このサービスの特徴は、業界のプロによる増え続けるコンテンツライブラリに無制限にアクセスできることです。アーティストは、自分のペースで様々なアートのトピックを学び、スキルを高めることができます。まずはartstation.com/learningにアクセスしてください。

参考資料

Epic GamesがCapturingRealityを買収

Epic GamesがCapturingRealityを買収が発表されました。CapturingRealityは3Dスキャン用の写真測量ソフトウェアであるRealityCaptureの開発元です。この買収にともない永久ライセンスの価格が、€5,000($17,849)から$3,750に変更されました。

CapturingRealityは主にQuixel Megascansで使用されてたみたいですね。

https://www.epicgames.com/site/ja/news/capturing-reality-is-now-part-of-epic-games
https://www.capturingreality.com/

本日、3Dスキャン用の最先端フォトグラメトリー・ソフトウェアであるRealityCaptureを開発したCapturing Reality社がEpic Gamesファミリーに加わったことをお知らせします。
Capturing Reality社のソフトウェアは、画像やレーザースキャンからあらゆるサイズのオブジェクトやシーンを再構築することができ、比類のない精度とメッシュ品質の3Dスキャンを競合ソフトウェアの何倍ものスピードで実現します。

Epicでは、Capturing Realityチームは今後も成長を続け、Unreal Engineチームと密接に協力しながら、彼らの技術をより身近で手頃なものにしていきます。実際、本日よりCapturing Realityは、新規および既存のすべてのお客様を対象に価格を引き下げます。

RealityCapture社は、写真測量の明らかなマーケットリーダーであり、Quixel Megascansの創設時から不可欠な存在でした。Capturing Realityを我々のチームに迎え入れ、誰もが世界をスキャンできるようにするという我々の共通のビジョンを加速させることができて、非常に興奮しています」とEpic GamesのQuixel担当シニア・ディレクター、Teddy Bergsman氏は述べています。

参考資料

NVIDIA DLSS

NVIDIA DLSSがUnrealEngineで利用可能になったようです。DLSSはディープラーニングを使用した超高解像度とフレームレートを上げる技術です。使用するにはTensor Core対応のGeForce RTX GPUが必要です。

https://www.unrealengine.com/marketplace/en-US/product/nvidia-dlss

 

NVIDIA DLSS

NVIDIA DLSS (ディープラーニング スーパー サンプリング) は映像の忠実度を上げる AI レンダリング テクノロジで、GeForce RTX GPU の専用 Tensor Core AI プロセッサを使用します。

DLSS はディープラーニング ニューラル ネットワークのパワーを活用してフレーム レートを高め、美しくシャープなゲーム映像を作り出します。また、パフォーマンスに余裕が生まれるため、レイ トレーシング設定を最大化したり、出力解像度を上げたりできます。

妥協のない品質と高性能

NVIDIA DLSS テクノロジにより、レイ トレーシングと超高解像度を利用できます。先進の AI レンダリングを使うことで、一部のピクセルだけをレンダリングしながらも、ネイティブ解像度に匹敵するか、場合によってはそれを上回る画質を実現します。
新しいテンポラル フィードバック技術により、細部に至るまで驚くほどシャープな画像や、フレームごとの安定性改善が実現します。

カスタマイズ可能なオプション

DLSS では「クオリティ」から「ウルトラ パフォーマンス」まで、ゲームに応じていくつかの画質モードを選択できます。ゲーム内のレンダリング解像度設定により、品質とパフォーマンスのバランスを調整できます。
パフォーマンス モードでは最大で 4 倍の AI 超解像度 (1080p -> 4K)、新しいウルトラパフォーマンス モードでは最大で 9 倍の AI 超解像度 (1440p -> 8K) を利用できます。

参考資料

Toei Zukun Lab|『HYBRID』

Unreal Engine 4を使ったショートフィルム、レイトレース使ってるそうです。メカ系はゲームエンジンだと言われないと気がつかないレベルに達してますね。

‪本作は東映ツークン研究所の技術デモとして制作されたオリジナル短編作品です。 CG映像はUnreal Engine 4によって制作され、 自社開発のリアルタイム合成システム「LiveZ studio」を活用することで 実写俳優とCGキャラクターのリアルタイム共演を実現しました。

CG News

EmberGenFX for OctaneRender ベータ版リリース

EmberGenFX for OctaneRender ベータ版がリリースされました。OctaneRenderサブスクユーザーはベータ期間中無料で利用できるようです。EmberGenFXとOctaneRender の統合バージョンの価格やリリース日は発表されてませんが、JangaFXによると標準のOctaneRenderサブスクリプションの有料アドオンになるらしいです。

レンダリング品質がいいですね。元NewTekでLightWaveの開発に携わってたLinoがデモビデオを公開してます。

https://render.otoy.com/forum/viewtopic.php?f=7&t=75386

 

EmberGenFXスタンドアロンの完全な商用ライセンスが追加料金なしで利用可能になりました。パブリックベータ期間中のすべてのOctaneRender 2020サブスクライバーが利用できます。

最終リリース時に、OTOYサブスクライバーはEmberGenFX(およびその後のLiquiGenFX)をBlender、Maxon Cinema 4D、3DS Max、Maya、Unity、Unreal、NukeなどのすべてのOctaneRender DCCプラグインに直接統合する機能を備えた、完全なEmberGenFXスイートにアップグレードするオプションを利用できます。

EmberGenFXパブリックベータ機能

  • リアルタイムの反復モーショングラフィックスワークフローとゲームボリュームに関する中間ベーキングプロセスをバイパスする、プロシージャルベースのパーティクルと流体シミュレーション
  • すべてのOctaneRender DCC統合で使用するVDBファイルとしてエクスポート
  • イメージシーケンスとボリュームのVDB、PNG、TGA、EXRエクスポートのサポート
  • シミュレーションおよびアニメーションキーフレーミング中に、EmbergenFXビューポートで完全にインタラクティブなリアルタイムレイマーチボリューム

 

更新履歴

  • 実験的なGPUパーティクル。GPUパーティクルが基礎となるシミュレーションデータを使用して移流される新しいレンダリングモード。単独で使用することもハイブリッドモードでボリュームレンダリングと一緒に使用することもできます。
    このモードは不安定で、一部の機能が不完全である可能性があります。ボリュームノードのGPUパーティクルにアクセスするには、レンダリングモードのドロップダウンでGPUパーティクルを選択します。「GPUP」で始まるプリセットは、これらの新しいGPUパーティクルを使用することを意味します。
  • イメージをエクスポートするためのアルファブレンディングが改良されました。描画モードは、SettingsではなくCaptureノードに表示されるようになりました。
    また、Straight Alphaモードには、透明な背景カラーの基本的な塗りつぶし形式があり、描画後のカラーは以前よりもわずかに良くなっています。
  • 個々のウィンドウのサイズを変更できるようになりましたが、レイアウトはまだ変更できません。
    ビューポートのサイズを変更すると、レンダターゲットのサイズのプレビューが表示されます。これは、ビューポート内直接スクリーンショットまたは記録機能を使用したときに生成されるイメージのサイズになります。
  • 書き出しモードでは、カメラは操作できなくなりました。
  • 基本的なログシステムを追加しました。毎日エンコードされるログは、「ログ」フォルダに表示されます。
  • 基本的なタイルレンダリングが追加されたため、長いレンダリングを実行してもUIの停止が少なくなり、最悪の場合、時間がかかりすぎてOSがドライバを強制的にクラッシュさせて回復させるためにクラッシュすることがなくなりました。
  • すべての書き出しイメージノードが完了したら、シミュレーションを一時停止するオプションを追加します。
  • EmberGenFXの起動時に更新された有効期限をチェック
  • タイムラインのズーム機能の改善
  • ノードグラフの相互作用の改善
  • ウィンドウタイトルのリフレッシュレートが向上しました。
  • 合計19の新しいプリセットが追加されました。