「代官山メタバーススタジオ」にてバーチャルプロダクション用のLEDウォールの運用開始

2022年4月
カディンチェ株式会社、松竹株式会社、ミエクル株式会社とともに運営している「代官山メタバーススタジオ」(住所:東京都渋谷区代官山町14番23号)にて、LEDウォールの運用を開始しました。

 カディンチェ株式会社(本社:東京都渋谷区、代表取締役:青木崇行、以下「カディンチェ社」)は、松竹株式会社とミエクル株式会社とともに運営している「代官山メタバーススタジオ」(住所:東京都渋谷区代官山町14番23号)にて、LEDウォールの取り扱いを開始しました。

 

 LEDウォール(またはLEDボリュームとも呼ばれている)は、バーチャルプロダクションでの撮影に用いられる大型のLEDディスプレイで、ディスプレイ自体が照明を兼ねる事もあり、リアルタイムでの合成のクオリティが高いことが特徴の一つとされています。
 また、現地で投影されているCGやVFXの演出が目視で確認できるため、現地スタッフにて何が起こっているのかわかりやすいという利点もあります。

今回カディンチェ社では、絶滅してしまった古代生物のモササウルスを用いたVFXデモ映像を作成しました。

「代官山メタバーススタジオ」に導入したLEDウォールのスペックは下記をご参照ください。

  • 寸法:W4,880mm × H2401 mm
  • 解像度:W3,072 × H1,512 pixel

カディンチェ社では、LEDウォールを活用したバーチャルプロダクションについてのお問い合わせもお待ちしております。

▼カディンチェ株式会社の概要
代表者:青木崇行
所在地:東京都渋谷区代官山町14−23 セントラル代官山 5階
設立:2008年8月
事業内容:VR/AR/MRシステムの企画・研究/受託開発・運用、コンテンツ制作・配信
URL: https://www.kadinche.com
 

お問合せはこちらから
https://www.kadinche.com/contact/

奄美市の観光VRのコンテンツを制作

2022年4月
奄美大島や加計呂麻島で、奄美の森や海などの自然や文化、お祭りなどの撮影を行い、「奄美の瞳」をコンセプトに9本の360度動画の制作を行いました。

 カディンチェ株式会社(本社:東京都渋谷区、代表取締役:青木崇行、以下「カディンチェ社」)では2022年4月、松竹株式会社(本社:東京都港区、代表取締役社長 山下 良則)、株式会社松竹映像センター(本社:東京都港区、代表取締役社長 山下 良則)と協同で制作を行った、奄美市の観光VR動画のコンテンツ制作を行い、その記者発表が4月7日に奄美市で行われました。

 

 カディンチェ社では、2021年度に鹿児島県奄美市で公募された、令和3年度奄美市VR動画を活用した観光誘客事業公募型プロポーザルに松竹株式会社、株式会社松竹映像センターと共同で応募を行い、採択され、VRコンテンツの制作を行いました。

 2022年3月の納品を行い、2022年4月7日に奄美大島の市町村の観光担当職員の方などにお集まり頂き、視聴会が行われました。

 このコンテンツでは奄美大島や加計呂麻島で、奄美の森や海などの自然や黒糖焼酎や大島紬などの文化や学校、お祭りなどの撮影を行い、「奄美の瞳」をコンセプトに、「海」「空」「夜」「子ども」「文化」「食」「神事」「ケンムン」をテーマに奄美を紹介する約2分間の8本の動画と、約4分間のダイジェスト版の計9本の制作を行いました。

 

 

 動画はHMDでの視聴だけでなく、Youtubeでも一般公開されています。
Youtube:https://youtube.com/playlist?list=PLofeZPXHhGL2Z0o2XzagO0KfG4K6YVDrg

 

カディンチェ社では、360度動画の制作を引き続き行ってまいります。
ご関心がございましたら、お気軽にご連絡ください。

▼カディンチェ株式会社の概要
代表者:青木崇行
所在地:東京都渋谷区代官山町14−23 セントラル代官山 5階
設立:2008年8月
事業内容:VR/AR/MRシステムの企画・研究/受託開発・運用、コンテンツ制作・配信
URL: https://www.kadinche.com

 

お問合せはこちらから
https://www.kadinche.com/contact/

 

複数端末で同時再生が可能な360度動画同時再生アプリをリリース

2022年4月
新しく自社アプリとして開発を行い、4月より一般リリースを行います。

カディンチェ株式会社(本社:東京都渋谷区、代表取締役:青木崇行、以下「カディンチェ社」)では2022年4月より、360度動画同時再生アプリをリリースします。

 

 カディンチェ社では、2014年頃から360度動画の制作をスタートし、2015年から360度動画視聴アプリの開発を行ってきました。
 様々なHMDやスマートフォン向けに動画視聴アプリの開発を行う中で、複数台のHMDやスマートフォンで同時に同じ動画を再生したい、というご要望から、2018年頃より360度同時再生アプリの開発を行い、研修やイベント等でご利用頂いておりました。

 

 これまで、ご利用企業様向けに個別に開発とご提供をさせて頂いておりましたが、新しく自社アプリとして開発を行い、4月より一般リリースを行います。

 

・360度同時再生アプリの概要

 360度同時再生アプリでは、クラウドアプリ/ローカルアプリの2種類のバージョンでご提供させて頂きます。
基本的な機能は同じですが、ご利用する用途やネットワーク環境に合わせてクラウド版/ローカル版のご提供をさせて頂きます。

■クラウドアプリ版
・管理端末、HMDどちらもインターネットに接続出来る環境が必要です
・管理端末とHMDのご利用場所は選びません(遠隔でも操作可能です。)

 

■ローカルアプリ版
・管理端末とHMDはローカルネットワークで接続します
・インターネットは利用しません
・別途ルーター等が必要になる場合があります

 

360度同時再生アプリの基本機能

・360度動画同時再生機能
  管理画面に接続している複数台のHMDに対して、管理画面から同時に同じ360度動画の選択・再生・停止・10秒/30秒送り/戻しなどの同時再生が可能です。

・動画管理機能
  管理画面に動画をアップロードすることで、HMDにダウンロードすることが可能です。また、管理画面から動画を削除することで、HMD内の動画を削除することも可能です。
 対応動画:360度動画/360度3D動画(Top and Bottom形式)
      mp4(h264)、30FPSまで
      ビットレートやファイル容量の上限はありません
      (HMDや再生環境に依存します。)

・HMDモニタリング機能
  管理画面でHMDの温度、バッテリ残量、充電状況のモニタリングが可能です。

・HMD視聴状況モニタリング機能
  管理画面で特定のHMDがユーザーがどの方向を見ているのかモニタリングすることが可能です。

・対象デバイス
  HMD:Quest/Quest2
  管理端末:クラウド版:WindowsPC(ブラウザ)、タブレット(ブラウザ)
       ローカル版:WindowsPC(アプリ)
  ※タブレットでは再生出来るのは2Kまでの動画です。
  接続台数:システム上の上限はありません(ご利用のネットワーク等の環境によります)

 

 カディンチェ社では、 ”360度同時再生アプリ”を教育や研修、医療、エンタメ分野での使用を想定しておりますが、それ以外の分野に関してもご提供可能です。
また、アプリだけでなく、360度動画制作も合わせてご提供が可能です。

 

ご関心がございましたら、お気軽にご連絡ください。

 

▼カディンチェ株式会社の概要
代表者:青木崇行
所在地:東京都渋谷区代官山町14−23 セントラル代官山 5階
設立:2008年8月
事業内容:VR/AR/MRシステムの企画・研究/受託開発・運用、コンテンツ制作・配信
URL: https://www.kadinche.com

 

お問合せはこちらから
https://www.kadinche.com/contact/

3次元立体視PC内蔵型3Dインタラクティブディスプレイ「zSpace Inspire」の取り扱いを開始

2022年4月

カディンチェ株式会社(本社:東京都渋谷区、代表取締役:青木崇行、以下「カディンチェ社」)は、専用のスタイラスを用いることで画面に映った3Dオブジェクトを操作し、それらを3次元立体視させられるPC内蔵型3Dインタラクティブディスプレイ「zSpace Inspire」の取り扱いを開始しました。

以前のzSpaceとは違いヘッドマウントディスプレイ(HMD)やメガネを必要としないデバイスで、3D立体視ができること、3Dオブジェクトをつかんだり、はなしたり、まわしたり、今までにない没入感を体験してください。

カディンチェ株式会社では引き続きzSpace Inspireの販売代理店を行っております。

・トラッキング機能
zSpace Inspireは、ヘッドマウントディスプレイ(HMD)やメガネを必要とせず、ディスプレイに組み込まれているトラッキング機能によって3D立体視を実現しています。

・zSpace専用のスタイラスペン
zSpace Inspireの操作に使うスタイラスはディスプレイに組み込まれたセンサーにより、スタイラスの傾きを内蔵のセンサーが検知することで6DoF(Degrees of Freedom)を実現しています。あたかも画面内の3Dオブジェクトを実物のように持ち出すことができます。

・スタイラスセンサーモジュール
zSpace Inspireに組み込まれているスタイラスセンサーモジュール(SSM)は、Inspireと専用スタイラスペンの位置を追跡し、つかんだり、はなしたり、まわしたり、拡大・縮小など、シームレスでリアルな3Dインタラクションを実現します。

 

zSpace Inspire
OS:Windows 11 Pro 64-bit
CPU:11th Gen Intel® Core™ i5-11400H
メモリ:Dual-channel 16GB DDR4 SDRAM
ディスプレイ:15.6″ HD Display with IPS(3840 x 2160 in 2D mode)(1920 x 2160 in 3D mode)
グラフィック:NVIDIA® GeForce RTX™ 3060 with 6GB GDDR6 VRAM
ストレージ:512 GB SSD
ウェブカメラ:1280 x 720
アイトラッキングカメラ:1280 x 480 (VGA x 2)
ワイヤレス and ネットワーク:Intel® Wireless Wi-Fi6 AX201 802.11a/b/g/n/acR2+ax Bluetooth® 5.1 Gigabit Ethernet, Wake-on-LAN ready
ポート:USB 3.2 Gen 2, USB Type C / Thunderbolt 4, DisplayPort 1.4, HDMI port with HDCP , SDCard reader, 1000mb Ethernet (RJ-45) port

 

zSpace Inspire Pro
OS:Windows 11 Pro 64-bit
CPU:11th Gen Intel® Core™ i7-11800H
メモリ:Dual-channel 32GB DDR4 SDRAM
ディスプレイ:15.6″ HD Display with IPS(3840 x 2160 in 2D mode)(1920 x 2160 in 3D mode)
グラフィック:NVIDIA® GeForce RTX™ 3080 with 6GB GDDR6 VRAM
ストレージ:1 TB SSD
ウェブカメラ:1280 x 720
アイトラッキングカメラ:1280 x 480 (VGA x 2)
ワイヤレス and ネットワーク:Intel® Wireless Wi-Fi6 AX201 802.11a/b/g/n/acR2+ax wireless LAN Supports Bluetooth® 5.1 Gigabit Ethernet, Wake-on-LAN ready
I/O – Ports and Connectors:USB 3.2 Gen 2, USB Type C / Thunderbolt 4, DisplayPort 1.4, HDMI port with HDCP support, SDCard reader, 1000mb Ethernet (RJ-45) port

 

Q: サポートはありますか?
A: 製品の販売価格には「1年間のメーカー保証」が付属しています。基本的な操作方法についてのサポートは行っておらず、マニュアルをご参照ください。別途、特別なサポート(初期導入支援、継続的な技術サポート等)が必要な際は有料となりますのでご相談ください。

Q: 納期はどのくらいになりますか?
A: zSpace商品の多くは、当社にてご注文を受けた後、米国zSpace社に発注をかけて、米国もしくはそのほか製造地より輸入する手順になります。そのため、感染症や半導体等部品調達の問題がない時期でしたら2-3週間、それら問題がある場合には2-3ヶ月間かかる場合もあります。時期にもよりますので、お気軽にお問合せください。

 

お問合せはこちらから

CONTACT

コーポレートロゴデザインのリニューアル

2022年4月

 カディンチェ株式会社(本社:東京都渋谷区、代表取締役:青木崇行、以下「カディンチェ社」)は、2022年4月1日にコーポレートロゴデザインをリニューアルすることをお知らせします。
今回のリニューアルにより、さらに時代に沿ったプロダクトや社会課題に取り組んでいきます。

 カディンチェは2008年に創業し、今年で13年目を迎えます。“驚きを創り、世界に貢献する”という企業理念はそのままに、時代のニーズに合わせたバーチャルリアリティ(VR)ミックスドリアリティ(MR)を代表とする時空間・人間拡張技術を研究開発し、引き続き社会実装をしかけていきます。

・ブランドロゴ

社名の「カディンチェ」とは、ゾンカ語(ブータン王国の言語)で「ありがとう」という意味です。ロゴマークに採用している鳥は「ワタリガラス」であり、北米大陸先住民族においては「創造主」や「トリックスター:Trickster」として神話に登場します。生かされていることに感謝しながら、他とは違う少し変わったこと、いたずらっぽいけど結局は良い方向に導けるようなことに取り組んで行きたいという想いを込めて、社名とロゴを決定しました。

 また、弊社は事業拡大のため代官山にオフィスを移転し、ミエクル株式会社(松竹とカディンチェの合弁会社)と新たに2022年1月に「代官山メタバーススタジオ」(住所:東京都渋谷区代官山町14番23号)を設営いたしました。

代官山メタバーススタジオ」では、グリーンバックや大型LEDディスプレイを用いて、リアルタイムに人物とCG背景を合成し撮影することができます。これにより、ロケーション撮影が難しいといった地理的制約や、日照時間・天候といった自然条件に左右されない制作が実現できます。また、CG撮影後に必要な背景と人物の合成作業が大幅に短縮されるため、従来の編集作業の効率化が期待されます。本スタジオは、エンターテインメント×テクノロジーをテーマに設立したミエクル株式会社を主体として運営して参ります。

▼カディンチェ株式会社の概要
代表者:青木崇行
所在地:東京都渋谷区代官山町14−23 セントラル代官山 5階
設立:2008年8月
事業内容:VR/AR/MRシステムの企画・研究/受託開発・運用、コンテンツ制作・配信

URL: https://www.kadinche.com

お問い合わせは下記から
https://www.kadinche.com/contact/

 

バーチャルプロダクションソフトウェア「Pixotope」の取扱い開始

2022年3月
カディンチェ株式会社は、Pixotope Technologies社の国内正規代理店になりました

リアルタイムバーチャルプロダクションソフトウェア Pixotope

カディンチェ株式会社(本社:東京都渋谷区、代表取締役:青木崇行、以下「カディンチェ社」)は、ノルウェーのオスロに本社を置くPixotope Technologies社の国内正規代理店となり、リアルタイムバーチャルプロダクションソフトウェア「Pixotope(ピクソトープ)」の取扱いを開始しました。

Pixotope Technologies社は、ライブメディアプロダクションにおけるミックスドリアリティ(MR)ソリューションを提供する国際的なソフトウェア開発会社です。同社の「Pixotope(ピクソトープ)」は、Unreal Engine(UE4)をベースにして動作するソフトウェアであり、テレビ、オンライン動画、映画制作の現場にて、実写映像にCG(コンピュータグラフィックス)のオブジェクトをリアルタイム合成する際に用いられています。Pixotope Technologies社の大株主は、ノルウェーのオスロを本拠地とする投資会社であるEltec Holding社です。

Pixotopeの主な機能

■ リアルタイム合成
ライブで実写映像とCG映像を合成するUnreal Engineを用いたソフトウェア
■ バーチャルシーン(VS)
CGで制作されたバーチャルシーンやバーチャルスタジオセット上に、実写で撮影された出演者を合成
■ オーグメンテッドリアリティ(AR)
実写で撮影された映像上に、CGで制作されたキャラクターやオブジェクトを合成
■ クロスリアリティ(XR)
背景用大型LEDディスプレイをバーチャルプロダクションで背景映像や照明として使用可能に 
■ WYSIWYG (What You See Is What You Get) インターフェイス
直感的で使用しやすいグラフィカルユーザインターフェイス(GUI)を採用

Pixotopeの国内使用事例

カディンチェ社では、2022年1月に松竹株式会社とミエクル株式会社とともに「代官山メタバーススタジオ」(住所:東京都渋谷区代官山町14番23号)を開設しました。本スタジオでは、2022年1月25日に歌舞伎公演『META歌舞伎 Genji Memories』をライブ配信しました。このライブ配信で使用したのが「Pixotope(ピクソトープ)」であり、日本国内で最も早く本ソフトウェアを使用した配信事例になりました。

バーチャルプロダクションやインカメラVFXを実現するにあたり十分な機能を搭載し、直感的なユーザインターフェイスを実現していて、競合製品に比べて価格競争力もある「Pixotope(ピクソトープ)」を日本で販売開始することで、より手軽かつ安価に動画制作現場のニーズを満たせると考えております。

また、カディンチェ社では「Pixotope(ピクソトープ)」の販売だけでなく、販売前のデモンストレーション、販売後のテクニカルサポート、代官山メタバーススタジオを利用した撮影協力、その他XRコンテンツ開発等の幅広いソリューションを提供可能ですので、お気軽にお問い合わせ下さい。

▼カディンチェ株式会社の概要
代表者:青木崇行
所在地:東京都渋谷区代官山町14−23 セントラル代官山 5階
設立:2008年8月
事業内容:VR/AR/MRシステムの企画・研究/受託開発・運用、コンテンツ制作・配信
URL: https://www.kadinche.com

お問い合わせは下記から
https://www.kadinche.com/contact/

代官山メタバーススタジオ:バーチャルプロダクションの研究開発

2021年12月

バーチャルプロダクション手法を用いたXR・映像コンテンツ開発拠点

ミエクル株式会社(松竹とカディンチェの合弁会社)では、バーチャルプロダクション手法の研究開発拠点として「代官山メタバーススタジオ」(住所:東京都渋谷区代官山町14番23号)を2022年1月から開設します。(以下、松竹によるプレスリリースの抜粋も含まれます。)

「代官山メタバーススタジオ」では、グリーンバックや大型LEDディスプレイを用いて、リアルタイムに人物とCG背景を合成し撮影することができます。これにより、ロケーション撮影が難しいといった地理的制約や、日照時間・天候といった自然条件に左右されない制作が実現できます。また、CG撮影後に必要な背景と人物の合成作業が大幅に短縮されるため、従来の編集作業の効率化が期待されます。本スタジオは、エンターテインメント×テクノロジーをテーマに設立したミエクル株式会社を主体として運営して参ります。

スタジオ設備概要

本スタジオは、横幅10m x 奥行き13m x 高さ 2.7mの空間であり、グリーンバック(2022年1月より)やLEDウォールを背景(2022年春以降を予定)とした撮影を可能にします。主な施設設備は以下の通りになります。
・撮影エリア:横幅10m x 奥行き5mのエリアにて、グリーンバックを背景として撮影できます。
・モーションキャプチャエリア: 横幅10m x 奥行き5mのエリアにて、モーションキャプチャが可能です。
・カメラトラッキング:Stype社のRedSpyを導入しており、カメラのトラッキングが可能です。
・リアルタイム合成:Future Group社のPixotopeを導入しており、UE4と併用することでリアルタイム合成が可能です。
・控室:10人以上が滞在できる控室には、洗面台も用意しております。
・打ち合わせ・ポストプロセッシングスペース:その他にも明るいお席を用意しております。

バーチャルプロダクション手法を用いた歌舞伎配信公演を実施

スタジオ発のコンテンツ第一弾として、2022年1月下旬に、源氏物語を題材とした歌舞伎公演を実施します。バーチャルプロダクション手法を用いて、バーチャル背景とリアルで舞う歌舞伎俳優をリアルタイムで合成し生配信いたします。日本の美しき季節の移り変わりの情景を3Dセットで表現し、従来の制作手法の枠を超えた、次世代のエンタテインメントを提供します。

360°写真展のバーチャルツアーをオンライン開催

2021年10月

10/7(木)21:00〜、写真家 関健作さんのオンライン写真展「2:16.22」が1日限定で開催されます。
PC の Webブラウザからアクセス可能な360°ギャラリー内にて、関さんの説明や参加者からの質問に対する回答をリアルタイムで聞くことができます。参加費は無料です。

この写真展は、カディンチェ株式会社の複数人同時体験型バーチャルツアーPanoPlaza Tourを利用してテスト的に行う展示となります。オンラインの写真展にご興味ある方、お時間にご都合つく方、是非新しい鑑賞体験をお試しいただければと思います。

◎日時:2021年10月7日(木) 21:00~22:00
◎参加無料:定員8名(キャンセル待ち可能)
◎参加方法:Messengerにて別途URLとID/パスワードをご案内します。
◎推奨環境:パソコン、ウェブブラウザchrome利用

参加登録や写真展の詳しい内容はこちらをご参照ください。

バーチャルプロダクション:スタジオ構築メモ

2021年9月
バーチャルプロダクションに必要な設備や機械装置

1,360動画撮影をやってきた会社がバーチャルプロダクションをやり始める背景・動機

感染症によるオンラインエンタメへの需要増加

2020年春から流行している感染症により、実空間で提供していた各種エンターテインメントのオンラインシフトが進行しました。エンターテイメントの中でも演劇や舞台芸術は、動画でのライブストリーミングで配信されたり、音楽コンサートは3次元メタバース空間でのバーチャルコンサートが開催されています。社会環境の変化により、オンラインエンターテインメントへの需要が急増し、映像制作の現場においても対応や革新の要求が強くなってきました。

実写とCGの融合

劇場が閉鎖され、公演をオンラインで実施するに際して出てきた課題が、リアルな劇場でやっていた公演がオンラインでもそのまま成立するのか?オンラインに適用した公演・特徴付けとはどのようなものだろうか?といったものでした。リアル公演の制作費については、会場の座先数 x 稼働率 x 公演回数x チケット代の計算で、制作にかけられる最大費用が算出できます。この座席数やチケット代は、オンライン配信に比べて客数が多かったり、チケット代金も高額だったりすることから、相当な金額になってました。しかしオンライン配信では、対象となる視聴者がPCやスマホの操作になれたユーザ層に絞られたり、視聴者がかけられる予算感も数百円から数千円などと、劇場のチケット代より単価が低くなりました。これらの背景から公演の制作も劇場向けの規模を維持するのは難しく、出演者数を減らしたり、大道具・小道具の量も減るだろうという予測になりました。役者や大道具・小道具の量を削減しなければいけない中で、公演としての品質を下げずにやるには、バーチャル・デジタルな要素を足すことで、オンライン配信専用の公演制作をするのはいかがでしょうか。リアルな役者のテクスチャや動きは実写にて、背景や演出の一部をデジタルで実現することで、オンライン配信に向いたコンテンツ制作をできるのではないかと考え、バーチャルプロダクションの調査が始まりました。

ソフトウェア開発能力の可能性

バーチャルプロダクションの調査を進めると、スタジオでの実写撮影に加えて、その映像にリアルタイムでCGを合成するに際して、Unreal EngineやUnityといったゲームエンジンや、そのゲームエンジンから派生した専用ソフトウェアなどが必要ということがわかり、これならソフトウェア開発に専門性のある当社としても親和性がありそうだということになり、業界に貢献できるかもと考えました。

  

2,動画スタジオを始める際に必要な撮影機材(カメラ、レンズ、照明、ドリー等)

バーチャルプロダクションを進めるにあたり、まずはスタジオの構築が必要になります。スタジオといっても、静止画のスタジオ、動画のスタジオ、音声収録のスタジオと世の中には多くの種類のスタジオが存在し、今回は実写映像とCGの合成を目指したスタジオなので動画撮影のスタジオになります。

カメラとレンズ

動画撮影のスタジオで使われるカメラはシネマカメラと呼ばれ、それらカメラで使われるレンズはシネマレンズまたはシネマレンズと呼ばれるようです。最近の一眼レフカメラでは、動画も撮れるようになってはきていますが、その多くのメーカー・機種において、最⻑記録時間に30分制限があったりします。それ以外にもシネマカメラの特徴には、音声録音のためのマイク系機能・インターフェイスがあったり、または動画に特化したピクチャープロファイルを選べたりと、やはり動画には動画専用のカメラを使う理由があります。

レンズについても同様で、特にバーチャルプロダクションでは、ズームレンズ使用時にズーム倍率によって開放値が変わらないこと、それによりズーム倍率を変えてもグリーンバックの抜け(キーイング)が変わらなくなったり、さらにカメラトラッキングシステムとの連携のためにレンズにギアがついているか等が必要条件になります。これらの要件にある製品として、当社ではSony FX6Sony SELC1635Gでまずは環境構築・制作フロー構築を開始しました。

照明(ライティング)

バーチャルプロダクションにおける照明の役割は、メインの被写体である出演者を照らすだけでなく、グリーンバックカーテンを一様に照らすなどもあります。スタジオ照明の製品もピンからキリまであり、また数も必要になるので、実は撮影機材と同じかそれ以上に費用がかかってしまうのが照明だということもわかりました。バーチャルプロダクションの照明においては、後々リアルタイム合成等で用いるゲームエンジンやその他ソフトウェアから、3D CGで制作するバーチャルセット内の明るさや色に合わせられるようコンピュータからの制御が必要になり、DMX信号に対応した照明である必要性も出てきます。したがって演色性もあり、DMX対応の照明というのが要件になります。

ドリー・クレーン・ジブアーム

動画では、たとえ一つの被写体であっても、カメラのズーム、動き(カメラワーク)、スイッチング等を駆使することで、一つの被写体であっても複数視点で撮影することで魅力的な映像を作れます。スタジオでは複数のカメラを配置するだけでなく、一つ一つのカメラが動ける範囲を確保する、カメラがブレずに動ける手段を確保する必要があります。

カメラを手持ちにしつつ安定して撮影する機材として、ジンバルがあります。最近ではDJIのRoninシリーズやFeiyutechなどを人気かと思いますが、これらもカメラワークにバリエーションをつける良い選択肢の一つです。さらにダイナミックにカメラを動かしたい場合は、クレーンやジブアームといった人間の手足を超えた、大きな機械装置によりカメラの動きを作ることで、手ブレ等が発生することなく、斬新なカメラワークを実現できます。ドリーなどもスタジオ内にレールを引くことで、スムーズな水平移動を可能にする機材になります。

3,バーチャルプロダクションの概要(他者事例も含めて)

技術構成

バーチャルプロダクションを実現するにあたり、従来のスタジオ動画撮影と比較して、技術的に異なる点は以下のような事項になります。詳細については、次章以降で書きますが、ここではまずは概要だけ列挙します。

実写動画とCGのリアルタイム合成:これまではキーイングといって、グリーンバック等を用いて撮影し、後処理で背景のカーテンを削除して、そこにCG画像を表示して合成をしていました。これをリアルタイムに実現するところにバーチャルプロダクションの新規性があります。
カメラトラッキング:表示するバーチャルなオブジェクトが自然に見えるように、カメラの位置把握(トラッキング)をすることで、3Dオブジェクトの表示を変えて、より現実的な見え方を実現します。
バーチャルセット:出演者・演者さんは実写にして、背景セット・大道具・小道具等をデジタルアセットにすることで、リアルな舞台制作が不要になったりします。バーチャルセットの作り込みにはCG技能が必要になります。

作品事例・海外事例

バーチャルプロダクション手法を用いて制作されたメジャーな作品の一つとして、スターウォーズのドラマ作品であるマンダロリアンが挙げられます。この作品はバーチャルプロダクションの制作フローでよく活用されるUnreal Engineのデモ動画等でも取り扱われることも多いので、多くの関係者が参照する作品になっています。また、小規模なスタジオが制作されたであろう作品の一つに、VFXアーティスト IanHubert氏の新作『Dynamo Dream』のティザー映像を挙げます。

この作品は、小型スタジオで撮影したであろうバーチャルプロダクション事例を探していたときに見つけたものですが、スタジオはそんなに広くないにも関わらず、役者さんの前後左右の動きや、映像内にエレベーター(昇降機)を設けることで、アパートの部屋、軽食売り場、駅のような3シーンの遷移が行われており、バーチャルプロダクションの可能性を感じさせてくれました。

国内事例

私達がスタジオ構築の検討を開始した2020年-2021年頃に先行していた国内事例は以下のとおりです。

  • 株式会社CyberHuman Productions
  • バーチャル・ライン・スタジオ株式会社
  • Sony PCL
  • Netflix
  • 東映ツークン研究所
  • 4,動画とCGの3次元的なリアルタイム合成(UE4 & Reality/Pixotopeを中心に)

    バーチャルプロダクションに使用するハードウェアが決まった後に決めるべき大きな決断の一つにソフトウェア環境をどのようにするかというのがあります。まずはベースに使用するゲームエンジンの選定ですが、これはUnityとUE4という選択肢があります。私達の場合は、リアルタイム合成ソフトウエアとの相性を優先して考え、UE4を選定。その上でリアルタイム合成ソフトウェアの選択肢を以下のように設定しました。

  • Zero Density:Reality Engine
  • Future Group: Pixotope
  • 国内で使用例が多く、日本語でのサポートが充実しているのはReality Engine。おそらく、低リスクで王道的に行くのでしたらこちらの選択肢になります。しかし、ライセンス形態が複数に分かれており、いろいろ揃えていくと高額になるのと、ソフトウェアのUI的な使い勝手としては必ずしもベストではありませんでした。現時点で使用しているのはPixotopeです。これは日本での導入事例は少なくとも2021年春頃のメーカー側の返答としてはないらしく、しかしUIが直感的で、オンラインのサポートミーティングでも親切だったということで、進めています。

    5,カメラトラッキングシステム(RedSpyを中心に)

    カメラトラッキングステムにも複数の選択肢があります。試験段階と本格導入の2段階で分けて書きたいと思います。

    簡易にやるにはHTC Vive Tracker

    バーチャルプロダクションに関心を持ち始めた段階で試したのが、VRのヘッドマウントディスプレイの付属品的に販売されているHTC Vive Trackerでした。このデバイスは通常は人間の身体の⼀部に装着することで、人間のモーションキャプチャをするのに使われるのが⼀般的ですが、これをカメラにつけることでカメラの位置や動きを取ることもできます。仕組みとしては、HTC Viveのライトハウス(センサー)を2台ほど3mx3m程度の空間の対角線となるようなところに配置して、その空間内にカメラがいる限り、位置や動きを取得できます。バーチャルプロダクションの動作確認・原理確認にはこの方法でも十分機能していました。

    本格的にはRedSpy、StarTracker、Ncam

    より広範囲で、高精度でカメラのトラッキングをするには、カメラトラッキング専用のシステムを導入する方法があります。カメラの位置や向きだけでなく、レンズ情報(ズーム率等)も後段のソフトウェアに伝える必要があるため、レンズのギヤに取り付けて使用するエンコーダ式センサも同封されていることが多いです。ここにも以下のような複数の選択肢がありました。

  • Stype: Red Spy
  • Mo-sys: StarTracker
  • Ncam
  • 上記3例はすべて光学式と呼ばれる手法ですが、環境内に反射マーカーシールを貼るタイプであるRed SpyやStarTrackerと、マーカーレスで特徴展抽出の画像処理だけで動作するNcamという区別ができます。前者は屋内で高精度で使用する場合に向いており、後者はマーカーシールを貼るところがなくても使えるため屋外での使用に向いているそうです。私達の場合は、屋内のスタジオでの使用を想定しており、国内での実績例があり、相対的には安価であったRed Spyを導入いたしました。

    6,バーチャルセットの作り方(実写 3Dスキ ャンを中心に)

    バーチャルセット(映像撮影時の背景に用いる3D CGモデル)も、バーチャルプロダクションでは重要なデータになります。カメラの位置や向きによって、背景の見え方も変えないと不自然になるため、背景データは3Dで使用することになります。例えばサイコロを撮影した場合、正面から撮影した場合1が見え、右側から取った場合には5、左側から撮った場合は2が見えるようになるのと同じ原理です。この3Dバーチャルセットの作り方にも大まかに分けて2種類あります。

    実写ベースの3Dモデリング:3Dスキャン・フォトグラ メトリ

    実際に存在する建物や空間を3Dスキャンして、3Dモデルを作成する方法です。古くからあるレーザースキャナなどを用いて空間を3Dスキャンする方法や、最近のセンサーやソフトウェアの進化により急速に画質向上が図られているフォトグラメトリなどの方法があります。当社でもLeica BLK360を利用した3Dスキャンや、⼀般的な⼀眼レフカメラを用いたフォトグラメトリの両手法とも試しており、それらについては別途こちらのページで紹介しています。

    CGによるモデリング

    仮想セットをコンピュータグラフィックスで作成する方法でもバーチャルセットは作れます。この場合はCG制作ソフトであるBlenderやその他建築系ソフトウェアなどを用いて作ります。また、仮想的なスタジオのセットなどについては、アセットとして販売されていることも多いため、Unity Asset Store、UEマーケットプレイスQuixelMegascans等で購入して使用するケースもあるようです。

    7,照明システムとの連動方法

    背景映像が上記の通りバーチャルセットになるため、リアルなスタジオで使用する照明の照度や色温度などもバーチャルセット(演者さんのいる環境)に合わせる必要が出てきます。そのため、照明も単純に明るく綺麗に演者さんを照らすだけではなく、環境に適した設定で照らす必要があります。

    照明の重要性

    物理的なスタジオを構築するにあたり、いまだに試行錯誤や検討が足りていないのがこのライティングです。ある程度の広さのあるスタジオのため、照明の台数は必要ですし、照明も天井に吊り下げるフラットライトやスポットライト、また三脚等で地上高に置いておくライトなど種類も多いです。このあたりのライティングについては、それだけで本⼀冊、1学期分の講義になってしまう分野なのでここでは深入りはしません。みなさん口を揃えておっしゃるのはARRIの照明が良いということですが、とても高価なのです。

    DMX信号

    また、照明装置にDMX信号というフォーマットがあり、これを使うことでPCから遠隔制御ができ、かつ複数台の照明器具を接続することで、⼀⻫制御できることも今回の過程で学習しました。DMX信号に対応した照明の調達はできているものの、まだ本格運用には至っていないのでこちらも後日加筆するようにいたします。

    8,スタジオのレイアウトや構造

    本格的な商用スタジオの多くは、大きな建物・部屋を確保できる沿岸部や郊外にあることが多いようです。⼀方で私達の場合は、ラボとスタジオでエンジニアの行き来ができるような環境を求めており、いきなり商用に⼀般公開するのではなく、短期的には研究開発にフォーカスしたスタジオにしたいということで、通常のオフィスより少し天井高を取れる都内の物件にしました。

    広さ・高さ

    バーチャルプロダクションを手掛けるアークベルさんの平和島XRスタジオは、幅10m x奥行き18m x 高さ4.7mというとても広い空間であり、これだけの空間だと照明の配置も理想的にできますし、複数人の同時撮影なども可能になったり、カメラワークの自由度も格段に増えます。⼀方で我々の 幅10m x 奥行き13m x 高さ2.7mというサイズは小〜中規模スタジオと呼ばれる広さであり、天高2.7m〜3.5m(Max)も必ずしも理想的な高さとは言えないようです。このあたりは他のパラメータとのトレードオフとして妥協した部分であり、⻑期的にはより広くて高いスタジオを第2弾として構築できればと思っています。

    グリーンバックかLEDディスプレイか

    スタジオの背景環境については、グリーンバック等のカーテンを用意して、ソフトウェア側で実写とCGを合成する方式と、スタジオにLEDの壁サイズのディスプレイを配置して、演者とそのLEDに表示される映像をその場でいっぺんに撮影してしまう方式があります。グリーンバックの場合は、演者が完成イメージを頭の中で想像しながら、LEDディスプレイの場合は返しのモニターなどで実際のバーチャルセット内にいる映像を確認しながら演技・出演できるという特徴があります。

    このLEDディスプレイについても、バーチャルプロダクションで用いるには再撮影可能なスペックを選ぶ必要があり、LEDのピッチ幅が1.2mm〜1.5mm以下である必要があると言われているようです。これはLEDディスプレイのスペックが低い場合、そのディスプレイをカメラで撮影した場合、モアレ(干渉縞)などの画質的な問題が発生してしまうためです。私達の環境で調達予定のLEDディスプレイも1.5mmのため、このセッティングで今後実験を開始予定です。

    また、グリーンバックかLEDディスプレイかを判断する際に、撮影時にバーチャルセットが完成済みかどうかという判断基準が出てきます。グリーンバックで撮影する場合は、演者の撮影時にはバーチャルセット素材が完成していなくても、後から合成をすることになるので問題ありません。しかしLEDディスプレイを用いる場合は、演者とセットを撮影時に同時に撮影してしまうため、本番撮影時までにバーチャルセット素材を完成させなければいけないというスケジュールになります。

    9,メタバース時代の映像制作

    動画視聴か、メタバース体験か

    Oculus Riftというヘッドマウントディスプレイ(HMD)の開発者バージョンであるDK1が2016年に⼀般販売をされてから、私達はHMD向けの各種アプリケーションやメタバースシステムを開発してきました。次世代のプラットフォーム向けにシステムを開発することはとても楽しい半面、HMDの⼀般家庭やビジネスでの普及率を考えると、開発したものの拡販はあまり望めないものでした。

    バーチャルプロダクションの可能性が出てきたときに思ったのが、似たような技術(3D、ゲームエンジン、仮想空間=バーチャルセット構築等)を使うものの、アウトプットが映像になるとこれは違った市場・違った顧客層向けなコンテンツ開発になりそうだ、ということでした。最終成果物が映像になることで、没入感や臨場感はVRHMDアプリケーションほどにはならないかもしれないが、これまでとは違った映像体験を実現できそうだと考えました。

    メタバース空間からのライブストリーミング

    またVRメタバースの面白さや可能性を、HMDを持ってないユーザ層にプレゼンテーションする際に使用される方法の⼀つに、メタバース内を撮影した映像の提示があります。これはアバターに仮想的なカメラを持たせて、メタバース内を移動しながら撮影することで、ウォークスルー映像を制作することで実現されます。同じような手法で、メタバース内からアバターを用いてトークをするなどのライブストリーミングも可能になってきました。バーチャルプロダクションではこれをさらに⼀歩進めて、メタバース内からリアル人間がライブストリーミングをできるようになります。
    ミックスドリアリティ(MR)や、オーグメンテッドリアリティ(AR)は、実空間に仮想オブジェクトを配置する技術ですが、バーチャルプロダクション(VP)は仮想空間にリアルオブジェクト・リアル人間を配置する技術と呼ぶこともできるかと思います。

    ロケハン・プレビズ in メタバース

    感染症の影響は映像制作の現場にもありました。県境を跨いだ移動の制限が政府から発せられ、屋外の撮影で必要なロケーション・ハンティング等の事前調査やそのロケ地での現場撮影すらもできなくなりました。⼀時期テレビ放送の多くが過去の番組の再放送だったことは記憶に新しいかと思います。そのような過程でバーチャルプロダクションの準備をしていた我々にとっては、安全なタイミングでロケ地の3Dモデルを制作しておいて、ロケハンやプレビズはすべてVRを利用してメタバース空間内でできるのではないか?ということでした。実空間をデジタルツイン的に再現できるのはもちろん、天気や太陽軌道をシミュレーションしたり、カメラのレンズ画角を設定したりと、これらはすべてゲームエンジンを利用すれば実現できます。いまは、そんな検討もスタジオ構築と並行して実施しています。

    10,まとめ

    以上、まずはバーチャルプロダクションのプロトタイピングまで、スタジオ構築までのメモを記してみました。スタジオの稼働はこれから本格化するので、随時こちらのページも加筆・修正していきたいとは思っていますが、筆不精なため次の更新がいつになるかわかりません。詳細を相談したい、スタジオ構築を考えている、バーチャルプロダクション現場を見学したい等のご要望がある場合には、こちらからご連絡を頂ければ、スタジオ見学がてらお話できるかと思います。皆様のご参考になれば幸いです。

    謝辞

    バーチャルプロダクションスタジオの構築にあたり、以下の方からご助言を頂きました。
    上記の各章も、実はみなさまから頂いた助言・知見でして、それら有効な助言を私だけで留めておくのも社会的な損失になるだろうという判断もあり、本ページを作成いたしました。ご助言を下さった皆様にはここで御礼を申し上げます、ありがとうございました。引き続きご指導もよろしくお願いいたします。

  • インタニヤ:スタジオ構築、カメラ、レンズ、その他撮影用機材
  • ナックイメージテクノロジー:カメラ、レンズ、カメラトラッキングシステム
  • NGC:再撮影可能なLEDディスプレイのご助言
  • 三友:映像機材・照明機材の販売会社
  • FOR.A:DisguiseやLEDディスプレイの販売代理店
  • 代官山オフィス:オーグメンテッドラボ

    2021年8月

    カディンチェ株式会社は2021年8月より東京都渋谷区代官山町に移転しました。それまでのオフィスが2フロアに分かれていて使い勝手が悪かったのと、より大規模なスタジオ構築の構想が立ち上がったためでした。また当社が取り組む業務内容におけるエンターテインメント分野の比率も増えており、よりクリエイティブになりたい、感性を磨きたいといった意図もあり、職場環境を変えてみようということになりました。

    建築・設計

    本ラボの構成要素と狙いは以下のように設定しました。
    ・個人ブース:180cm幅のL字型デスクを130cm高の壁で区切った半個室型ブースを用意し、スタッフが業務に集中できる空間づくりを目指しました。
    ・フリーアドレス:通常はリモートワークが主体のスタッフ向けに、出社時に使用できるデスクをフリーアドレスブーストして用意しました。
    ・ラウンジスペース・会議室:個人ブースを閉鎖的環境にした一方で、スタッフ間・社外のお客様とのコミュニケーション用のスペースも用意しました。
    ・実験スペース:VRのシステム開発、モーションキャプチャやボリュメトリックキャプチャのシステム開発には、スペースが必要になるので、オフィス中央には踊れるぐらいの実験スペースも確保しました。

    本ラボの建築設計と施工は中川エリカ建築設計事務所、マパルスカンパニーリミテッドに担当いただきました。空間設計におけるアドバイスやサインのデザインと制作はDomainのsabakichiさんに担当いただきました。また、本ページで使用している建築写真撮影もsabakichiさんにお願いしました。

    オーグメンテッドラボ

    XRやIoTといったシステム開発に取り組むチームが新事務所をつくるならば、建築的な設計だけでなく、センサやアクチュエータを用いた電機・電子的な要素も加えることで、安全安心であったり、高生産性であったり、感性を刺激する空間を作りたいと発想しました。たとえば、空気の滞留をセンサーで感知した場合は空気清浄機やファンを稼働することで換気を行ったり、人間の滞留・密を検知した場合には移動や分散を促したり、これまでは単一ユーザがHMDの中でしか確認できなかったXR的コンテンツを複数人でHMD無しで体験できるようにすることでコラボレーションや開発を促進したり。せっかく事務所に出社したのであれば、その事務所環境が業務を後押しし、各スタッフの能力を増強するような、オーグメンテッドラボであるべきだと構想をした次第です。

    本格的なXRスタジオ

    当社の従来オフィスでも、モーションキャプチャやボリュメトリックキャプチャといった人間の3次元動作計測・撮影のためや、アトラクション型のロケーションベースVR開発のために、数m × 数mの空間を確保していました。複数のお客様との協業により、その実験空間だけでは足りないケースが出てきたり、大規模・高品質なシステム開発・コンテンツ制作には、より大きなスペースが必要になりました。

    ここでも単純に空間を拡大するだけでなく、XRスタジオ・バーチャルプロダクションを志向し、それ専用のスタジオを作ろうとなりました。ラボとスタジオが近接することで、システム開発とコンテンツ制作を融合した環境構築をできればと考えています。このスタジオについてはこちらのページにてご案内しております。