代官山メタバーススタジオ:バーチャルプロダクションの研究開発

2021年12月

バーチャルプロダクション手法を用いたXR・映像コンテンツ開発拠点

ミエクル株式会社(松竹とカディンチェの合弁会社)では、バーチャルプロダクション手法の研究開発拠点として「代官山メタバーススタジオ」(住所:東京都渋谷区代官山町14番23号)を2022年1月から開設します。(以下、松竹によるプレスリリースの抜粋も含まれます。)

「代官山メタバーススタジオ」では、グリーンバックや大型LEDディスプレイを用いて、リアルタイムに人物とCG背景を合成し撮影することができます。これにより、ロケーション撮影が難しいといった地理的制約や、日照時間・天候といった自然条件に左右されない制作が実現できます。また、CG撮影後に必要な背景と人物の合成作業が大幅に短縮されるため、従来の編集作業の効率化が期待されます。本スタジオは、エンターテインメント×テクノロジーをテーマに設立したミエクル株式会社を主体として運営して参ります。

スタジオ設備概要

本スタジオは、横幅10m x 奥行き13m x 高さ 2.7mの空間であり、グリーンバック(2022年1月より)やLEDウォールを背景(2022年春以降を予定)とした撮影を可能にします。主な施設設備は以下の通りになります。
・撮影エリア:横幅10m x 奥行き5mのエリアにて、グリーンバックを背景として撮影できます。
・モーションキャプチャエリア: 横幅10m x 奥行き5mのエリアにて、モーションキャプチャが可能です。
・カメラトラッキング:Stype社のRedSpyを導入しており、カメラのトラッキングが可能です。
・リアルタイム合成:Future Group社のPixotopeを導入しており、UE4と併用することでリアルタイム合成が可能です。
・控室:10人以上が滞在できる控室には、洗面台も用意しております。
・打ち合わせ・ポストプロセッシングスペース:その他にも明るいお席を用意しております。

バーチャルプロダクション手法を用いた歌舞伎配信公演を実施

スタジオ発のコンテンツ第一弾として、2022年1月下旬に、源氏物語を題材とした歌舞伎公演を実施します。バーチャルプロダクション手法を用いて、バーチャル背景とリアルで舞う歌舞伎俳優をリアルタイムで合成し生配信いたします。日本の美しき季節の移り変わりの情景を3Dセットで表現し、従来の制作手法の枠を超えた、次世代のエンタテインメントを提供します。

360°写真展のバーチャルツアーをオンライン開催

2021年10月

10/7(木)21:00〜、写真家 関健作さんのオンライン写真展「2:16.22」が1日限定で開催されます。
PC の Webブラウザからアクセス可能な360°ギャラリー内にて、関さんの説明や参加者からの質問に対する回答をリアルタイムで聞くことができます。参加費は無料です。

この写真展は、カディンチェ株式会社の複数人同時体験型バーチャルツアーPanoPlaza Tourを利用してテスト的に行う展示となります。オンラインの写真展にご興味ある方、お時間にご都合つく方、是非新しい鑑賞体験をお試しいただければと思います。

◎日時:2021年10月7日(木) 21:00~22:00
◎参加無料:定員8名(キャンセル待ち可能)
◎参加方法:Messengerにて別途URLとID/パスワードをご案内します。
◎推奨環境:パソコン、ウェブブラウザchrome利用

参加登録や写真展の詳しい内容はこちらをご参照ください。

バーチャルプロダクション:スタジオ構築メモ

2021年9月
バーチャルプロダクションに必要な設備や機械装置

1,360動画撮影をやってきた会社がバーチャルプロダクションをやり始める背景・動機

感染症によるオンラインエンタメへの需要増加

2020年春から流行している感染症により、実空間で提供していた各種エンターテインメントのオンラインシフトが進行しました。エンターテイメントの中でも演劇や舞台芸術は、動画でのライブストリーミングで配信されたり、音楽コンサートは3次元メタバース空間でのバーチャルコンサートが開催されています。社会環境の変化により、オンラインエンターテインメントへの需要が急増し、映像制作の現場においても対応や革新の要求が強くなってきました。

実写とCGの融合

劇場が閉鎖され、公演をオンラインで実施するに際して出てきた課題が、リアルな劇場でやっていた公演がオンラインでもそのまま成立するのか?オンラインに適用した公演・特徴付けとはどのようなものだろうか?といったものでした。リアル公演の制作費については、会場の座先数 x 稼働率 x 公演回数x チケット代の計算で、制作にかけられる最大費用が算出できます。この座席数やチケット代は、オンライン配信に比べて客数が多かったり、チケット代金も高額だったりすることから、相当な金額になってました。しかしオンライン配信では、対象となる視聴者がPCやスマホの操作になれたユーザ層に絞られたり、視聴者がかけられる予算感も数百円から数千円などと、劇場のチケット代より単価が低くなりました。これらの背景から公演の制作も劇場向けの規模を維持するのは難しく、出演者数を減らしたり、大道具・小道具の量も減るだろうという予測になりました。役者や大道具・小道具の量を削減しなければいけない中で、公演としての品質を下げずにやるには、バーチャル・デジタルな要素を足すことで、オンライン配信専用の公演制作をするのはいかがでしょうか。リアルな役者のテクスチャや動きは実写にて、背景や演出の一部をデジタルで実現することで、オンライン配信に向いたコンテンツ制作をできるのではないかと考え、バーチャルプロダクションの調査が始まりました。

ソフトウェア開発能力の可能性

バーチャルプロダクションの調査を進めると、スタジオでの実写撮影に加えて、その映像にリアルタイムでCGを合成するに際して、Unreal EngineやUnityといったゲームエンジンや、そのゲームエンジンから派生した専用ソフトウェアなどが必要ということがわかり、これならソフトウェア開発に専門性のある当社としても親和性がありそうだということになり、業界に貢献できるかもと考えました。

  

2,動画スタジオを始める際に必要な撮影機材(カメラ、レンズ、照明、ドリー等)

バーチャルプロダクションを進めるにあたり、まずはスタジオの構築が必要になります。スタジオといっても、静止画のスタジオ、動画のスタジオ、音声収録のスタジオと世の中には多くの種類のスタジオが存在し、今回は実写映像とCGの合成を目指したスタジオなので動画撮影のスタジオになります。

カメラとレンズ

動画撮影のスタジオで使われるカメラはシネマカメラと呼ばれ、それらカメラで使われるレンズはシネマレンズまたはシネマレンズと呼ばれるようです。最近の一眼レフカメラでは、動画も撮れるようになってはきていますが、その多くのメーカー・機種において、最⻑記録時間に30分制限があったりします。それ以外にもシネマカメラの特徴には、音声録音のためのマイク系機能・インターフェイスがあったり、または動画に特化したピクチャープロファイルを選べたりと、やはり動画には動画専用のカメラを使う理由があります。

レンズについても同様で、特にバーチャルプロダクションでは、ズームレンズ使用時にズーム倍率によって開放値が変わらないこと、それによりズーム倍率を変えてもグリーンバックの抜け(キーイング)が変わらなくなったり、さらにカメラトラッキングシステムとの連携のためにレンズにギアがついているか等が必要条件になります。これらの要件にある製品として、当社ではSony FX6Sony SELC1635Gでまずは環境構築・制作フロー構築を開始しました。

照明(ライティング)

バーチャルプロダクションにおける照明の役割は、メインの被写体である出演者を照らすだけでなく、グリーンバックカーテンを一様に照らすなどもあります。スタジオ照明の製品もピンからキリまであり、また数も必要になるので、実は撮影機材と同じかそれ以上に費用がかかってしまうのが照明だということもわかりました。バーチャルプロダクションの照明においては、後々リアルタイム合成等で用いるゲームエンジンやその他ソフトウェアから、3D CGで制作するバーチャルセット内の明るさや色に合わせられるようコンピュータからの制御が必要になり、DMX信号に対応した照明である必要性も出てきます。したがって演色性もあり、DMX対応の照明というのが要件になります。

ドリー・クレーン・ジブアーム

動画では、たとえ一つの被写体であっても、カメラのズーム、動き(カメラワーク)、スイッチング等を駆使することで、一つの被写体であっても複数視点で撮影することで魅力的な映像を作れます。スタジオでは複数のカメラを配置するだけでなく、一つ一つのカメラが動ける範囲を確保する、カメラがブレずに動ける手段を確保する必要があります。

カメラを手持ちにしつつ安定して撮影する機材として、ジンバルがあります。最近ではDJIのRoninシリーズやFeiyutechなどを人気かと思いますが、これらもカメラワークにバリエーションをつける良い選択肢の一つです。さらにダイナミックにカメラを動かしたい場合は、クレーンやジブアームといった人間の手足を超えた、大きな機械装置によりカメラの動きを作ることで、手ブレ等が発生することなく、斬新なカメラワークを実現できます。ドリーなどもスタジオ内にレールを引くことで、スムーズな水平移動を可能にする機材になります。

3,バーチャルプロダクションの概要(他者事例も含めて)

技術構成

バーチャルプロダクションを実現するにあたり、従来のスタジオ動画撮影と比較して、技術的に異なる点は以下のような事項になります。詳細については、次章以降で書きますが、ここではまずは概要だけ列挙します。

実写動画とCGのリアルタイム合成:これまではキーイングといって、グリーンバック等を用いて撮影し、後処理で背景のカーテンを削除して、そこにCG画像を表示して合成をしていました。これをリアルタイムに実現するところにバーチャルプロダクションの新規性があります。
カメラトラッキング:表示するバーチャルなオブジェクトが自然に見えるように、カメラの位置把握(トラッキング)をすることで、3Dオブジェクトの表示を変えて、より現実的な見え方を実現します。
バーチャルセット:出演者・演者さんは実写にして、背景セット・大道具・小道具等をデジタルアセットにすることで、リアルな舞台制作が不要になったりします。バーチャルセットの作り込みにはCG技能が必要になります。

作品事例・海外事例

バーチャルプロダクション手法を用いて制作されたメジャーな作品の一つとして、スターウォーズのドラマ作品であるマンダロリアンが挙げられます。この作品はバーチャルプロダクションの制作フローでよく活用されるUnreal Engineのデモ動画等でも取り扱われることも多いので、多くの関係者が参照する作品になっています。また、小規模なスタジオが制作されたであろう作品の一つに、VFXアーティスト IanHubert氏の新作『Dynamo Dream』のティザー映像を挙げます。

この作品は、小型スタジオで撮影したであろうバーチャルプロダクション事例を探していたときに見つけたものですが、スタジオはそんなに広くないにも関わらず、役者さんの前後左右の動きや、映像内にエレベーター(昇降機)を設けることで、アパートの部屋、軽食売り場、駅のような3シーンの遷移が行われており、バーチャルプロダクションの可能性を感じさせてくれました。

国内事例

私達がスタジオ構築の検討を開始した2020年-2021年頃に先行していた国内事例は以下のとおりです。

  • 株式会社CyberHuman Productions
  • バーチャル・ライン・スタジオ株式会社
  • Sony PCL
  • Netflix
  • 東映ツークン研究所
  • 4,動画とCGの3次元的なリアルタイム合成(UE4 & Reality/Pixotopeを中心に)

    バーチャルプロダクションに使用するハードウェアが決まった後に決めるべき大きな決断の一つにソフトウェア環境をどのようにするかというのがあります。まずはベースに使用するゲームエンジンの選定ですが、これはUnityとUE4という選択肢があります。私達の場合は、リアルタイム合成ソフトウエアとの相性を優先して考え、UE4を選定。その上でリアルタイム合成ソフトウェアの選択肢を以下のように設定しました。

  • Zero Density:Reality Engine
  • Future Group: Pixotope
  • 国内で使用例が多く、日本語でのサポートが充実しているのはReality Engine。おそらく、低リスクで王道的に行くのでしたらこちらの選択肢になります。しかし、ライセンス形態が複数に分かれており、いろいろ揃えていくと高額になるのと、ソフトウェアのUI的な使い勝手としては必ずしもベストではありませんでした。現時点で使用しているのはPixotopeです。これは日本での導入事例は少なくとも2021年春頃のメーカー側の返答としてはないらしく、しかしUIが直感的で、オンラインのサポートミーティングでも親切だったということで、進めています。

    5,カメラトラッキングシステム(RedSpyを中心に)

    カメラトラッキングステムにも複数の選択肢があります。試験段階と本格導入の2段階で分けて書きたいと思います。

    簡易にやるにはHTC Vive Tracker

    バーチャルプロダクションに関心を持ち始めた段階で試したのが、VRのヘッドマウントディスプレイの付属品的に販売されているHTC Vive Trackerでした。このデバイスは通常は人間の身体の⼀部に装着することで、人間のモーションキャプチャをするのに使われるのが⼀般的ですが、これをカメラにつけることでカメラの位置や動きを取ることもできます。仕組みとしては、HTC Viveのライトハウス(センサー)を2台ほど3mx3m程度の空間の対角線となるようなところに配置して、その空間内にカメラがいる限り、位置や動きを取得できます。バーチャルプロダクションの動作確認・原理確認にはこの方法でも十分機能していました。

    本格的にはRedSpy、StarTracker、Ncam

    より広範囲で、高精度でカメラのトラッキングをするには、カメラトラッキング専用のシステムを導入する方法があります。カメラの位置や向きだけでなく、レンズ情報(ズーム率等)も後段のソフトウェアに伝える必要があるため、レンズのギヤに取り付けて使用するエンコーダ式センサも同封されていることが多いです。ここにも以下のような複数の選択肢がありました。

  • Stype: Red Spy
  • Mo-sys: StarTracker
  • Ncam
  • 上記3例はすべて光学式と呼ばれる手法ですが、環境内に反射マーカーシールを貼るタイプであるRed SpyやStarTrackerと、マーカーレスで特徴展抽出の画像処理だけで動作するNcamという区別ができます。前者は屋内で高精度で使用する場合に向いており、後者はマーカーシールを貼るところがなくても使えるため屋外での使用に向いているそうです。私達の場合は、屋内のスタジオでの使用を想定しており、国内での実績例があり、相対的には安価であったRed Spyを導入いたしました。

    6,バーチャルセットの作り方(実写 3Dスキ ャンを中心に)

    バーチャルセット(映像撮影時の背景に用いる3D CGモデル)も、バーチャルプロダクションでは重要なデータになります。カメラの位置や向きによって、背景の見え方も変えないと不自然になるため、背景データは3Dで使用することになります。例えばサイコロを撮影した場合、正面から撮影した場合1が見え、右側から取った場合には5、左側から撮った場合は2が見えるようになるのと同じ原理です。この3Dバーチャルセットの作り方にも大まかに分けて2種類あります。

    実写ベースの3Dモデリング:3Dスキャン・フォトグラ メトリ

    実際に存在する建物や空間を3Dスキャンして、3Dモデルを作成する方法です。古くからあるレーザースキャナなどを用いて空間を3Dスキャンする方法や、最近のセンサーやソフトウェアの進化により急速に画質向上が図られているフォトグラメトリなどの方法があります。当社でもLeica BLK360を利用した3Dスキャンや、⼀般的な⼀眼レフカメラを用いたフォトグラメトリの両手法とも試しており、それらについては別途こちらのページで紹介しています。

    CGによるモデリング

    仮想セットをコンピュータグラフィックスで作成する方法でもバーチャルセットは作れます。この場合はCG制作ソフトであるBlenderやその他建築系ソフトウェアなどを用いて作ります。また、仮想的なスタジオのセットなどについては、アセットとして販売されていることも多いため、Unity Asset Store、UEマーケットプレイスQuixelMegascans等で購入して使用するケースもあるようです。

    7,照明システムとの連動方法

    背景映像が上記の通りバーチャルセットになるため、リアルなスタジオで使用する照明の照度や色温度などもバーチャルセット(演者さんのいる環境)に合わせる必要が出てきます。そのため、照明も単純に明るく綺麗に演者さんを照らすだけではなく、環境に適した設定で照らす必要があります。

    照明の重要性

    物理的なスタジオを構築するにあたり、いまだに試行錯誤や検討が足りていないのがこのライティングです。ある程度の広さのあるスタジオのため、照明の台数は必要ですし、照明も天井に吊り下げるフラットライトやスポットライト、また三脚等で地上高に置いておくライトなど種類も多いです。このあたりのライティングについては、それだけで本⼀冊、1学期分の講義になってしまう分野なのでここでは深入りはしません。みなさん口を揃えておっしゃるのはARRIの照明が良いということですが、とても高価なのです。

    DMX信号

    また、照明装置にDMX信号というフォーマットがあり、これを使うことでPCから遠隔制御ができ、かつ複数台の照明器具を接続することで、⼀⻫制御できることも今回の過程で学習しました。DMX信号に対応した照明の調達はできているものの、まだ本格運用には至っていないのでこちらも後日加筆するようにいたします。

    8,スタジオのレイアウトや構造

    本格的な商用スタジオの多くは、大きな建物・部屋を確保できる沿岸部や郊外にあることが多いようです。⼀方で私達の場合は、ラボとスタジオでエンジニアの行き来ができるような環境を求めており、いきなり商用に⼀般公開するのではなく、短期的には研究開発にフォーカスしたスタジオにしたいということで、通常のオフィスより少し天井高を取れる都内の物件にしました。

    広さ・高さ

    バーチャルプロダクションを手掛けるアークベルさんの平和島XRスタジオは、幅10m x奥行き18m x 高さ4.7mというとても広い空間であり、これだけの空間だと照明の配置も理想的にできますし、複数人の同時撮影なども可能になったり、カメラワークの自由度も格段に増えます。⼀方で我々の 幅10m x 奥行き13m x 高さ2.7mというサイズは小〜中規模スタジオと呼ばれる広さであり、天高2.7m〜3.5m(Max)も必ずしも理想的な高さとは言えないようです。このあたりは他のパラメータとのトレードオフとして妥協した部分であり、⻑期的にはより広くて高いスタジオを第2弾として構築できればと思っています。

    グリーンバックかLEDディスプレイか

    スタジオの背景環境については、グリーンバック等のカーテンを用意して、ソフトウェア側で実写とCGを合成する方式と、スタジオにLEDの壁サイズのディスプレイを配置して、演者とそのLEDに表示される映像をその場でいっぺんに撮影してしまう方式があります。グリーンバックの場合は、演者が完成イメージを頭の中で想像しながら、LEDディスプレイの場合は返しのモニターなどで実際のバーチャルセット内にいる映像を確認しながら演技・出演できるという特徴があります。

    このLEDディスプレイについても、バーチャルプロダクションで用いるには再撮影可能なスペックを選ぶ必要があり、LEDのピッチ幅が1.2mm〜1.5mm以下である必要があると言われているようです。これはLEDディスプレイのスペックが低い場合、そのディスプレイをカメラで撮影した場合、モアレ(干渉縞)などの画質的な問題が発生してしまうためです。私達の環境で調達予定のLEDディスプレイも1.5mmのため、このセッティングで今後実験を開始予定です。

    また、グリーンバックかLEDディスプレイかを判断する際に、撮影時にバーチャルセットが完成済みかどうかという判断基準が出てきます。グリーンバックで撮影する場合は、演者の撮影時にはバーチャルセット素材が完成していなくても、後から合成をすることになるので問題ありません。しかしLEDディスプレイを用いる場合は、演者とセットを撮影時に同時に撮影してしまうため、本番撮影時までにバーチャルセット素材を完成させなければいけないというスケジュールになります。

    9,メタバース時代の映像制作

    動画視聴か、メタバース体験か

    Oculus Riftというヘッドマウントディスプレイ(HMD)の開発者バージョンであるDK1が2016年に⼀般販売をされてから、私達はHMD向けの各種アプリケーションやメタバースシステムを開発してきました。次世代のプラットフォーム向けにシステムを開発することはとても楽しい半面、HMDの⼀般家庭やビジネスでの普及率を考えると、開発したものの拡販はあまり望めないものでした。

    バーチャルプロダクションの可能性が出てきたときに思ったのが、似たような技術(3D、ゲームエンジン、仮想空間=バーチャルセット構築等)を使うものの、アウトプットが映像になるとこれは違った市場・違った顧客層向けなコンテンツ開発になりそうだ、ということでした。最終成果物が映像になることで、没入感や臨場感はVRHMDアプリケーションほどにはならないかもしれないが、これまでとは違った映像体験を実現できそうだと考えました。

    メタバース空間からのライブストリーミング

    またVRメタバースの面白さや可能性を、HMDを持ってないユーザ層にプレゼンテーションする際に使用される方法の⼀つに、メタバース内を撮影した映像の提示があります。これはアバターに仮想的なカメラを持たせて、メタバース内を移動しながら撮影することで、ウォークスルー映像を制作することで実現されます。同じような手法で、メタバース内からアバターを用いてトークをするなどのライブストリーミングも可能になってきました。バーチャルプロダクションではこれをさらに⼀歩進めて、メタバース内からリアル人間がライブストリーミングをできるようになります。
    ミックスドリアリティ(MR)や、オーグメンテッドリアリティ(AR)は、実空間に仮想オブジェクトを配置する技術ですが、バーチャルプロダクション(VP)は仮想空間にリアルオブジェクト・リアル人間を配置する技術と呼ぶこともできるかと思います。

    ロケハン・プレビズ in メタバース

    感染症の影響は映像制作の現場にもありました。県境を跨いだ移動の制限が政府から発せられ、屋外の撮影で必要なロケーション・ハンティング等の事前調査やそのロケ地での現場撮影すらもできなくなりました。⼀時期テレビ放送の多くが過去の番組の再放送だったことは記憶に新しいかと思います。そのような過程でバーチャルプロダクションの準備をしていた我々にとっては、安全なタイミングでロケ地の3Dモデルを制作しておいて、ロケハンやプレビズはすべてVRを利用してメタバース空間内でできるのではないか?ということでした。実空間をデジタルツイン的に再現できるのはもちろん、天気や太陽軌道をシミュレーションしたり、カメラのレンズ画角を設定したりと、これらはすべてゲームエンジンを利用すれば実現できます。いまは、そんな検討もスタジオ構築と並行して実施しています。

    10,まとめ

    以上、まずはバーチャルプロダクションのプロトタイピングまで、スタジオ構築までのメモを記してみました。スタジオの稼働はこれから本格化するので、随時こちらのページも加筆・修正していきたいとは思っていますが、筆不精なため次の更新がいつになるかわかりません。詳細を相談したい、スタジオ構築を考えている、バーチャルプロダクション現場を見学したい等のご要望がある場合には、こちらからご連絡を頂ければ、スタジオ見学がてらお話できるかと思います。皆様のご参考になれば幸いです。

    謝辞

    バーチャルプロダクションスタジオの構築にあたり、以下の方からご助言を頂きました。
    上記の各章も、実はみなさまから頂いた助言・知見でして、それら有効な助言を私だけで留めておくのも社会的な損失になるだろうという判断もあり、本ページを作成いたしました。ご助言を下さった皆様にはここで御礼を申し上げます、ありがとうございました。引き続きご指導もよろしくお願いいたします。

  • インタニヤ:スタジオ構築、カメラ、レンズ、その他撮影用機材
  • ナックイメージテクノロジー:カメラ、レンズ、カメラトラッキングシステム
  • NGC:再撮影可能なLEDディスプレイのご助言
  • 三友:映像機材・照明機材の販売会社
  • FOR.A:DisguiseやLEDディスプレイの販売代理店
  • 代官山オフィス:オーグメンテッドラボ

    2021年8月

    カディンチェ株式会社は2021年8月より東京都渋谷区代官山町に移転しました。それまでのオフィスが2フロアに分かれていて使い勝手が悪かったのと、より大規模なスタジオ構築の構想が立ち上がったためでした。また当社が取り組む業務内容におけるエンターテインメント分野の比率も増えており、よりクリエイティブになりたい、感性を磨きたいといった意図もあり、職場環境を変えてみようということになりました。

    建築・設計

    本ラボの構成要素と狙いは以下のように設定しました。
    ・個人ブース:180cm幅のL字型デスクを130cm高の壁で区切った半個室型ブースを用意し、スタッフが業務に集中できる空間づくりを目指しました。
    ・フリーアドレス:通常はリモートワークが主体のスタッフ向けに、出社時に使用できるデスクをフリーアドレスブーストして用意しました。
    ・ラウンジスペース・会議室:個人ブースを閉鎖的環境にした一方で、スタッフ間・社外のお客様とのコミュニケーション用のスペースも用意しました。
    ・実験スペース:VRのシステム開発、モーションキャプチャやボリュメトリックキャプチャのシステム開発には、スペースが必要になるので、オフィス中央には踊れるぐらいの実験スペースも確保しました。

    本ラボの建築設計と施工は中川エリカ建築設計事務所、マパルスカンパニーリミテッドに担当いただきました。空間設計におけるアドバイスやサインのデザインと制作はDomainのsabakichiさんに担当いただきました。また、本ページで使用している建築写真撮影もsabakichiさんにお願いしました。

    オーグメンテッドラボ

    XRやIoTといったシステム開発に取り組むチームが新事務所をつくるならば、建築的な設計だけでなく、センサやアクチュエータを用いた電機・電子的な要素も加えることで、安全安心であったり、高生産性であったり、感性を刺激する空間を作りたいと発想しました。たとえば、空気の滞留をセンサーで感知した場合は空気清浄機やファンを稼働することで換気を行ったり、人間の滞留・密を検知した場合には移動や分散を促したり、これまでは単一ユーザがHMDの中でしか確認できなかったXR的コンテンツを複数人でHMD無しで体験できるようにすることでコラボレーションや開発を促進したり。せっかく事務所に出社したのであれば、その事務所環境が業務を後押しし、各スタッフの能力を増強するような、オーグメンテッドラボであるべきだと構想をした次第です。

    本格的なXRスタジオ

    当社の従来オフィスでも、モーションキャプチャやボリュメトリックキャプチャといった人間の3次元動作計測・撮影のためや、アトラクション型のロケーションベースVR開発のために、数m × 数mの空間を確保していました。複数のお客様との協業により、その実験空間だけでは足りないケースが出てきたり、大規模・高品質なシステム開発・コンテンツ制作には、より大きなスペースが必要になりました。

    ここでも単純に空間を拡大するだけでなく、XRスタジオ・バーチャルプロダクションを志向し、それ専用のスタジオを作ろうとなりました。ラボとスタジオが近接することで、システム開発とコンテンツ制作を融合した環境構築をできればと考えています。このスタジオについてはこちらのページにてご案内しております。

    事務所移転と第13期期末のご挨拶

    2021年8月
    代官山への移転

    代官山への移転のお知らせ

    カディンチェ株式会社では、2021年8月に以下の通り移転致しました。
    今後のご来訪や郵送物送付の際には、新住所まで頂けるようよろしくおねがいします。
    新事務所住所
    住所:150-0034 東京都渋谷区代官山町14-23 セントラル代官山5階
    TEL:03-6451-3560
    代官山駅から徒歩約5分、恵比寿駅から徒歩約10分

    業務開始:2021年8月4日(水)〜

    新事務所について

    オーグメンテッドラボの構築

    2020年春頃より発生している感染症により、会社が事務所に求める価値や機能が変わってきました。
    感染流行初期にはリモートワーク体制を取ったことにより、オフィスの重要度は下がりました。
    その後感染症対策をしながらの業務にシフトした時期には、オープンで隣人との距離が近いレイアウトでは、飛沫感染の危険性があったり、多くのスタッフが社内外とオンラインミーティングをすることが増え、騒音問題も発生しました。これらの問題は在宅でのリモートワークでは発生しないものの、機材を用いた開発をしたり、密なコミュニケーションを取ったり、また在宅では家族や家屋の問題で集中できなかったりするスタッフもおり、これら問題を解決するオフィスが必要になりました。
    出勤するスタッフは半個室型の個人ブースで集中できる環境を用意し、またリモートワークを継続するスタッフにはフリーアドレスデスクを用意した、新しいオフィスの設計を行いました。新オフィスについては、オーグメンテッドラボとXRスタジオにてご紹介しております。

    第13期を終えて、第14期に

    2008年に会社を設立し、2013年に360度カメラやVR用ヘッドマウントディスプレイが発売された頃よりVRに取り組むようになりました。特に360度動画を使用したHMD用プレーヤーソフトウェア、コンテンツマネージメントシステム、ライブストリーミングシステムなどには360度動画というフォーマットができた頃から取り組んでおり、強い思い入れを持ってました。2019年頃からは実写系VRに加えて、CGを利用したVRアプリ・システム開発も増えてきました。そこで第14期は、主に以下のような技術分野に取組み、引き続き人類に対して新しい道具を提供し、人類の進化に貢献や社会に対して貢献できればと考えております。

    ・VRメタバース・プラットフォーム開発
    ・MRアプリケーション・ARクラウド開発
    ・バーチャルプロダクション
    ・その他非公開プロジェクト

    2021年の年始頃より、当社経営陣にて、これまで当社が力を入れてきたテクノロジー x ビジネスだけでなく、アートやデザインについても注力しようと話をしてきました。合理性や機能性だけでなく、感性や体験価値などが各種システムにとって重要になってきているのは言うまでもありません。実際に、CEOは写真学校に、CTOはアート学校に通っています。代官山への移転も、平日昼間の長時間を過ごす環境を変えることで、我々の開発物・制作物に感性的な影響を与えるものと期待しています。
    これからもカディンチェをよろしくおねがいします。近くにいらっしゃる機会がありましたら、ぜひお立ち寄りください。

    360度カメラによるバーチャル現場巡回を可能にした「Panoplaza Camera」テストユーザーを募集

    2021年6月
    「Panoplaza Camera」(読み:「パノプラザカメラ」)を開発いたしました。

    隙間なく、見落としゼロに|360度カメラによる死角なしの監視

    従来の監視カメラではカメラの特定の向きからの映像のみで、現場全体を監視するには複数台のカメラを設置する必要がありました。それでも完全に死角をなくすことは難しく、防犯や管理の目線から不安が残るのが現実でした。
    「Panoplaza Camera」は、360度カメラを活用することで、通常の監視カメラよりも少ない台数で、死角をほぼゼロにします。
    これにより、現場確認の見落としをなくし、防犯力も向上します。

    見たいときに、見たい映像を|バーチャル現場巡回

    従来は現場巡回や、作業工程の進捗チェックをするために、毎回現場に足を運ぶ必要がありました。
    「Panoplaza Camera」では、インターネット経由で遠隔監視ができる仕組みで、VR視点で実際に現場にいるのと遜色ない「バーチャル現場巡回」を可能にします。
    ブラウザより専用ウェブサイトにアクセスする仕組みにしたことで、社内に限らず、在宅ワーク中のパソコン、出先のタブレットなど、時間・場所を問わず操作ができます。
    サイト内の専用ビューワーでは、フロアマップとリンクした閲覧を可能に。ストリートビューのようなUIで、マップ内移動もスムーズです。
    撮影間隔は1分秒ごとから、設置環境や用途に応じて、10分ごと、1時間ごとなど自由に細かく設定できます。
    過去映像を見たい場合は、日時指定するのみで、作業の進捗確認も即座に終わります。従来の監視カメラのように、カメラを設置した現場まで行き、録画映像を巻き戻して確認する労力が不要になります。
    カメラの解像度や撮影間隔もリモートで設定変更可。視聴のみの権限付与をすれば、設置した管理者に限らず、視聴のみのユーザーも複数人登録できます。

    想定する活用例

    工事・建設現場をはじめとして、工場、飲食店、大型量販店、医療・介護施設など、多様な現場での活用を想定しています。導入台数や規模など需要に合わせたカスタマイズも承ります。

    飲食店の場合

    複数店統括のマネージャーが各店に赴き現場確認。トラブル時には各店の録画映像から必要な日時を探し出しチェック。時間も労力もかかる。

    本社のパソコンからシステムにて各店舗名・日時を指定して、必要な映像を即座に表示。移動の時間も節約。

    大型量販店の場合

    防犯カメラの設置を工夫しても死角はなくならず、隙を突いた盗難被害などが課題。

    死角のない360度カメラにより犯罪が丸裸に。

    機能一覧

    ユーザー管理機能
    ・管理者/Viewer

    カメラの設定機能
    ・カメラの追加や削除
    ・オンライン/オフライン検知
    ・カメラ停止/静止画/ライブ切り替え機能
    ・カメラの撮影解像度の変更
    ・カメラの撮影間隔の変更
    ・カメラの設置の向きの補正

    フロア設定機能
    ・フロア無し/1フロア/複数フロアで利用可能
    ・フロアマップ画像の登録/削除
    ・フロアマップへのカメラ位置設定

    Viewer
    ・ログイン/ログアウト
    ・撮影日時選択
    ・カメラ選択

    募集要項

    「Panoplaza Camera」のテスターについて以下の要項にて募集いたします。
    1. テスターとして、2〜3か月程度「Panoplaza Camera」を試験導入していただける
    2. 導入の利用目的環境や使用感などのヒアリングに適時ご協力いただける
    3. 法人である
    4. テスター期間中、システムを日常的に使用していただける

    注意事項
    1. 一般販売に向けてのテストユーザーとなります
    2. 導入フロアの環境によっては簡単な工事を要する場合があります
    3. 事前のご相談内容や導入環境によってはご希望に沿えない可能性があります
    4. テスター期間終了後の継続利用の確約はできかねます

    お問い合わせ

    「Panoplaza Camera」のテスト導入についてのお問い合わせは以下にお願いいたします。
    ご質問のみでも歓迎いたします。どうぞお気軽にご相談ください。
    カディンチェ株式会社
    担当:稲田 明徳
    電話:03-6451-3560
    E-mail: inada[at]kadinche.com

    バーチャルプロダクションスタジオの設立準備開始

    2021年1月

    カディンチェ株式会社では、バーチャルリアリティ(VR)やミックスドリアリティ(MR)のシステム開発・アプリケーション開発に取り組んでいます。それと同時に360度動画の撮影やVTuber等のライブ配信支援にも取り組んでおり、様々な局面で映像とCGを併用したコンテンツに触れています。2020年春頃から急増している感染症に関する対策として、イベントや舞台などの映像化→ウェブサイトを通じた動画配信のご相談も増えてきました。リアルな会場で行われていた催事や行事を撮影するだけでなく、CGなどと融合して演出や効果を付加することで、ネット配信に適した動画制作のニーズを感じ始めています。そこで実写映像とCG映像を融合した映像撮影を可能にするバーチャルプロダクション手法を確立し、専用のスタジオ設立に向けて準備を開始しました。

    バーチャルプロダクション概要

    バーチャルプロダクションにおいて、まずは以下の3テーマに着手します。

    1.背景映像の仮想化と三次元化:バーチャルセット

    役者の背景に用いる映像は三次元のコンピュータグラフィックスで制作された3Dモデルになります。3Dモデルは完全にバーチャルなものから、実空間を3次元スキャン(もしくはフォトグラメトリーで制作)したデータをもとにしたリアルなテクスチャに近いものまでいくつかの種類が考えられます。当社では、特にリアルな現場をレーザースキャナー等の3Dスキャナーで撮影・計測して、リアルそっくりなバーチャルセットを構築する手法開発に取り組みます。また、実際に制作したバーチャルセットと役者映像の合成については、緑色の布を用いて後処理でソフトウェア合成するグリーンバック手法と、スタジオの背景にLEDディスプレイを配置して、撮影時に合成をするLEDウォールの2手法がありますが、まずはグリーンバックスクリーンを用いた手法に取り組む予定です。

    2.カメラ位置の取得による自由な画角の設定:カメラトラッキングシステム

    背景に3次元モデルを配置して、カメラ位置に応じてカメラから見える背景の角度が変わることで、より実際の空間にいるかのような映像になります。背景映像をカメラの位置や向きに合わせて変更するには、カメラの位置情報や設定情報を取得する必要があり、それらはカメラトラッキングシステムと呼ばれています。まずはHTC ViveのトラッキングセンサーであるVive Trackerを使用した簡易実験から進めますが、春以降にはより広範囲で正確な位置が取得できるカメラトラッキングシステムの導入を予定しています。

    3.映像の(リアルタイム)合成:デジタル&リアルエフェクト

    カメラから入力される実写の映像と、事前に制作されたCGの映像を合成するのはUnreal EngineやZero Density社のReality Engine等のゲームエンジンやリアルタム映像合成ソフトウェアを用いて行います。カメラのレンズやフォーカス等に応じて、背景のCGの写り方も変わり、また演者の動きによってCG側がリアルタイムに変化する(たとえば影を生成する)ことで、リアルとデジタルの映像が違和感なく合成されることになります。

    スタジオマネージャーやクリエイターの募集

    バーチャルプロダクションを利用した斬新な映像を作られたいクリエイターさんとのコラボレーションができればと考えております。まだスタジオ構築にあたってスタジオマネージャーの募集も以下の通り行っております。お気軽にご連絡・ご相談を頂ければ幸いです。

    参考先行事例

    The Virtual Production of The Mandalorian, Season One

    Industrial Light & Magic社は映画「Mandalorian, Season One」の制作において、その50%程度をバーチャルプロダクション手法で撮影されたそうです。以下の動画では約6mの高さで270度をLEDに囲われたスタジオでの撮影風景も紹介されています。

    Unreal Build: Virtual Production 2020 Full Length Sizzle | Unreal Engine

    こちらはバーチャルプロダクションのリアルタイム合成によく使われるゲームエンジンであるUreal Engineによるバーチャルプロダクションの概要紹介動画です。

    いきなり映画製作に利用できるレベルというのは難しいかもしれませんが、一歩ずつ制作フローを確立して、新しい時代の映像制作に取り組みたいと考えております。

    複数人同時体験型バーチャルツアーの開発を行いました

    2020年12月

    感染症予防のために、不動産物件や工場見学などリアルな空間へのお客様の案内をしづらい世の中になってきています。複数人が同じ空間を共有するだけでなく、移動に伴うリスクも懸念されるためです。このような背景の中、360度写真や3Dスキャンを用いたバーチャルツアーは実際の場所には訪問しなくても、その空間を仮想的に体験できるということから、ニーズが強まっています。

    しかしながら360度写真を活用したバーチャルツアーの多くでは、ウェブコンテンツのURLをお客さんに送った以降は、お客さん自身でコンテンツを視聴・回遊する必要があり、内容の丁寧なご紹介や解説をしづらい状況にありました。そこで当社では、バーチャルツアー制作ツールであるPanoPlaza Tourに対して「管理者・閲覧者の複数人同期機能」を追加いたしました。

    本同期機能の主な2つの特徴は以下のとおりです。
    1,アクセス者の見ている地点や方向が、同期していてそれぞれが把握できる
    アクセスしている人の見ている位置や方向が、それぞれのマップ上にユーザー毎に色分けされて表示されるようになっています。
    2,閲覧者のバーチャルツアー表示を遠隔制御できる
    管理者としてアクセスを行うとその他の閲覧者のバーチャルツアーを同期させることが出来るようになります。
    管理者側でバーチャルツアーの操作状況が、閲覧者側のバーチャルツアーにも反映され、遠隔制御にて空間の案内が可能になります。画面上では、同期ボタンを押すだけで両社の画面が同じ動きをするようになります。位置や方向だけでなく、ポップアップなども操作が可能で、細かい管理者から閲覧者に対して、細かく説明をしながらバーチャルツアーを体験頂けます。
    本機能の有効性をご検証頂くために、順次試験導入を頂いております。

    バーチャルツアーをご利用ご検討されている方は、お気軽にお問い合わせください。
    ログイン画面:ユーザー名を入力します

    Tour画面:アクセスしているユーザーが右側に表示され、マップに見ている方向がリアルタイムに表示されます

    遠隔制御デモ動画

    スマホで8Kストリーミング配信を楽しめる「My 8K」 On Demandを開発

    2020年8月

    時空間・人間拡張技術を開発するカディンチェ株式会社(本社:東京都品川区、代表取締役社長:青木崇行)は、株式会社NHKエンタープライズ(代表取締役社長:安齋 尚志)、アストロデザイン株式会社(代表取締役社長:鈴木茂昭)と共に、スマートフォン端末で8Kストリーミング配信をお手軽にお楽しみいただける「My 8K」 On Demand (略称:「My 8K」)アプリケーションの開発を行いました。
    5G時代、そしてウィズコロナの時代に、8Kによる高精細映像が求められる様々な分野において広く貢献することを目指します。

    「My 8K」 On Demandについて

    「My 8K」 On Demandの概要は、以下より動画でご覧いただけます。

    (紹介動画:https://www.nhk-ep.co.jp/nep-development-proposal-3/

    8Kが実現する高解像度映像により、視聴者は臨場感や現実感の高い情報を享受することが出来るようになりました。また、5GやWiFiによる高速・大容量通信の環境整備が進んでいます。
    その上、昨今ではCOVID-19の流行により、遠隔地への情報伝達や、遠隔地間でのコミュニケーションの必要性が高まっています。
    「My 8K」 On Demandでは、7680 pixel × 4320 pixel (8K)で撮影した映像をストリーミング配信し、スマートフォンやタブレット端末を通して視聴することが出来ます。
    そのため、視聴者の自由な視点で、お好きな場所・時間にて、高精細な映像を楽しみいただけます。

    主な特徴

    「ユーザ主導」視聴の実現


    視聴したい映像の範囲やズーム率は視聴者が自由に変更可能なため、カメラの視点が不意に切り替わることなく「観たい箇所を好きなだけ」視聴いただけます。
    例えば、演劇舞台やスポーツ観戦であれば、お気に入りの役者さんや選手だけを追ったり、医療現場であれば、注目したい箇所をズームして再生したりすることが出来ます。

    通信の負荷を抑えた高精細映像の「切り出し」配信


    「My 8K」は、視聴範囲のみを切り出し、最低限の映像データをストリーミング配信します。
    視聴部分のみの映像データを送ることで、ズームした際も、高精細な映像配信を低ビットレートで可能とします。
    なお、映像の事前ダウンロードは不要です。

    撮影も、手軽に。8Kカメラと「My 8K」だからこそ出来る、「俯瞰」撮影


    「My 8K」は視聴範囲に合わせて高画質な映像を配信します。
    また、元々の映像が8Kの高精細映像のため、4Kの映像などと比べてズームした際の画質の劣化を防ぎます。
    複数台8Kカメラでの撮影はもちろん、舞台全体を1つの8Kカメラで俯瞰的に撮影しておくことで、撮影コストを削減します。

    いつでもどこでも、あなたのそばに「My 8K」


    映像の閲覧は、スマートフォン端末やタブレット端末にiOS/Androidアプリケーションをインストールすることで可能となります。
    普段の操作に使い慣れた端末で、外出先で、ご自宅で。「My 8K」はいつもあなたのそばにいます。

    システムについて

    「My 8K」 On Demandのシステム概要は以下の通りです。

    8Kカメラで撮影した映像データは、エンコーディングを行った上でサーバにアップロードします。
    アップロードした動画は、iOS/Androidアプリケーションを通して視聴者にストリーミング配信されます。
    動画の管理者は、導入に特別なアプリケーションは不要で、Webブラウザを通して動画やユーザの管理が出来ます。

    今後の展望

    「My 8K」 On Demandは、舞台・コンサート・美術館等の文化的コンテンツの発信から、スポーツ・医療・建築・製造など、幅広い分野で活用が期待されます。
    マルチアングルや字幕機能等、お客様のニーズに合わせた機能カスタマイズも承りますので、お気軽にご相談ください。
    また、今後は8K映像のライブ配信に向けて、開発を進めてまいります。

    お問い合わせ先

    この件のお問い合わせは以下にお願い致します。
    カディンチェ株式会社
    担当:坂村 美奈
    電話:03-6451-3560
    E-mail: mina.sakamura[at]kadinche.com

    VR技術を用いたがん患者さん向けピアサポート・遠隔フィットネスシステムの 実証実験開始

    2020年7月

    時空間・人間拡張技術を開発するカディンチェ株式会社(本社:東京都品川区、代表取締役:青木崇行)は、VR技術を用いたがん患者さん向けピアサポート及び遠隔フィットネスシステム(通称「VRがんピアサポート」)の効果性を検証するため、東京大学医学部附属病院緩和ケア診療部・部長 住谷昌彦准教授のご協力のもと、実証実験を開始します。

    「VRがんピアサポート」の開発について

    医療現場において同じ病気を経験する患者さん同士で悩みや不安を共有し、その後の人生を前向きに送る知恵や情報を共有しながらお互いに支え合う「ピアサポート」が特にがん患者さんを中心に広がっています。

    通常は患者会や医療機関による会合が中心でありましたが、昨今の新型コロナウィルス感染症の蔓延により対面機会を設けることが困難となったため、SNSやチャットなどインターネット上での機会が増えてきています。

    しかしSNSやチャットなどでは対面型に比べて患者さん同士の交流が希薄になりがちで、またヨガや体操などの体験型プログラムは実施できず物足りなさを指摘する声も聞かれます。

    そこでVR技術を駆使することで、遠隔的な参加でありながら、あたかも対面しているかのような錯覚を与えつつ匿名性を担保した交流を可能とし、さらに運動体験まで可能な仮想空間の開発を進めています。

    「VRがんピアサポート」のシステムについて

    「VRピアサポート」のご紹介動画は以下でご覧頂けます。

    「VRがんピアサポート」には、主に2つの機能があります。
    1)遠隔にいる方々(実験ご協力者)と会話や手の動きを通して交流できる機能
    2)フィットネス(上肢運動)を仮想空間(3D CG)上で実施できる機能

    どちらの機能も、同じ仮想空間内で実行可能なため、1)と2)を合わせて「会話や手の動きを共有しながらフィットネスをする」といったことも可能です。また、フィットネスは“日替わり”で、「ストレッチ」「ボクササイズ」「体幹」などを用意し、それぞれのフィットネスに応じた3D CG空間を用意しています。フィットネス中に表示されるトレーナーの模範体操は、モーショントラッキングで計測した動きを3D CG空間で表示しました。

    トレーナーの模範体操をモーショントラッキングで計測し、3D CG空間(海岸)で表示した例
    トレーナーの模範体操をモーショントラッキングで計測し、3D CG空間(森林)で表示した例

    がん患者さんを対象とした実証実験の実施

    この度、開発段階から監修いただいている東京大学医学部附属病院緩和ケア診療部・部長の住谷昌彦准教授にご協力いただき、その効果性について検証すべく東京大学医学部付属病院にて実証実験を開始する運びとなりました。

    実証実験の実施にあたり同病院受診中のがん患者さん数名にご参加いただき、参加者にはHMD(ヘッドマウントディスプレイ)を貸与して自宅へ持ち帰ってもらい、仮想空間内で用意された運動プログラムへの参加と、参加者同士の交流機会への参加を求めていき、実験前との変化について検証する予定です。

    医師・参加者が懇談している様子
    医師・参加者がフィットネスを実施している様子

    今後の展開について

    実証実験での検証結果を基に、より患者さんのニーズに合った機能の実装をさらに進めて実用化を目指してまいります。また今回のがん患者さん向けの取り組みを一つのロールモデルとして、将来的にはその他の疾患や怪我、シニア層の介護予防領域への応用展開も考えております。

    以上の研究開発に加えて、弊社ではシニア層を中心に在宅における運動の習慣化を推進すべく「オンラインセルフフィットネスシステム」の開発にも力を入れており、高齢化が進む昨今において一人でも多くの人の健康維持・増進に寄与すべく今後も引き続き取り組んで参ります。

    東京大学医学部附属病院緩和ケア診療部・部長住谷昌彦准教授からのコメント

    日本を含め欧米先進国では、がん(癌)を患う患者さんが年々増加しており、日本では2人に1人ががんを経験します。医学の進歩によりがんの治療成績自体は向上していますが、がんを患ったことによって生じる様々な不安や生活上の困り事は病院や診療所などの医療者だけでは解決できないこともあります。さらに、がん治療を無事に終えられた患者さん達でも、体の不調や不安が長引くことが少なくありません。

    私たちは、緩和ケア・支持療法の専門医として患者さんが抱える様々な問題の診療を担当し、がん治療医と協力して一人一人の患者さんにとって最適ながん治療を無理なく続けられることを目標に診療しています。また、がん治療終了後の患者さんに対しても治療介入を行っています。
    このような私たち医療現場での診療とは別に、がん患者さん同士がお互いに支え合うピアサポート(がん体験者による相談)が、医療では埋めきれない患者さんのがんに関わる悩みへの支援として広がってきています。国内でも多くのピアサポート活動が普及してきましたが、まだまだ「遠方で通えない」、「直接、他の患者さんと交流するのは気恥ずかしい」、「まずは少しだけ覗いてみたい」といった患者さんの声をうかがうことが少なくありません。
    そこで私たちは、がんの患者さん達にもっとピアサポート活動に参加していただけるようなVR(バーチャルリアリティー=仮想現実)がんピアサポートを共同開発しました。VRにより物理的な移動距離は解消されて、患者さんが自分の好きな場所で参加することができます。またアバター(ヒト型モデル人形)を用いることで、直接対面での気恥ずかしさはなく、間接的であっても活き活きとしたコミュニケーションをとることができます。

    さらに、私たちがVRがんピアサポートを通じてがん患者さんに提供するのが「フィットネス」プログラムです。日常生活での運動習慣は、がんの発症や再発リスクを軽減できることや、がん治療に伴う副作用の軽減効果があることが分かっていますが、「運動が良いのは分かっているけれども始める切っ掛けがない」、あるいは「始めたけれど3日坊主だった」ということもまた真実であろうと思います。がん緩和ケア・支持療法の専門医の立場からはがん患者さんには少しでも良いので毎日運動していただきたいとの思いを持ち続けており、それをVRがんピアサポートで実現したいと考えています。

    患者さんが、がんを抱えながらも、そして、がんを卒業後にも、溌剌とした生活を過ごして頂くために、患者さんご自身でできる健康マネジメントに是非取り組んで頂きたいと思います。

    がん患者さんが自分でできる健康マネジメントのお手伝いが目標です
    東京大学医学部附属病院緩和ケア診療部・部長
    住谷昌彦准教授

    協力会社

    株式会社Gleam Bridge(事業企画)
    株式会社ユニバーサルトレーニングセンター(エクササイズメニュー監修・モーションアクト)

    お問い合わせ先

    この件のお問い合わせは以下にお願い致します。
    カディンチェ株式会社
    担当:坂村 美奈
    電話:03-6451-3560
    E-mail: vr-fitness-support[at]kadinche.com