After Effectsと共に描くイマーシブ映像の未来 映像作家 糸屋覚氏が語る、オーロラから始まった編集の歩み
360°VR映像やプラネタリウム作品など、ユニークな映像表現や新しい映像体験を生み出し続ける映像作家 糸屋覚氏と、その編集を支える鈴木氏。これまで科学館などで上映されるドーム映像を数多く手がけ、多くの観客を魅了してきました。
本記事では、代表作に込めた思いからVR編集の舞台裏、愛用しているツールや編集機能、そして今後挑戦したいことまで、創作を支える背景とこだわりを伺いました。
編集作業をする映像作家の糸屋覚氏
普段はどのようなお仕事をされていますか?
糸屋:
弊社スケールファクトリーが得意としているのは、大型映像や独自のフォーマットを活かした作品です。プラネタリウムのドームに投影する映像や360°のVR映像などを数多く手がけてきました。現在はクライアントワークに加え、日本の四季を映像として記録する活動にも力を入れています。各地で撮影した映像は、アーカイブ素材としていつでも活用できるよう少しずつ蓄積しています。
僕はもともと20年以上、機械設計の仕事に携わってきました。その経験を活かして、必要に応じて撮影機材やカメラを取り付けるリグなども自作しています。360°VR映像作家および映像システムエンジニアとして活動していて、作品づくりの撮影を担当するほか、演出面も含めて全体の方向性を決めています。
編集は二人で行っていますが、メインで作業しているのは鈴木です。企画から撮影、編集までを一貫して、ワンストップで対応できる体制をとっています。
編集 鈴木氏
手掛けている映像コンテンツとしては、どんな映像が多いのでしょうか。
基本的にCGを使わない実写が中心ですね。特に自然をテーマにしたものが多くて、星空や山からの風景、木々や花などを撮影しています。海外ではオーロラや砂漠など、さまざまな自然をそのままの形で記録することを大切にしています。
僕はもともとエンジニアでしたが、この仕事を始めるきっかけになったのは、アラスカでのオーロラ撮影でした。それから「寒い場所や過酷な環境にも強い人」というイメージを持たれるようになって(笑)……依頼されるのは標高4000メートルを超える高地や、気温がマイナス20度以下の極寒地といった、特殊な環境での撮影が多くなっています。そして現在はVR映像なども多数手掛けています。
日常的にプラネタリウム映像やVR映像などを手掛けられその数ある作品のなかでも、活動の原点となり、現在のスタイルを形づくる大きな転機となったのが、アラスカでのオーロラ撮影に挑んだ『Northern Lights –極北の夜空に輝く光の物語-』でした。
『Northern Lights –極北の夜空に輝く光の物語-』を撮影することになったきっかけや、その背景を詳しく教えていただけますか。
糸屋:
きっかけは、国立極地研究所の共同研究員としてオーロラの研究を手伝ったことでした。そこで初めてオーロラを目にし、空いっぱいに広がる光景に圧倒されました。従来の16:9では表現しきれないその壮大さを映像に収めたいと思い、研究者のつながりからカメラメーカーの協力を得て撮影に挑戦したのが始まりです。
当時はまだ4Kが出始めたばかりの頃でしたが、複数の写真をつなぎ合わせれば全天で8K相当になると気づいて、極地研究所と協力して解像度8,000×8,000という世界初となるドーム映像を制作しました。でも、その上映会に集まったオーロラ研究者や星空の専門家からは「星がずれている」「色がおかしい」と厳しい指摘を受けてしまって……悔しさと同時に「指摘された部分をすべて直せば完璧にできる!」という手応えも感じていました。
その後、上映会の会場を貸してくださった企業の会長ご夫妻との出会いが、大きな転機となりました。ご夫妻は高齢で「一度はオーロラを見たい」と願っていたものの、長時間の移動は難しい状況でした。そこで関係者から「ドームで本物のオーロラを見られないか」と相談を受けたのです。このご縁から新しい360°カメラシステムの開発を一部ご支援いただき、本格的にプロジェクトが動き出しました。
実際のオーロラの撮影はどうだったのでしょうか。
糸屋:
アラスカでの撮影に挑んだとき、周囲からは「失敗するに決まっている」と言われましたが、それでも自作の360°全天球撮影カメラシステム「MAKIBISHI」を組み上げて現地に向かいました。
360°全天球撮影カメラシステムの最新型は2代目「MAKIBISHI-Ⅱ」
ただ、2週間の滞在中、カメラの一部が止まってしまったり紆余曲折ありました。その日も「もう今日はオーロラは出ないだろう」と皆帰ってしまいましたが、直感を信じひとり残っていたんです。すると深夜2時頃、龍が駆け抜けるような壮大なオーロラが現れて、ノーカットで7時間半記録することができました。
帰国後、支援してくださったアラスカ大学オーロラ研究の権威の方に映像を見ていただいたところとても喜んでくださって、「本物に近い素晴らしい映像。これからも本物を撮り続けなさい」と言われ今の活動に続いています。このオーロラの映像がニュースや研究機関を通じてNHKの目に留まって番組撮影にも参加するようになったことで、世界中の絶景を映像に収めたいという想いから、独立を決意するようになりました。
オーロラの撮影をきっかけに、本格的に映像制作の道が始まりました。そこで欠かせなかったのが、新たな挑戦となる「編集」です。まったくの独学で学ぶ中で出会ったのが、{{after-effects}}や{{premiere-pro}}といったアドビ製品でした。
動画編集は、どのように学ばれたのでしょうか。
糸屋:
最初はまったく経験がなくて、撮影した映像をどうにかして編集しなければならない状況から始まりました。当時は今のようにYouTubeなどでチュートリアル動画が豊富にあるわけではなくて、基本的に独学です。{{after-effects}}の分厚い本を読みながら、とにかくコマンドを一つずつ試して、どんな結果になるのかを確かめていきましたね。エフェクトを片っ端から触って検証する、そんな積み重ねで学んできました。
初めて{{premiere-pro}}と{{after-effects}}を使った時の印象はいかがでしたか?
鈴木:
私は動画編集自体が初めてだったのですが、もともとパソコンでイラストを描いたり、{{photoshop}}のようなレイヤー機能のあるソフトを使っていたので、「意外と似ている」と感じました。そのおかげで、思ったよりもすんなり馴染めたと思います。
糸屋:
僕はもともとエンジニアだったので、設計のときに3D CADを使っていました。当時は英語のコマンドを入力しなければならず、マニュアルのようなものもない環境で作業していたので、その経験に比べればそこまで難しくはなかったですね。ものづくりと映像制作は頭の使い方が似ているし、自然と受け入れられた印象です。
ソフトを触っているうちに「こんなこともできる」「あんなこともできる」と次々に発見があって、VR編集の世界にどんどんのめり込んでいきました。
代表作のひとつである『Northern Lights –極北の夜空に輝く光の物語-』に続き、大きな挑戦となったのがプラネタリウム作品『ヒーリングアース』です。世界や日本の自然を巡り、その魅力をドーム映像として届けるこのシリーズは、多くの観客の心を動かしました。制作のきっかけや反響、そして続編『ヒーリングアース IN JAPAN』へとつながる歩みについて伺いました。
『ヒーリングアース』を制作することになったきっかけを教えてください。
糸屋:
きっかけはNHKさんの依頼で、南米を含めさまざまな場所で撮影したことでした。ウユニ塩湖などを撮影し、NHKの番組では4Kや8Kに切り出してカメラワークをつけて使っていただきました。ただ、従来の16:9の枠では表現しきれていないと感じていて、これで終わりにするのはもったいないと思っていたんです。その時に一緒に仕事をしていたNHKのチーフプロデューサーが、プラネタリウムやVRで見せたら面白いという案に乗ってくださって、もともと僕自身「映像でどこでもドアを作りたい」という思いがあったので、世界中を旅するような番組を作ろうと決めたのが始まりです。
ただ、当時このプロジェクトは、鈴木も含めて色々なところから猛反対をされました。プラネタリウム業界では星の解説など教育要素が求められていて、アニメ作品が主流。実写映像をそのまま見せるなんて成立しないと言われていたんです。それでも自分の映像には自信があったので、「どうせ売れないと言われているのならば、今持てるスキルとツールを120%出し切って作り、結果で証明してみせよう。これでダメならもう二度とプラネタリウム映像は作らない」と覚悟して臨んだんです。
そうして完成した作品は業界の予想に反して、一般のお客さんに強く受け入れられました。試写を観てくださった女性が号泣しながらシアターから出てきて「何だか分からないけど心を震わされた」と握手を求めてくださったんです。そのときは僕も思わずもらい泣きしそうになりましたね。そしておかげさまでプラネタリウム業界では異例の大ヒット作品となりました。
2作目の『ヒーリングアース IN JAPAN』についても教えてください。
糸屋:
『ヒーリングアース IN JAPAN』は、2023年〜2024年にかけて撮影したもので、完全に新規撮影の映像で構成しています。1作目は世界各地で撮りためた映像を組み合わせて「世界の絶景」を表現しましたが、2作目では日本に焦点を当て、北は北海道から南は奄美大島まで「日本を巡る旅」をテーマにしました。夏休みの上映では満席になる回もあり、手応えを感じています。
1作目は2021年、2作目は2024年にリリースされていますが、この2つの編集作業において変化はありましたか。
糸屋:
1作目のときは、正直{{after-effects}}を「使っているのか、使われているのか」というくらい、完全手探りでした。丸い超高解像度の映像だったことで、新しい映像表現をするにも難易度の高い編集が続き、そのような映像の編集方法なんてどこにも書かれていないので、とにかく我流でしたね。2作目は1作目をやり切ったことでツールの使い方も理解できて、できることが見えていたので編集を見据えながら撮影に臨めるようになりました。{{after-effects}}自体の進化も大きくて、頭の中で「こうすればできる」と変換できるようになったので、狙いを持って制作できたのが大きな違いです。
1作目のときはとにかく何でも力技でやっていました。イタリアの山で撮影したときは、カメラにものすごい数の虫が集まってしまって、映像の中に全部写り込んでしまったんです。でもその日のカットはどうしても使わなきゃならなくて、1フレームずつポチポチ消していったんですよ。気の遠くなるような作業でした……。
でも今は進化がすごくて一発で消せるようになった。おかげで寝る時間が増えましたね(笑)。ワークフローの手順そのものは変わらなくても、その中のひとつひとつの工程が大きく進化しているのを実感しています。
あとは、360°映像だと、足元の三脚や隠れている自分が必ず写り込んでしまっていて、下を見たら「おじさんがうずくまっている」みたいになってしまっていて(笑)。
鈴木:
「コンテンツに応じた塗りつぶし」が追加されたことで、作業がだいぶ楽になりました。1作目のときはスタンプツールで一枚一枚修正しなければならなかったのが、まず自動でざっくり処理してくれて、最後に違和感のある部分だけ手直しすればよくなったんです。本当に助かっています。
綺麗に消せるので、自然な映像として楽しんでもらえるようになりました。没入感も増して、VRとしてのクオリティは格段に上がったと思います。
『Northern Lights –極北の夜空に輝く光の物語-』や『ヒーリングアース』をはじめ数々の作品を支えてきたのは、独自に磨き上げたVR編集の技術。迫力あるVR映像やドーム映像は、いったいどのように作られているのでしょうか。撮影した素材をどう組み合わせ、どう確認し、そしてどんなツールで仕上げているのか。その裏側のワークフローと、日々頼りにしている編集機能について伺いました。
VR制作の撮影についてあらためて教えてください。
糸屋:
僕らのやり方は、一般的なVRカメラを使う方法とは少し違います。
通常はVR専用カメラを使う方が圧倒的に多いのですが、僕らは一眼レフカメラを6台使って組んだ自作のカメラシステム「MAKIBISHI」を使っています。タイムラプス撮影では約22K(22,000×11,000ピクセル)の解像度で撮影できて、動画の場合はステッチ後のサイズが11Kほどになります。最近は11Kで撮影できるコンシューマー製品も登場してきたので、それも取り入れるようになりましたが、以前はこのMAKIBISHIだけを使って動画もタイムラプスも撮っていました。
MAKIBISHI-Ⅱを組みたてる糸屋氏
ただ、撮影後の処理が本当に大変で毎晩、レンダリングが止まってないかチェックしながら徹夜で進めていたのを今でも鮮明に覚えています。
撮影した素材を繋ぎ合わせる「ステッチング」はどうされているのですか?
糸屋:
今となってはいくつか方法がありますが、市販のソフトを組み合わせて使っています。
基本的な流れとしては、まず{{lightroom}}で撮影した6枚の画像を読み込んで、すべて同じ色味・クオリティになるように現像。仮に並べて調整した後、ステッチングソフトで縫い合わせて1枚にまとめます。それを何千枚も繰り返して作成して、最終的に{{after-effects}}に取り込んで編集していくというワークフローです。
このプロセスを経ないと作品に仕上げられないので、正直、Adobe製品がなかったら何もできないですね。
VR編集の際、映像チェックはどのようにされていますか。
鈴木:
私は本来の使い方とは少し違うと思うのですが、{{after-effects}}のVRコンバーターなどを使って、16:9の平面映像から擬似的にドーム映像のビューを作っています。その上でクルクルと回転させながら確認して、テロップの位置などを調整しています。ドーム映像は特殊な位置にテロップを置く必要があるので、そうした確認が欠かせません。この工夫によって作業効率がぐんと上がっています。
主にVR編集の機能になると思いますが、 {{after-effects}}でよく使ってるお気に入りの機能や便利だと思う機能を教えてください。
糸屋:
普通の人とは少し違うかもしれませんが、僕らにとってこれがないと仕事にならないと言えるのは「イマーシブビデオ」の機能。これが登場したときは本当に「やった!」と思いましたね。
鈴木:
最初に{{after-effects}}を使ったときには、まだその機能すらなかったんですよね。
この「イマーシブビデオ」で特に便利なのは、VR版のワープスタビライザーです。VRは画像の端の部分が切られているので、普通のスタビライザーを使うと繋ぎ目が破綻してしまうのですが、VR用なら3次元(X・Y・Z)の揺れに反映されるので、つなぎ目を保ったまま安定させることができます。使い勝手は通常のワープスタビライザーと同じで、画面上の表示もほぼ同じです。ただ、処理の結果がVR特有の3次元の揺れに反映されるのが大きな違いですね。
糸屋:
以前は色補正やグレーディングをしても、どうしてもつなぎ目に線が出てしまって、色が合わないことが多くありました。そこを馴染ませるために無駄に時間を費やしていたのですが、「イマーシブビデオ」の編集ツールが登場してからは、自動的に整えてくれるようになりました。
VRシャープやVRグロー、VRブラーなどの専用エフェクトも有効です。通常のシャープやブラーをかけると、エッジ部分でつなぎ目がずれて線が出てしまったり、色味が不自然に変わったりするのですが、VR対応のものを使えばそうした問題が出ません。イマーシブ系の機能が充実したことで、以前は膨大にかかっていた作業時間が大幅に短縮されて、その分しっかり眠れるようになりました(笑)。
鈴木:
あと便利なのは、メディアエンコーダーに「VRビデオとして処理」という項目が追加されたことですね。チェックボックスを入れるだけで360度映像として認識されるようになりました。これがないと、せっかくVR映像を作ってもソフト側でVRとして認識されず、ヘッドマウントディスプレイで再生したときにただの横長映像になってしまうんです。この機能追加は地味ですが、大きな進歩で非常に助かっています。
数々の作品を経て積み重ねてきた経験は、今後の挑戦へとつながっていきます。緻密なVR作品づくりを支えるツールや、日頃大切にしている姿勢、インスピレーションの源、そしてこれから挑戦したいことについてもお聞きしました。
{{after-effects}}以外に使っているアドビ製品はありますか。
糸屋:
仕事でよく使うのは{{lightroom}}ですね。特にタイムラプスや星空の撮影では欠かせません。僕の代名詞のように扱われることが多いオーロラや星空の撮影では、数秒おきにシャッターを切って何千枚もの写真を撮って、それをつなげて1本の動画にします。編集の際には、まず{{lightroom}}に取り込んでまず全体をきれいに整えるのですが、以前は不要な部分のゴミをマスクで消したり、スポイトツールで1つずつ修正したりと、手作業が多く大変でした。今は山の稜線だけを明るくしたいという場合でも、ワンクリックで対象を認識してくれる機能のおかげで、仕上げの効率が格段に上がりました。
調整後に連番で書き出して、それを{{after-effects}}に読み込んで動画化する、という流れです。{{lightroom}}は{{after-effects}}や{{premiere-pro}}に次いで、よく使うソフトになっています。
鈴木:
{{photoshop}}もよく使っています。科学館のプラネタリウムの番組では、星空だけを投影すると没入感に欠けてしまうことがあるので、身近な街の風景をエッジ部分に合成するのですが、その風景を整えるときに使っています。
糸屋:
プラネタリウムでは「今日の星空をご覧ください」という時間があって、その地域の風景と星空を重ねるんですね。
この風景を僕らが高解像度で360度撮影して、電信柱や建物をひとつひとつ切り抜いて合成したら、とても綺麗に仕上がったんです。その結果、リアルな校庭から星空を見上げているような体験を再現できて、学校の先生や子どもたちに「こんなにきれいな映像は見たことがない」と驚かれました。子どもたちの食いつきが全然違うんです。それらの切り抜き作業はすべて{{photoshop}}と{{after-effects}}の連携で行っています。
小学校の切り抜きに加えて、実写の星空を合成しています。
また、プラネタリウムの「今日の星空」を上映する際はCGの星空を使用しています。
鈴木:
あと、普段の作業ではWindowsとMacの両方を使っているのですが、特にWindows環境ではMOVファイルを扱うときにサムネイルやプレビューが出ないので、どの映像がどれなのか、1つずつクリックしないと確認できないのがとてもストレスでした。
そこで使っているのがAdobe Bridgeです。Bridgeならすべてサムネイル表示されますし、プレビューもその場でできるので、撮影データの管理が格段に楽になりました。
特に企業から「ProResで納品してください」と言われるとMOVファイルになるのですが、Windowsではファイル名だけ表示されて中身が分からないので、Bridgeでサムネイルを一覧できるのはとても助かっています。
動画編集で心がけていること、またインスピレーションの源はどこにありますか?
糸屋:
実写だからこそ表現できるディテールや色味を忠実に活かすように心がけていて、できるだけ「本物」を再現することを大切にしています。
いまはCGやAIによる映像が増えていて、本物と見分けがつかないような作品も数多く出てきています。その中で、自分が実際に現地に行き、肌で感じてきた空気感や景色を映像に落とし込む。だからこそ伝えられる「本物」を意識して編集に取り組んでいます。
そしてインスピレーションも撮影地で、特に自然の中から空気感や匂いなど、五感を研ぎ澄ませて感じ取ったものから得ていますね。事前にこんな映像にしようと考えていても、実際に現地に行くとそこで受けた感覚によって方向性を変えることも多いです。最終的には、その場で感じたことが一番のインスピレーションとなって、作品に反映されていると思います。
今後の展望や挑戦されたいことをお聞かせください。
糸屋:
いま実際に取り組んでいるのは、16:9の映像をいかにイマーシブな映像として見せられるかということ。日本の自然の美しさはもちろん、文化や芸能、あるいは地方に残る寂れかけた神社などにも大きな力が宿っていて、歴史を紐解けば奥深い物語があります。そうしたものが忘れ去られていく前に、高解像度でアーカイブして残していきたいと思っています。
日本の四季も、近年は夏と冬の二季になりつつあると言われています。紅葉や桜といった美しい景色も、10年後には映像でしか見られなくなるかもしれません……そのときに「日本にはこんなに美しい四季があった」と伝えられる映像を残したい。
そして体が不自由で外に出られない方にも、自分の目の前に景色が広がる体験を届けたい。最終的な夢や目標は、そこにあります。特にコロナ禍では「行きたくても行けない」「見たいけれど見られない」という辛さを強く感じました。本物には勝りませんが、それに限りなく近いリアルな映像や空間をつくることで、世界中のどこへでも行った気になれる映像を届けたい。これを言うとだいたい笑われてしまうのですが、「映像でどこでもドア」をつくりたいと思っています。そういう空間を実現するのが大きな目標ですね。
鈴木:
私は、パソコンに向かうというよりも手を動かしてものを作るのが好きなんです。手芸や絵を描くこともそうですが、もともとはんだ付けや組み立ても得意でした。だから、{{after-effects}}での作業も「工作をしている」ような感覚があって、自分に合っているんだと思います。これからもその感覚を大事にしながら、映像制作に取り組んでいきたいです。
最後に、{{after-effects}}を使って動画制作を始めようとしてる方にアドバイスをいただけますでしょうか。
糸屋:
僕にとって{{after-effects}}は「これで実現できなければ終わり」というぐらいの存在です。無理だろうと思うことでも、工夫すれば実現できる。逆に「これはできない」と判断すれば、作品そのものの方向性が変わってしまうくらい大きい存在。だから選択肢としては、{{after-effects}}一択なんですよね。
大事なのは枠にとらわれず挑戦すること。16:9の四角い画面だけが映像ではないと思うんです。そこを飛び出すことで、新しい可能性を感じられるはずです。そして、その可能性を形にする手助けをしてくれるのがアドビ製品だと思います。
{{after-effects}}や{{premiere-pro}}は四角い映像をつくるソフトというイメージがあるかもしれませんが、実際には僕らのようにさまざまな表現が可能です。まずは自由に触って、いろんな可能性を試してみることをおすすめします。
https://video.tv.adobe.com/v/3475123/?hidetitle=true
糸屋 覚
代表取締役 360VR 映像作家/映像システムエンジニア
HP: https://www.scalefactory.jp/
Instagram: https://www.instagram.com/scale_factory_inc