top of page

ゆるっと知ろう、空間オーディオ(Dolby Atmos)

こんにちは、音楽家のSOZEN(ソゼン)です。

普段はアーティストとしてエレクトロやアンビエントを作ったり。

またそれを提供したり、なぜか音楽で食って行けてるフリーの音楽家です。

(ちゃんと個人事業主になってます)

→こんなお仕事してます



早速本題に入りますが、、



(音楽家の)皆さんはDolby Atmosやってますか!?



しかし大半の人は、、、というか大半の人に


「大変そう」「あまり興味がない」


と言われてしまいます。


僕自身Dolbyに関しては、


「自分の楽曲をDolbyミックスしている」

「Dolbyに関して大手企業と色々企んでいる」

「映画の劇中音楽にも興味がある」


それくらいです。


ですがインディーアーティストではかなり早くDolbyに取り掛かってるのではないかと

勝手に思っています。

実際にめっちゃ大変で(2022年現在)コストがかかり

その上やった割に何かトクをすることも無いです。

自分の曲をDolbyに対応するのもただの自己満です。


でもそれでいいんです。


なので興味が無い人はここでこの記事を見るのをやめてもいいと思います。

半分備忘録も兼ねて久々にこういう記事を書いてみたので、お時間ある方は是非。

今後も新しい情報が出次第なるべく誰でもわかるように更新していきます!


(2022/02/14 記事リリース)

(2022/02/20 一部情報修正)

(2022/03/10 対応ソフトの追加)

(2022/03/15 追記)

(2022/06/12 対応ソフトの追加)

(DawnのDolbyミックス画面)

 

目次

チャンネルベース

オブジェクトベース

  1. ラウドネス値は本来-18LUFSくらいで作る

  2. ノミナルセンターに音を配置する

  3. オブジェクトで何でもかんでも動かすな!

  4. ベッドとオブジェクトの棲み分け

  5. 部屋鳴りの設定は慎重に

 

わざわざクリエイターの僕がDolby Atmosをやる理由


ここは正直自分の音楽性だったり作風、ジャンルによって変わるところだと思います。

僕が作るジャンルは主にエレクトロやアンビエントだったりと、

空間というものに重きを置くジャンルだったり作風だったりですごく相性が良いです。


クリエイターがDolbyをやる理由とは、空間に散りばめる前提で楽曲を作ることが出来ると言うことです。

現在はステレオで製作した楽曲を空間に散りばめるのが一般的ですが、今後は楽曲によっては「作る段階からDolbyで聴いている」と言うのも一般的になって行くと思います。


現在の作り方だとにDolbyと相性があまり良く無いも楽曲も出て来ます、ロックだったり強くコンプのかかるものかなと個人的に思います。(もちろん世の中にはロック楽曲をDolbyにしているものはたくさんあります。)

それはなぜかと言うと後ほど詳しく書きますが、Dolby Atmosという規格はそもそも映画向けに作られているもので、よりリアルな空間というものを追求するため、音楽に落とし込んだ際にも結局それが重要になってきます。

実際Dolbyミックスを聴いてみても、楽曲によってはただ「前から音が出てますよ」っていうだけの形式的なものもあります。

あまり合わない楽曲を空間に散りばめたら、折角ぎゅっと詰まったサウンドがバラバラになってしまい、普段聞き馴染みのあるような音圧は出ないでしょう。(ある意味空間的な音圧は出せますが一般リスナーはついてこれないはずです。)


その上Appleが謳う「空間オーディオ」も要はスピーカーから出てるのを再現してイヤホンで「バイノーラル」と言う形式で再生しているだけ(Apple TVではAVアンプの使用でちゃんとDolbyを聴くことができます)

なので、わざわざ今ある曲を全てDolbyにする理由はないと思っています。

 

Dolby Atmosの基本的な知識


さて、次はDolby Atmosについての基本的な知識を解説します。

”Dolby Atmos”とはDolby laboratoriesが開発している”Dolby Cinema”の中に組み込まれているオーディオ規格の事です。

ここでは”Dolby Cinema”に関する細かい説明は省きますが、映像の規格で言うと”Dolby Vision”があります。これは簡単に言うとHDR(ハイダイナミックレンジ)の規格です。


そのDolbyの定める規格や基準を満たす映画環境のことを”Dolby Cinema”とまとめているわけです。


そんなDolby Atmosで音楽家が知っておくべきステレオとの違いですが、

それを話すためには主に「チャンネルベース」と「オブジェクトベース」と言うものを知らなければなりません。

 

まずは「チャンネルベース」

これは僕たちが普段扱う1ch、2ch、、、というものです。

チャンネルベースでDolby Atmosとよく間違えられがちなのが「サラウンド」です。

従来の「サラウンド」はチャンネルベースで構成されているシステムです。

なので作った音を各チャンネルに送って再生すると言う、最も一般的なものです。

Dolby Atmosはチャンネルとオブジェクトどちらも兼ね備えているので少し違います。


長所

スピーカーレイアウトが決まっている場合は完璧なシステムであると言うことです。

なので製作者側と同じ数のスピーカー、あるいは同じヘッドホンで聴けば製作者と同じ音が聴けます。


短所

それぞれの再生環境に合わせてミックスを作らないといけないと言うところで、圧倒的に柔軟性に欠けると言うところです。

わかりやすくいえば5.1chサラウンドで作られた作品を7.1chで再生しても、余る2つのチャンネルの音は再生されないと言う事です。

2chのステレオ楽曲を5.1chで再生しても、、、まあ鳴る訳無いのは理解できますよね。

逆に7.1chでミックスされた作品を5.1chで再生すると近しいスピーカーにたたみ込まれる形で再生されます。

 

それを補うのが「オブジェクトベース」

これはチャンネルベースとは全く違う概念で、音自体にはどこのチャンネルから出るかは作る段階では決まっていません。

ましてや配信段階でも決まってません。

その代わりに「ここに音を置きたい!」と言うメタデータを記録するのです。

そして再生する環境(ヘッドホンなのかサラウンドか、あるいはDolby環境なのか)に応じて端末でダウンコンバートして流すので、その環境の空間の解像度と言うのを最大限に発揮できます。

ヘッドホンやイヤホンできく場合はバイノーラルと言う形式に変換することによって

頭の中に空間が作られ同じように聴くことができるのです。

Dolbyミックスを作るときマスターという概念がないのはこのためです。

マスターコンプさしようがないしマスターコンプを使う必要が無いのです。

なのでバイノーラルで聴いた際にクリップしていたら、

そのときにときにリミッティングされる感じです。


長所

今までのように7.1ch、あるいは12.1chのような多いチャンネル数のものを一つ一つ作らなくて良くなるので製作者側がめっちゃ楽になると言うわけです。


ちなみに


ちゃんとしたDolbyを再生するのに必要な環境としては一般的に7.1.2あるいは7.1.4、多くて9.1.4やそれ以上です。(最後の数字は天井のスピーカーの数です)

最大60近くの個別のスピーカーまで対応しており、スピーカーの数が増えれば増えるほどその空間の解像度が増すという感じです。


短所

純粋にデータ量がデカイ。

僕がリリースしている曲だと2GBは余裕で行きます。


ちなみに3Dパンニングは天井のスピーカーを使い、スピーカー同士で三角形を作る事によってその中で自由にパンニング出来る、VBAP(ベクターベースアンプリチューブパンニング)という技術が使われています。


Media Arts and Technologyより引用





ここまで説明してきた「チャンネルベース」と「オブジェクトベース」の二つを混ぜてハイブリッドにして、一番流行ったのがDolby Atmosなのです。


Dolby Atmosで設けられているチャンネル数が128ch。

118chがオブジェクトベースのミックスに使われ、残りのチャンネルがベッドと言うチャンネルベースのミックスに使われます。(7.1.2なので10チャンネルぶん)


他にもアンビソニックス等色々語り出すと本当に尽きないので今回はここまでにします。

 

実際どんなソフト使うん?


さてここまで長々と話してきましたがやっと作る話。

必要な環境ですが、、、


まずMac。


これは最低条件です。

僕がWindowsを使わない理由はここら辺が弱すぎるからです。


Dolbyのミックスを作るには”Dolby Atmos Renderer”という

Avidで3万ほどで購入できるソフトが必要になります。(Macのみ対応)

PoolsTools Unlimitedを使うのが一般的です。

2022 Pro Tools StudioからDolbyミックスが可能になりました。


以前はDolbyミックスするためにはミックス用のPCとレンダラー用のPCが必要でしたが、

技術の進歩で1台でもできるようになりました。

なので基本的にはMacでお使いのDAWと”Dolby Atmos Renderer”があれば作ることができます。


しかし!!


Mac嫌いな方でも方法があります!

最近はDAW自体にDolby Atmos Rendererをくっ付けているものがあります。


それがSteinbergのCubaseとNuendoです。


MacだともちろんSteinbergソフトも使えますが、


何と言ってもAppleのLogic Proです。


上記のソフトをお持ちの方は単体のソフトでもDolby楽曲ができてしまいます。


一番簡単なのがやはりAppleのLogic Proです。

僕が作った作品もLogic ProでDolbyミックスされています。



初めて作ったDolbyミックス作品は本家Dolby Atmos RendererとAbleton Liveのセットで作ったのですが、リリースされたばかりで正直全然連携が取れずでとても苦労しました。

その上Appleが定めるDolbyミックスにおける決め事も知らなかったので、本当にひどいものになりました。

環境自体は7.1.4chの環境がなくてもヘッドホンがあればバイノーラル変換を聴きながらミックスが行えます。

Pro Tools Unlimitedを永年で買っても30万はしちゃうしスピーカーも12本とサブウーファーもいるしで初期コストが半端ないし、Nuendoも10万はするので

まずはヘッドホンとLogic Proが一番手が付けやすいです。

ただCubaseは日本だと使ってる方も多いと思いますのでバージョン12から誰でも気軽に始められそうです。

Logic ProでDolby Atmosモードにするためにはメニューバーの「Mix」から「Dolby Atmos」をおして「Spatial Audio」を「Dolby Atmos」にして下さい。


 

そして急に書き出しの話になりますが、本家Rendererでマスターを作ると以下のようなファイルを書き出せます。

これは本家本家Rendererでのみ読み込めるマスターデータとなります。

それとは別で実際にディストリビューターに提出する用のWAVデータがあります。

見た目上は普通のWAVデータなのですが、容量やチャンネル数がまるで違います。

上がステレオデータで、

下がAtmosデータです。


この「ADM BWF」と言う形式のWAVファイルをマスターとして提出します。

Dolby Atmosの配信に対応するディストリビューターは現在Avid PlayDistrokidのみです。

 

作る際に気を付ける事や僕なりのコツ


ここに関しては僕も個人でまだまだ集められる情報も少ないので、

僕が知っている情報を載せていきます。

また今現在Dolby楽曲に対応しているストリーミングサービス(Apple Music, Tidal, Amazon Music)の中で、

今回はApple Musicに焦点を当てて話していきます。


Apple Musicで配信する時において気をつけるところやミックスのコツは、、、

  1. ラウドネス値は本来-18LUFSくらいで作る

  2. ノミナルセンターに音を配置する

  3. 何でもかんでも動かすな!

  4. ベッドとオブジェクトの棲み分け

  5. 部屋鳴りの設定は慎重に

主にこれくらいの事を気をつけながらミックスしています。

 

1. ラウドネス値は本来-18LUFSくらいで作る


トータルのラウドネス値は規定上-18LUFSになるようにしましょう。

僕は-18〜-15LUFSになるくらいで制作しています。

ただし、最初に記載した通りマスターコンプと言う概念がないのでトラック単位で調節するか、数トラックをバスでまとめてコンプでまとめてオブジェクトにしてあげるのが良いです。

 

2. ノミナルセンターに音を配置する


これはめっちゃ落とし穴なのですが、ノミナルセンターに音を配置すべしという事です。

そもそも、ベッドチャンネルの音はApple Musicのヘッドトラッキングは適用されません。なのでヘッドトラッキングで固定したい音はオブジェクトで配置する必要があります。

しかもキックとかボーカルとか真ん中に置きがちなのですが、

真ん中に置いてしまうと、、、

ベッドのハードセンターからなってしまう為、スピーカーで聴くのには良いのですが、

同じくヘッドトラッキングは適用されず、ついてきてしまいます。

なので下の写真のようにステレオソースにしてノミナルセンターで鳴らす必要があります。

 

3. 何でもかんでも動かすな!


Dolbyだー!いっぱい動かすぞー!はかなり危険です。


制作時の最大のオブジェクト数は118chですが、

Apple Musicに載る際、Spatial Codingというオブジェクトをクラスターにし、

最大16個まで圧縮します。

なので配置場所を考えないと、変な場所でクラスターされて実際に作った定位と全然違う感じになってしまいます。

動かしたいサウンドはある程度数を絞ってあげましょう。



満を辞して定位崩れしたDolbyミックス作品

楽曲自体はめっちゃ良いのでぜひ!

 

4. ベッドとオブジェクトの棲み分け


先程も書きましたが、制作時の最大のオブジェクト数は118chです。

何でもかんでもオブジェクトにしてしまうとチャンネルが足りなくなってしまいます。


そもそも広がりがあるサウンドだったりそこまで重要ではない音、FXやリバーブの返しは基本ベッドに送ってあげるのが良いです。

それこそASMR系サンプルをわざわざオブジェクトにする必要も無いので、そう言ったもの

もベッドに送ってあげましょう。



ベッドに送る際は新規オーディオトラックを作った際に最初から設定されているサラウンドパンナーでどのスピーカーまで音をこぼすか指定します。

センターとLFEに送る音の量はパンナーの下部から設定できます。


上記のようにLFEのバイノーラル設定は出来ませんが、バイノーラルで聴く際も音は流れるようになっています。

 

5. 部屋鳴りの設定は慎重に

バイノーラルでミックスする際、サウンドの距離感を再現するために

ベッドチャンネルとオブジェクトチャンネルの位置を

  • Off

  • Near

  • Mid

  • Far

の4つから選んでそれぞれ指定します。

僕はKickやBassのサイズを少し大きくして箱鳴り感を演出しています。

Apple Musicはこの設定を勝手に指定してしまいますが、

きちんと設定しましょう!


と言うのも、AppleはコンテンツをAirPodsや他社製ヘッドホン、スピーカーで再生する際、「Apple Spatial Audio」と言う独自のレンダラーで再生してしまうため、制作時と実際に配信される際で音が全然違います。

Apple TVで視聴する際も、AirPods等で聴く場合は同じですが、

HDMI経由でサウンドバーやスピーカーから出す場合のみはDolby Atmosのレンダラーを使うそうです。


作る側としてはそこの「Apple Spatial Audio」のシミュレーションをLogic Pro内で出来て欲しいなと思います。

そうしてくれればLogic Proを使う理由が少し増えるなと思います。

<追記>

macOS Monterey 12.3以降のMacであればLogic Pro Tools10.7.3にて、AirPods Max、AirPods Pro等でダイナミックヘッドトラッキングでの再生対応とApple Spatial Audioでの音像確認ができるようになりました!

最高です。

 

イマーシブオーディオに関する参考書が無料で公開されているものがあるのでオススメです。


ミックスに関してはエンジニアのグレゴリ・ジェルメンさんが

めっちゃ詳しく日本語で解説されています。

必見動画です。


他にもオススメしたい動画




 

最後に


これだけDolbyを語っておきながらおうちのスタジオはドルビーのドの字もありません、、、、

何が言いたいのかというと「環境が無いからDolbyミックスは作れない」という時代じゃなくなったという事です。

本当に誰でも作れてしまう時代になったけれど、やはりやってる人は少ないです。

もしDolbyやってみたいという人がいればぜひ挑戦してほしいし、逆にDolbyにしてないからと言ってダメなこともありません!

ステレオが一般的になってもモノラルが消えることはありませんでした。

そんな感じでお互い共存していろんな技術を使って

より良い、より質の高い音楽を作っていくことが

僕たち音楽家としての一番の使命なのではないかなと勝手に思っております。


最後まで読んで頂きありがとうございました。



外部リンク:Dolby Atmosとは, Dolby Visionとは, Dolby Atmos Renderer購入ページ, Nuendo, VBAP, ADM BWF, Avid Play, Distrokid, Sound Particles

bottom of page