ここでCDがなぜ16bit,44.1kHzになったかのお話をしましょう。巷の文献でもよくされている話なのでざっと説明します。

なぜあえてここで使い古されたお話をするのかというと、そこにデジタルの根本的な原理や隠された問題点が含まれているからです。

サンプリング定理と44.1kHz

CDのサンプリングレートが44.1kHzなのは音楽や音に興味がある人なら常識として知っているでしょう。それではなぜCDの規格にサンプリングレートの44.1kHzが採用されたのでしょうか? それは人間の可聴周波数が最高20kHzである事に関係します。可聴周波数とは人間が聞き取れる一番高い音が20kHzという意味です。

ここでサンプリング定理という小難しい言葉の原則が関わってきます。ここで関係するサンプリング定理とはざっくり説明すると、測定する周波数の2倍以上の周波数でサンプリングしないと正しく記録できないという定理になります。仰々しい名前が付いていますがこれだけの事です。これは後述する(多分次回っす)エイリアシングノイズの項目で少し詳しく解説します。

この定理によって、人間の可聴周波数が20kHzであれば正しくその周波数を測定するには最低40kHzでサンプリングしなければいけません。それで少し余裕を持たせてCDの規格にはサンプリングレートを44.1kHzに設定したのです。最近では96kHzや192kHzでサンプリングしたハイレゾという仕様も出てきました。MAの現場では24bit48kHzでレコーディングするのが標準ですし、音楽ではそれ以上のレートで制作する人も多いと思います。僕も音楽の製作は基本24bit,96kHzで制作します。

サンプリングレートをあげりゃいいってわけじゃない

レコーディングに関して言えばサンプリングレートを上げるだけで高音質だと謳うのは少し浅薄です。レコーディングにはデジタル領域以上にアナログ領域を制していないと高音質は望めません。24bit,192kHzで録音しても録音設備、技術、知識が拙ければ、16bitで44.1kHzの録音にも及びません。それはアナログレコード時代でも同じ事です。完全アナログレコーディングにもよくない音質のレコードはたくさん存在します。現在のオーディオインターフェイスでは安価なんものでもだいたい24bit,192kHzまで対応していますが、安価なものとプロ機器ではやはり雲泥の差があります。アナログ部品での信号の劣化、サンプリングクロックの精度、そもそもマイク、アンプの性能などはサンプリングレートをあげる事で得られる音質への影響より遥かに影響力が大きいのです。

Why 16Bit?

次になぜ16bitになったかという話です。前章でも説明しましたが、bitの単位が大きくする事で何を細かく測定できるようになるかというと音圧です。音圧とは平たくいうと音の大きい、小さいです。これはdBの単位の項目で表しました。

そしてここでまたサンプリング定理が出てきます。この定理の中に1bitで表現するのは6dBと決まっているのです。なぜこの数字になっているのかは音響の専門書では出てこないので僕にもよくわかりません。工学系のエンジニアが使う範疇なのでしょう。そして、人間の判別可能な最大音量は120dBと先述しました。それではCDの規格も20bitにしなければいけないのでは? と思うかもしれませんが、100dB以上の音というのは謂わば騒音の類です。不快を通り越して体に悪いと感じるレベルです。オーケストラの一番大きい音でも90dBはいかないようなので、現実的なダイナミクスレンジとして96dBを採用したのです。その為に16bit(96÷6=16)なのです。

CD開発当時、今のように記録メディアは安くなかったですからCD一枚の製造コストをあげない為にもデータ容量は少しでも節約したかったはずです。それでCDの規格としてビジネス的にもいい落とし所が16bit,44.1kHzだったのではないかと思います。ちなみにDVDは規格として24bitで制作されています。

 ビット深度を上げる理由

CDの規格の話だけだとこれだけなのですが、せっかくなので少し話を掘り下げてみようと思います。24bitでレコーディングするとダイナミクスレンジが144dBになり、人間の可聴ダイナミクスレンジを結構超えてしまします。ダイナミクスレンジが120dBになる20bit以上のビット深度は必要ないのでは? と思うかもしれません。確かにそれはその通りです。ハイレゾ音源に24bitはあるけれど32bitがない理由はその理屈です。ちなみに32bitで録音できるオーディオインターフェイスも最近出てきましたが同じくその理由の為今のところ主流ではありません。

32Bit Floating

32Bit Floatingなんとかがあるじゃないか、と思う人があるかもしれませんがあれは32Bitでサンプリングしているという意味ではありません。あくまで24Bitレコーディングを256段階(8bit)に分けて収納し後処理でノイズが入りにくいというものです。どちらかというとフィールドレコーディングのように小さな音をとるのに適しているように思います。32bit Floatingについてはどこかでしっかり解説したいと思います。

個人的には24Bitレコーディングに比べ、小さな音に対し勝手にノーマライズのプログラムが入っていたり、データ収納の際に人の意志がより多く介在する事から何か不自然に綺麗さを強調したり音量のバランス(楽器の倍音やリバーブの残響のような繊細な音)がほんの少し違うように感じるので進んでは使いません。リアルタイムでゲインコントロール出来ないようなフィールドレコーディングなら別ですが、音楽やMAの現場ではゲインをしっかりコントロールして録音する時間がありますのでそちらの方が高音質にレコーディング出来ます。ある程度ゲインコントロール(最近ではゲインステージングとか言うらしい)出来るなら、マシンパワーも取りますし一般的な制作なら24Bitでよいと思います。

当分は24Bit

実際にプロの現場ではCPUの性能が十分になってからはほとんど24bitで制作されています。それは音の解像度、音質という面もたしかにありますが、エンジニアにとってより重要なのはノイズ対策の面の方です。エンジニアにとって自分の音にノイズが混ざる事は一番やってはいけない事であり、一番嫌がります。音が歪んでいたり、ノイズが入っているとエンジニアの腕が疑われてしまうからです。CDなんかでプツっとクリップノイズが混ざっていると不良品になるからです。だからある程度のダイナミクスレンジを確保しクリップリスクを減らし、S/N比を上げたいと考えます。まぁ、それをいったら32Bit Floatingレコーディングで小さな音で録るのが一番ですが32Bit Floatingを使わないと音を取れないようなエンジニアはいないと思うのでマシンにも優しい24Bitで録るのが当分主流になると思います。現場でPCがフリーズする事もエンジニアが最も嫌がる事の一つです。

 

読んでくれてありがとう。

僕はこう思う。

Taiyo Haze


デジタル編 序  はじめに

デジタル編① 基本事項のおさらい

デジタル編② アナログとデジタル

デジタル編③ デジタルが音になるまで

デジタル編④ デジタルデータが音に戻るまで

Column① : CDの規格の話

Column② : サンプリングのイメージを掴む エイリアシングノイズ

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA