アップスケーリング(帯域拡張)という技術がある。
本来の帯域にある情報を補完により拡張するというものだ。これにより、ノイズが減りアナログに近い再生音になると言うものだ。
CDはおよそ22KHz、これに音を補完してハイレゾ域の96KHzまで拡張(アップスケーリング)すると言う訳だ。
ここで疑問が・・・。22KHzまでしかない音がどうして96KHzになるのか・・・。答えは単純、上記にあるとおり補間、つまり付け足すのだ。
これはパソコンの拡大縮小と同じ原理、ビット数を付け足す。
音源には様々な楽器が存在する。それには基準音の倍音が存在する。楽器に限らず音の出る物は全てだ・・・。
ピアノが1台ならばその倍音は(楽器の総打音も含め)ハイレゾ域まで存在する。
100台の楽器があれば、その倍音が山のようになり存在する。それを付け足せばよい。勿論超高域程にレベルは減少する。
パソコンで解析すれば良いだけのこと。これは多分当たっているだろう。これにより疑似的に音源は補完されアナログに近いだろう音になる。
恐らくに実信号の差分倍音を使用するだろうから、人工ではない。作為されたものではあるけども、あながち嘘ではない。
信号はデータ化されるので、実際の音源をハイレゾ収録し(96KHzまでもしくはそれ以上)、比較して付け足せばよいのだ。96KHzまでの倍音と22KHzまでの倍音を個々に比較して、不足分を足せば良い訳だ。
この段階で、不要な音は当然消すことができる。楽器の音とノイズは異なるので、再現してもしなくても構わない。まあ、ノイズは消すかな・・・。
これらの処理には大型の集積回路が必要だ。いまやデジタルカメラでは大変な量のデータを処理する。そのチップが・・・。と踏んでいる。
とにかく膨大な情報を瞬時に処理しなければならない。処理の遅延はあるはずだが、カメラと違い、同時に比較はできないから、音楽では再生時にはわからない。この理屈で行けば、どんなものでも良く聞こえると言うことになる。
しかし、本当の音かと言うと、そうではないはずだ。
これは、筆者の考える持論だ。推論である。違うかもしれないし、当たっているかも知れない。
そこで疑問が・・・。そういう処理をするのには何が必要か。コンピューターが必要だろう。そこで、ソニーのDSEE HZXテクノロジーのホープページを見てたら、やはりルネサスR7572のチップの写真が。これはCPUである。やはりコンピューターにより高度な計算がされているようだ。
ルネサス山形は2014年ソニーに買収されている。現在はCMOSセンサーの製造の拠点である。TDKの高級ブランドエソテリックの最高級機K-01Xのホームページの写真を見ると、アップコンバート基盤にチップの型番は不明だが、SONYのCPUが搭載されているのがわかる。
余談だが、K-01Xには旭化成エレクトロニクスのAK4495Sと言う32ビットの高性能DACが搭載されている。
再高級機に国産チップが搭載されているのはうれしい。145万円は高くないだろう。買えないが・・・。
デジタルと言うのはデータ化、符号化である。デジタルにした瞬間にアナログではなくなってしまう。データをアナログに戻すと言うが、これは間違いである。符号がアナログに近い形に化けただけである。元のアナログは消滅しているのだ。デッドコピーなのである。
しかし、デジタル技術を否定しているわけではない。恐らくはこういうのが主流になるのかなとも思っている。
DACにしてもサンプリングは16ビットから24ビット、34ビット、35ビットと上昇を続けている。見かけ上はどんどんアナログの波形に近づいて来ている訳である。
ちなみに、筆者のCDプレーヤも24ビット補間だった・・・。これは推定のような複雑な補間ではなく16ビットを24ビットに拡張してサンプリングしたもの。上級機は32ビットでそれにアップコンバート機能を足したものだ。
メーカーDENONのホームページを見たら「連続的に変化する音楽信号から本来あるべきデータを推測し、デジタル変換の過程で失われた本来のアナログ信号の滑らかな波形を再現します」とあった(原文のまま引用)。なるほどなるほど。変換の過程で失われるとあるが、何が消えるのだろう・・・。
知りたいものだ。帯域の拡張でなくビットの拡張だから、アップスケーリング(帯域拡張)とは全く違うにせよ、やってることは似ている。
ちなみに、TEACのDACで16ビットCDサンプリングで聞くと、とはやはり微妙に音が違う。