アプリ版:「スタンプのみでお礼する」機能のリリースについて

スピーカーやイヤホンから音を鳴らす場合、パソコンやCDの音の情報(デジタル信号)を
アナログ信号にしなければいけないらしいですが、
デジタル信号の時点でほぼちゃんとした波になっているのに
わざわざアナログ信号に直す必要があるのでしょうか?
やはりデジタル信号は波が若干カクカクだから、音にすると変になるのでしょうか?

ささいな疑問ですが、気になってしょうがありません。
分かる方などいましたら、お答えいただけるとうれしいです。
よろしくお願いします。

A 回答 (10件)

>デジタル信号の時点でほぼちゃんとした波になっている


デジタル信号とは「0」と「1」の繰り返しです。
音波とは幾つかの正弦波の重ね合わせです。
これに共通点はまったくありません。
そもそも、デジタル信号には波は全く無いのです。

DA変換とは、デジタル信号を幾つかのビット毎に読みとり、
それを一定の値にして並べていったものです。この変換を
して初めて波形ができるのです。
    • good
    • 0
この回答へのお礼

早速の詳しい回答ありがとうございます。

信号についての説明を、波が描かれた図で見てきたので、変な勘違いをしていました。
重ねて質問になってしまいますが、どなたかお付き合いいただけたら幸いです。
つまり、0と1で表わされた波の情報を、実際の波の形に変えているということでしょうか?
そうすると、アナログ信号になった段階で、0と1のデータという概念から、電流や電圧といった物理的なやり取りに変わるのでしょうか?
少し違う話になってしまいますが、曲は遅くなったり早くなったりせずに、一定のリズムで鳴り続けますよね。音を出力するタイミングなどは、電気的なものになってからでは制御が難しいように思えます。
これはDA変換のタイミングによって行っていると考えてよいのでしょうか。

これについて返事をいただけたらうれしいです。よろしくお願いします。
最後の質問については、場違いな気もするのでまた教えてgooで聞くかもしれません。

お礼日時:2011/03/16 02:47

早速ですが



http://kanaimaru.com/da9000es/0f.htm

左メニュー 12~15 当たりまで参照してください。
    • good
    • 0

自然世界にはデジタルな物はあるのでしょうか?


とにかく音は振動でアナログです。
スピーカーは永久磁石と電磁石で電圧の大きさに反応してコーン(紙)を振動させ音を作っています。マイクは逆です。
http://www.neomag.jp/mailmagazines/200808/letter …
アナログの音をデジタル化して記録しアナログに戻して音にするわけです。
http://proaudio.yamaha.co.jp/training/knowledge/ …

>デジタル信号は波が若干カクカクだから、音にすると変になるのでしょうか?
カクカクの数をものすごく多くするとカクカクが解らなくなります。
映像の方が解り易いので
デジタルカメラの解像度がカクカクの細やかさを表現しています。
初期の30万画素はコンピューターモニターの解像度でプリントすると粗さが目立ちました。
300万画素になると一般的サイズのプリントでも粗さは目立たなくなりました。
解像度の低い画像はまさにカクカクしています。
http://www.detarame.jp/dpi.html
色に関しては赤、青、緑の光りの三原色をそれぞれ256段階に分解しています。


映画は1秒間に24コマの画像でテレビは1秒間に30コマで動画を作っています。
特に映画で動きの早いものが不自然になるのこのためです。

デジタル信号の利点の一つは回路上のノイズの影響を受け難いことです。
最も解り易いのはテレビの地上波アナログ放送には電波のビルの反射などでゴーストが出来易いですが
地上波デジタルの画像にはゴーストは無いようです。
http://www.nhk.or.jp/akita/channel/reciving-inde …
    • good
    • 0

>つまり、0と1で表わされた波の情報を、実際の波の形に変えているということでしょうか?



まず0と1は「波」ではなく、ただの「符号」です。
質問者さんはおいくつの方ですか? 数学で二進数というのを習ったのを覚えていますか?

音はまずアナログからデジタルに変換する際、波を縦軸(音の強弱)と横軸(時間)のます目に区切って、その瞬間瞬間の値を符号化していきます。

音楽CDの場合、16bit 44.1kHzサンプリングで収録されていますが、この16bitが縦軸、44.1kHzサンプリングが横軸に相当します。

16bitは2の16乗=65536で、音の強弱(アナログ電気信号では電圧の強さ)を65536段階に分けてデジタル化(量子化)します。
例えば、ある瞬間の値が130となっている場合、デジタル化、すなわち二進数に変換すると「0000000001000010」です。16bitなので、0と1が全部で16個並びます。

44.1kHzサンプリングとは、1秒間に上記の量子化を44100回行うことです。

以上が簡単なPCMデジタル音声の概念です。実際はそこにエラー訂正など入ってくるので、符号の並び方も異なります。
    • good
    • 0

追伸


>音を出力するタイミングなどは、電気的なものになってからでは制御が難しいように思えます。

なかなか面白いところに気が付きましたね。
たしかにアナログ音源のレコードやオーディオテープは回転数で調整します。
機器の調子が悪くなると確かに遅くなったり早くなったりしましますね。
信号ではアナログだけでなくデジタルでも同期信号と言う信号が基準となりタイミングをあわせるようです。
http://ja.wikipedia.org/wiki/%E5%90%8C%E6%9C%9F% …
    • good
    • 0

・アナログ信号の例


 音⇒空気の疎・密 波⇒水の高・低 電圧⇒高・低 その他
・デジタル信号
 アナログ信号を電気の信号に変えます、その電気信号を高速で
 読み取り、0と1の信号(データー)に変えて記録します。

・デジタルの記録の仕方
 パソコン内⇒電圧の有・無 HDD内⇒磁石のN・S 記録メディア⇒盤面の凸・凹

デジタル信号はパソコンの世界で人間には解りません、アナログ信号に戻してやらないと
人間には解る事出来ません。

レコードを覚えていますか?
盤の内側と外側では、回転する速度が違います、でも聞こえる音楽は速度が変わらず
一定で聴こえます、その辺の事を考察すると解ると思いますが。
    • good
    • 0

まず、そもそも、「デジタル」というのは非常に広い概念です。

いちばん広い意味では、「離散値」と同じような意味です。離散値とは、「2つの値が離散している(間隔が空いている)」という意味です。

「0と1」はその代表例です。「0か1しかあり得ない」という前提に立つと、「0.2は0とみなす、0.9は1とみなす」という結果になります。仮に5.1だとすると、0よりは1に近いので、1とみなします。

さらに一般化して、「整数しかあり得ない」というルールを作れば、「102.214515は102とみなす、199.873256は200とみなす」という結果になります。これも、「間隔が空いている」ので離散値、すなわちデジタルです。

あるいは、「ひらがな」もデジタルの一種です。「あ」と「い」の間には、「『あ』と『い』の中間の文字」というものは存在しません。

これに対して、人間が現実に発する言葉は、アナログです。人によって「あ」の発音は異なりますが、これは連続性があるということです(ざまざまな「あ」が切れ目なく連続している)。このような連続値を、アナログと言います。

では、A/D変換してみましょう。耳で聞いた言葉を文字に書き換えるのが、これです。すなわち、「およそ『あ』と認識しうる言葉」はすべて「あ」と表記されます。例えば、「梅雨の時期は雲が多い」という声を記録すると、「つゆのじきはくもがおおい」になります。

では、これをD/A変換するとどうなるか。「くも」は、イントネーションを変えると「雲」にも「蜘蛛」にもなります。「つゆのじきはくもがおおい」という文字を見た人が、正確に「雲の話なんだ」と理解するためには、「くも」のイントネーションが重要ということになります。ロボットボイスではダメな訳ですね。

このように、「もっともらしく変換する」のがD/A変換の役割な訳です。その意味で、「デジタル信号は波が若干カクカクだから、音にすると変になる」という認識は合っていると思います(もちろん、これは極端な例えです。「デジタル化すると必ず意味不明になる=音質が劣化する」という訳ではありません)。離散値を連続値にする、つまり「点と点をもっともらしく線で繋ぐ」のが、D/A変換だとも言えます。

なお、離散値は別の離散値で表現する(変換する)こともできます。例えば、「『く』という文字は『82AD』とする。『も』という文字は『82E0』とする」というルールを作ると、「82AD 82E0」は「くも」と変換できる訳です。実際、この画面上に見えている文字列は、こういう変換を経て伝達されています(「ひらがな」が電線の上を流れている訳ではありません)。

つまり、「デジタル信号」は、何も1つの形態をとる訳ではありません。変換のルールさえ決めておけば、離散値どうしであれば自由に変換し、完全に再現することができます。その意味で、「デジタルは0と1」というのは、必ずしも正しくありません。
    • good
    • 0
この回答へのお礼

予想以上に何人もの方から回答をいただけたので、回答を締め切らさせていただきます。

ベストアンサーに関してましては、最初の質問からだいぶ離れてしまいましたが、
「デジタルは0と1というのは必ずしも正しくない。」「離散値」という、
また私の知らない話を知ることができたという意味で、こちらの回答にさせていただきました。
他の回答もかなり詳しく書かれているので、また1から読み直していきたいと思います。
皆様、ありがとうございました。

お礼日時:2011/03/16 19:01

ああ、追加質問に回答し忘れていました。

細切れですみません。

>> 音を出力するタイミングなどは、電気的なものになってからでは制御が難しいように思えます。これはDA変換のタイミングによって行っていると考えてよいのでしょうか。 //

これは、先の「『ひらがな』もデジタル」の例よりは分かりにくいので、上手く伝わるか不安ですが...

現在、音声信号のデジタル化の基本は「リニアPCM方式」です。あなたのいう「デジタル信号は波が若干カクカクだから」というのが、これです(なお、離散値なので厳密な意味での「波」ではない、というのは、他の回答者がご指摘の通り)。

これは、CDの場合、1/44100秒ごとの計測値です。いわゆる「サンプリング周波数」というヤツで、「どれだけの周期で計測するか」を決めています。

例えば、「海面の高さ」を計測するとしましょう。1日1回より、朝夕の2回のほうが精度が高いといえます。さらに、1時間ごとならもっと1日24回、1分ごとなら1日に1440回も計測でき、より正確なデータが得られます。このように、「一定期間内に何回サンプルをとるか」が問題になります。

音声の場合、「周波数=1秒間を何等分するか」が基準なので、サンプリング「周波数」という訳ですね。

さて、しかし、「高さ」を何段階で表すかは、また別の問題です。いくら1分ごとに計測するとしても、1m単位ではほとんど意味がありません。「海面の高さは1mか、2mか」といった離散値なので、数100回に1回しか有為なデータが得られません。もし1cm単位なら、1001cmと1002cmの差を読み取れるので、精度が高まります。

このように、「サンプル1回ごとの精度」を表すのを「諧調」といいます。CDの場合16bitなので、2の16乗=65536諧調です。従って、「44100分の1秒ごとに65536分の1の精度」ということになります。

従って、D/A変換するときは、44100分の1秒ごとに「65536分の何か」を見ている訳です。このように、「何分の1秒ごとに諧調を調べるか」という場合、クロック周波数と呼ばれます。クロック周波数は、サンプリング周波数と同じでなければなりません。例えば、88200分の1秒ごとに再生してしまうと、2倍速になってしまう訳です。

そこで、タイミングを合わせるための工夫が必要になります。この「タイミング合わせ用の信号」は、音声信号と混ぜるか、並行して別々に送信されます(方式としては何種類かあります)。

この意味で、「DA変換のタイミングによって行っている」という理解は、合っていると思います。
    • good
    • 0

まず、デジタルの状態は音楽ではありません。


符号と言うか数値化された状態で言ってみれば連続した波をグラフの縦と横に当てはめてその値で示したようなものです。
時間に対するグラフの升目がサンプリング周波数になります。
bitは縦方向の升目になります。
グラフと交わる点のみをとらえ縦横の数字で記号化します。
これがCDで言うデジタルです。
そのためアナログの状態から言えばデジタル化されることで波形がカクカクします。
これを埋めるのがサンプリング周波数です。
この数値が多ければ多いほどより細かくなります。

音楽は縦横の数字の情報(デジタル)にされてしまっているのでこれを直接聞いても音楽にはなりません。
音楽にするにはこれを逆の手順でアナログに戻さなければなりません。
つまり、FAXの送受信の信号を聞いてその中身が判りますか?
判らないからそれを戻す作業が必要になるのです。
音楽(CD)もそうです。
ようするに人間の耳はデジタル信号を直接聞くようにも出来てはいないのです。

デジタル化された音を元に戻すとき、この精度が悪いと音が変わってしまいます。
そのため高価なオーディオ機器があるのです。
CDの44.1khzに対し、その数値に正確に合わせるため高精度な発信器を搭載したり
D/A変換チップを左右別々で使ったり、綺麗な音声になるようにアナログ回路を構成したりです。

CDなどは高価な機材できちんとデジタル化されています。
音が悪いと売り物になりませんからね。
しかし、再生する側がお粗末だとお粗末にしかならないのです。
    • good
    • 0

デジタル信号をアナログ信号にしなければいけない理由は、元のデータを消費者に届ける伝送路の精度の問題にあります。



アナログは、音の形を一切変えないように注意しながら商品現物を消費者に届けるようなものです。
ちょっとでも傷つけないように梱包を厳重にして、道路も凹凸の無い道路を振動を起さないようにしないと傷つく恐れがます。
一方デジタルは、商品そのものを送るのではなくて、音を計測して設計図だけを数字にして送り、実際の商品は消費者の近くで組み立てるようなものです。従って図面が読めるに十分な程度の簡易な梱包で良く、又道がでこぼこでも中身が読めれば組み立ては可能ですから、途中の道も通れれば良いという程度しか要求しません。

ただデジタルは元の製品そのものではなくて計測値なので、全く同じというよりは少し誤差が出ます。又組み立てもその組立工(DAC)の能力で少し出来上がりに差が出ます。
でも実際は人間にはわからない範囲の誤差になるような技術になっているので、実用的には問題がないということです。

これを示すのがアナログレコードのメンテの面倒さです。少しのほこりや傷でも雑音になって聞こえます。それが出ないようにするのは大変な手間です。一方CDは指紋のついたものでもノイズになりません。送り方の方法では品質に問題が生じないという証拠です。
又レコードは使用に従って徐々に磨り減って音が劣化しますが、CDは何度再生しても変わらないですね。

従ってあくまで元通りでないとだめという人はアナログにこだわるし、実用的に十分ともう人はデジタルで十分だといっているのです。でも殆どの人はデジタルの実用性に疑問を感じないのではないでしょうか。

なお、デジタル信号は波が若干カクカクというのはDAC内部で完全に処理しますから聞こえることはありません。念のため。
    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!