電子書籍の厳選無料作品が豊富!

すみません。質問させてください。
以前4ビットと8ビットでは一度に処理できる能力が、0と1の組み合わせで行うため、単に倍ではなく4ビットが16に8ビットは256の処理の差が出ると聞いたのですが、32ビットのCPUに対し64ビットのCPUを使った場合は処理速度的にはなぜ2倍なのでしょうか?

A 回答 (2件)

かなり誤解があるんだと思います



4Bit = 2^ 4 = 16
8Bit = 2^ 8 = 256
16Bit = 2^16 = 65,536
32Bit = 2^32 = 4,294,967,296
64Bit = 2^64 = 18,446,744,073,709,551,616

と、有効数値(正の整数のみ)の値が使用可能です

単純に演算は、16Bitの演算をする場合、
・4Bitを4回演算する
・8Bitを2回演算する
・16Bitを1回演算する
・32Bitを1回演算する
・64Bitを1回演算する
正確には若干違いますが、要するに演算に必要なBit数以上のBit数の場合、処理としては演算回数を増やす必要も無く、処理の速度としては上がりません
しかし、高品質を求める現在では64Bitあたりのデータは多々存在するので、実際、64Bitの演算をした場合、先の例で考えると・・・
・4Bitを16回演算する
・8Bitを8回演算する
・16Bitを4回演算する
・32Bitを2回演算する
・64Bitを1回演算する
と、演算回数が単純に半分になります、だから処理速度的に2倍になると言う風に言いますが、そればかりの話ではないので、「およそ」の話になるわけです
実際は、32BitのCPUで64Bitの演算をしたり64Bitで128Bitの演算を1回の命令で実施するのが普通なので・・・
実際の話とは、ずれますけど、およその話でお聞きください
    • good
    • 0
この回答へのお礼

ありがとうございました。
わかりやすい説明で助かりました。

お礼日時:2007/09/20 17:21

「8ビット分の処理は、4ビット処理を2回行えば出来る」ので、同じく2倍の能力と言えます。


また、4ビットが「0~15」で、8ビットが「0~255」までと考える時、
32ビットは「0~4294967295」で、64ビットは「0~18446744073709551615」までの処理が可能なのです。
ですから、比較する基準を同じに考えれば良いですね。
    • good
    • 0
この回答へのお礼

ありがとうございました。
わかりやすい説明で助かりました。

お礼日時:2007/09/20 17:22

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!