アプリ版:「スタンプのみでお礼する」機能のリリースについて

動画容量10Gを50Mpdsでアップロードした場合かかる時間はどのくらいですか?

A 回答 (5件)

> 1KB=1000バイト


ファイル容量は1024(2の10乗)毎に単位がK,M,Gと変わっていく。
その他の通信速度等は1000毎に単位が変わります。
ここがややこしい所です。

単位を揃えて
10GBをByteにする
10×1024×1024×1024 = 10,737,418,240Byte

50MbpsをByte/sにする(8bit=1Byte)
50×1000×1000÷8 = 625000Byte/s

10GB÷50Mbps = 28分38秒
あくまで、全ての条件が最良の状態(現実にはあり得ない状態)での理論値です。
実際には様々な遅延やロスが発生するので、
40分以上は掛かると思った方がいいかと思いますね。
    • good
    • 0

>その理屈だと、1KB=1000バイトになっちゃうと思いますが。



1KB=1024バイトですね。よって10*1024*1024*1024が正しいです。
が、1000と1024が近い数字であることで1000を用いることもあります。

>相手側のサーバーが50Mbpsで受け取り続けてくれるか?

これはもう、平均値でこの数字とみなさなければそもそもの計算が成り立ちません。
    • good
    • 0

>10GB=10,000,000,000バイト。


本当に?
その理屈だと、1KB=1000バイトになっちゃうと思いますが。

ただ、アップが50Mbpsでってより、
相手側のサーバーが50Mbpsで受け取り続けてくれるか?
のほうがずっと問題ですね。
大抵は、40になったり、10くらいまで落ちたりと
単純に容量を時間で割ることは出来ないでしょう。
数字はあくまで、理論値でしかないですからね~
    • good
    • 0

を、忘れていました。


単純に計算してしまいましたが、
伝送するには伝送エラーが出ます。

それのチェックのために1割程度伝送量が増えます。
エラーが出たら当然(エラーが出た部分だけです)伝送しなおしです。
    • good
    • 0

10GB=10,000,000,000バイト。


50MBPS=50,000,000ビット(1バイト=8ビット)

なので、

10,000,000,000÷(50,000,000÷8)秒
    • good
    • 0

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!