プロが教える店舗&オフィスのセキュリティ対策術

iPhoneのカメラで写真撮ると実際の色味と少し違いますディスプレイで見た写真も少し違う気がします。ディスプレイて完全に実際の色味明るさが出せなくhdrが必要なのは何故ですか?教えてください

A 回答 (4件)

スマホのカメラはセンサー小さいからそもそも光情報が少なすぎるせいです。


1眼カメラみたいに大型のセンサーだと光情報が多くなるので
現物の色と遜色ない色で表示されます。
そもそもスマホは8ビット(1677万色)までしか表示できないので
色はかなり欠損した状態で表示されてますからね。
10ビット以上、10億色表示が出来るカメラ、モニターを使えば
かなり違うけどね。
モニターも4kで10億色表示できるモニターとかを使わないといけない。
    • good
    • 0
この回答へのお礼

お答えありがとうございます

お礼日時:2023/08/31 00:08

カメラで撮影する時に、赤・青・緑のフィルターを通して


3色のデーターとして記録する。
液晶などのモニターに映す時も3色のフィルターを通して
赤・青・緑を合成して、元の色を再現する。
なので、使用されるフィルターの特性によって色合いが変わる。

通常は、8bitでの記録なので、256階調しか記録できない、
つまり、明るいから暗いまでが256段階しか記録できない。
人の目はもっと高階調まで識別する事ができるので、
例えば、映像(画像)の中で一部影を落とした絵が有ったとして、
人の目では、暗い・少し暗い・もっと暗いなど微妙な明るさを
認識できるが、映像(画像)は、それができず、極端に言うと
暗いとしか記録できない。
それを打開(改善)したのが、HDR。
例えば10bit(1024階調)で記録し、人が判別しにくい
中間の明るさの階調を落として、8bitに収める事で、
微妙な暗さの違いや明るさの違いを表現できるようにしたのがHDR。
    • good
    • 0
この回答へのお礼

お答えありがとうございます

お礼日時:2023/09/01 07:30

最近のはよく見えすぎなんです。



人間の目よりよく見えるがゆえに誤差が起きます。

なので、本来ならミラーレス一眼などの人間の目の構造と同じ形で見る必要性があります。
    • good
    • 0
この回答へのお礼

お答えありがとうございます

お礼日時:2023/08/31 12:10

まぁカメラですから人の目(眼球)で見る色とは違うんじゃないでしょうか。



記憶補正で実はカメラの方が正確な色を映し出してる可能性ありますし。

それでも昔よりかなり性能良くなってますよ。
    • good
    • 0
この回答へのお礼

お答えありがとうございます

お礼日時:2023/08/31 00:08

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!