電子書籍の厳選無料作品が豊富!

話を単純化して考えるとして、画像をきれいに(ノイズを減らしたりして)撮ろうとした場合、
デジカメのセンサーのサイズと画素数は、反比例の関係にあると聞きましたが、

例えば、2000万画素のデジカメで、500万画素で撮影できる設定があった場合、
センサーの使用面積は500万画素分しか使わないのか、
それともセンサーの面積をフルに使って、4画素で受けた光を1画素に変換して
撮影されるのでしょうか。

ご存知の方がいらっしゃいましたら、教えて頂けると助かります。
よろしくお願いいたします。

A 回答 (4件)

>2000万画素のデジカメで、500万画素で撮影できる設定があった場合、


>センサーの使用面積は500万画素分しか使わないのか、
>それともセンサーの面積をフルに使って、4画素で受けた光を1画素に
>変換して撮影されるのでしょうか。

どちらでもありません。

センサーの使用面積は「全面」ということは確かですが、4画素を1画素
なんていう、簡単なロジックでは動作していないんです。

デジカメのデータは、全画面にある赤(R)、緑(G)、青(B)の光の三原色を
感じるセンサーのデータを、いったん全部取り込みます。この「全部取り
込んだデータをそのまま記録する」のが、RAW撮影という方法です。

(もっとも、RAW撮影でもデータは完全にそのまま、というわけではなく、
ノイズの低減など、一定の画像処理を画素単位で行って記録します。
なので、古いNikonの一眼レフなどは「RAWで撮ってもノイズ低減処理
に引っかかって、星空写真の暗い星が消えてしまう」なんて言う問題が
あったりします)

RAWのデータは、更に「人間の目の特性」を考えて、「ここの画素とここ
の画素の間のデータがこうだから、ここはY=aXのグラフで算出された値
にしても問題ない」というような(直線補完なんて簡単な方法は取って
ないので)高度な計算処理をして、データを圧縮し、Jpegというタイプの
画像にします。

この「Jpeg画像」が一般の「写真データ」になります。

逆に言えば、撮ったデータを「どの程度圧縮するか」「どの程度のサイズに
するか」を決めて、高度な圧縮処理をしつつカメラが保存するんですね。

ですので、写真画像上の1ピクセルのデータは、カメラ上の画素データと
1対1にはなりません。周辺のデータすべてを見つつ、いろいろな計算をして
出てきた結果が、写真データ上の1ピクセルになります。

という処理をする結果「Jpeg画像」は、同じ被写体を撮っても、メーカー間で
違ったモノになり、そこに「メーカーの好み」が強く出ます。「Canonは一般
ウケをするきれいな画像を作る」とか、「リコーは渋好みの発色をする」とか
は、Jpegを作る処理のメーカーの独自性が原因なんですよ。
    • good
    • 0
この回答へのお礼

お礼が遅くなりすみません。
皆さんの回答を何度も読み返して、なんとか理解しようとがんばっていました。
同時に、自分の質問を読んでみて、とてもわかりにくかったと反省しております。

同じメーカーのカメラで、同じ技術やセンサーサイズで、2000万画素のものと、500万画素のものがあったと仮定して、2000万画素のもので、500万画素の設定で撮影てきたとしたら、
(1)全面を使って撮影するのか。
(2)全面を使った場合、500万画素のものと同レベルの感度で撮影できるかどうか。
という2点を知りたかったのですが、(1)については、はっきりと理解できました。
(2)については、どうやらそんな単純なものではないと理解しました。
(2000万画素のJPEG画像をPC上で500万画素に変換しても、感度が上がったようには見えないということ?)

わかりにくい質問に対し丁寧に回答して頂き、本当に感謝しております。ありがとうございました。

お礼日時:2013/08/22 00:58

>画像をきれいに(ノイズを減らしたりして)撮ろうとした場合、デジカメのセンサーのサイズと画素数は、反比例の関係にあると聞きましたが、



誤解です。

多分「8/3 inch 600 万画素の Image Sensor は 4/3 inch 1200 万画素の Image Sensor よりも Noise が少なく、綺麗な画像が得られる」ということなのでしょうが、この主張には「いつ作られた Image Sensor 同士を較べているの?」という重要な前提が抜け落ちています。

私は共に SONY 製 APS-C Size の Image Sensor を用いる PENTAX K100D (600 万画素) と Kr (1200 万画素) を所有していますが、研究を重ねて新しい配合の素材でより精密な電気回路が組み込まれた新しい Image Sensor を用いる Kr の方が遙かに Noise が少なく綺麗な画像を得られます。

CMOS Image Sensor の CMOS とは Complementary Metal Oxide Semiconductor (相補型金属酸化膜半導体) の略称で、早い話が Transistor のことであり、CMOS 自体に Image Sensor という意味はありません。・・・PC (Personal Computer) の中に入っている MPU (Main Processing Unit) IC Chip も CMOS IC Chip です。

CMOS Image Sensor は CCD (Charge Coupled Device:電荷結合素子) と呼ばれる素子に取って代わって用いられるようになった Photo Diode と呼ばれる光電変換素子の電気出力を増幅する CMOS Transistor 回路を IC (Integrated Circuit:集積回路) Chip に焼き込んだものですので、PC の MPU Chip と同様、年月と共に高精細化し、低電圧駆動化されて Noise も少なくなってきています。

そのため、数世代前の 35mm Full Size 600 万画素 Image Sensor よりも最新の 1/2 inch 1400 万画素 Image Sensor の方が Low Noise であるのも当然のことなのです。・・・勿論、最新の Chip 同士を較べるのであれば Photo Diode Size の大きな Image Sensor の方が最大出力と残留 Noise との比が大きくなって Low Noise と言えるのですが・・・。


>4画素で受けた光を1画素に変換して撮影されるのでしょうか。

御質問者さんの 4 画素とは例えば「『最大出力を 1V (Volt) とした時の濃い赤 (1V)、濃い赤 (1V)、薄い赤 (0.5V)、濃い赤 (1V)』の 4 Pixel Data をまとめて『最大出力を 4V とした時のやや濃い赤 (3.5V)』にできるのか?」ということであろうかと思いますが、これはないです。

この方式は FOVEON 社 (現 SIGMA 社の子会社) が VPS (Variable Pixel Size) という名で Patent を取っていますので、他社がこの方式を採用するためには FOVEON 社に Patent 料を支払う必要があり、名称も VPS という名称が使用される筈です。・・・素人考えでは簡単に着想しそうな Idea ですが、CMOS Image Sensor IC Chip 内に焼き込まれた回路を切り替えるものでなければ「画素合成=高感度 Low Noise 化」という Merit を得られませんので CMOS Image Sensor を自前で製造できる Maker でないことには採用できません。

FOVEON 社の X3 Image Sensor 以外の Digi'Came' 用 Image Sensor は下図左上のように光を電気に変換する RGB 別の Photo Diode が配置されており、RGBG の 4 素子で受けた光を電気に変換しています。

「4 個 (画素) の Photo Diode で 1 個の光点を RGB Data に分解することから 2000 万画素の Image Sensor は 500 万 Pixel の解像度しかないのか?」と言えばそうではなく、実際には下図右上のように RGBG の格子を斜めに 1 画素ずらした BGRG の格子でも 1 画素分ずれた 1 個の光点を RGB Data に分解できますので、2000 万画素の Image Sensor はきちんと 2000 万個の光点を RGB Data に分解検出しています。

ただし、RAW Data と呼ばれる RGB Data は Image Sensor の電気出力をそのまま表しているものではありません。

下図下は FOVEON X3F19 Image Sensor の電気出力ですが、波長周波数が違うと出力も違うことから RGB 出力は波長に応じて曲線を描いていることが判ると思います。

FOVEON X3 Image Sensor に限らず、どの Maker の Image Sensor であろうと RGB の出力は揃っていませんので「画像 Engine」と呼ばれる Computer Chip で RGB 出力を補正しています。

この「画像 Engine」でどう RGB を補正するのか、R の Photo Diode 出力を波長 700nm を中心とする±20nm 波長域の赤とするのか、波長 680nm を中心とする±40nm 波長域の赤とするのか、といった違いなどで「画像 Engine」による「個性の違い」が生まれます。・・・だから「同じ SONY の CMOS Image Sensor を使用していても CANON Camera の RAW 出力と NIKON Camera の RAW 出力とでは写りが違う」という「個性の違い」が生まれるわけです。

この画像 Engine Chip は Camera Maker 各社で特注して製造していますので、この部分に FOVEON 社が Patent を持つ VPS と同様の機構を組み込むことは可能かも知れませんが、私はどの Maker がそんなことをしているのかまでは知りません。

ちなみに FOVEON X3 Image Sensor Series は VPS 機能を内蔵して、画素数を減らすと感度が上がって Noise が減るようになっているのですが、FOVEON X3 Image Sensor を採用している SIGMA 社の Camera は VPS 機能を Support していないようです。・・・少なくとも私の SIGMA DP2X は Support していません・・・VPS に期待して購入したのに(T_T)。

なお、RAW 出力は Camera Maker 純正の現像 Software であれば「この R Data は波長 680nm を中心とする±40nm 波長域の赤になっているよ」と判っているので JPEG や TIFF Data に現像する際に正確な色合成演算が行われますが、Adobe Photoshop などの汎用 Graphic Software では「R Data は波長 700nm に決まってる」としてしまいますので正確な色合成を行えません。・・・まあ正確な色合成をしてくれなくても結果的に素晴らしい作品になっていれば何の問題もないのですが(^_^;)、どうも FOVEON X3 Image Sensor + TRUE II 画像 Engine による RAW 出力は汎用 Software では Error を生じる癖が幾つもあるような気がします。


>センサーの使用面積は500万画素分しか使わないのか、それともセンサーの面積をフルに使って、撮影されるのでしょうか。(「4画素で受けた光を1画素に変換して」の部分は外しました。)

CMOS Image Sensor Chip は全ての Photo Diode で光を電気に変換して出力していますが、画像 Engine 演算 Chip は CMOS Image Sensor Chip から得た 2000 万画素分の Data を 4 個に 1 個だけ使うような間引きを行っています。・・・注:CMOS Image Sensor 上で間引きしているわけではありません。

そのため演算回路の一部では演算負担が軽くなることにより 2000 万画素では毎秒 5 コマで 10 コマまで連写できるものが 500 万画素にすると毎秒 8 コマで 60 コマまで連写できるといったように画素数を少なくした方が演算に余裕が生まれているのが Catalog からも御判りになるかと思います。

素敵な Camera Life を(^_^)/
「デジカメのセンサーのサイズと解像度設定に」の回答画像4
    • good
    • 0
この回答へのお礼

わかりにくい質問に対し丁寧に回答して頂き、本当に感謝しております。ありがとうございました。

私もK100Dを持っており、新しいカメラの購入を考えていたのですが、最近のものは画素数がやたらと多い気がして、いろいろ悩んでいました。
本当にありがとうございます。

お礼日時:2013/08/22 01:10

>画像をきれいに(ノイズを減らしたりして)撮ろうとした場合、


>デジカメのセンサーのサイズと画素数は、反比例の関係にあると聞きましたが、
正解でもないが間違いでもない・・・というのは既に回答済みですね。
より正確に言えば、フォトダイオードの受光面積が大きいほど有利。
同じ画素数でもCCDとCMOSでは構造的要因でフォトダイオードの受光面積は異なります。
詳しく知りたければググってください。
カメラ雑誌では解説図付きで詳しく説明されていたりしますけど・・・

画素数とノイズの関係から「2千万画素のカメラで500万画素の設定で撮影すればノイズは少ないのか」という意図で質問したのであれば、答えは「NO」です。
理由は、設定で記録画素数を減らしてもイメージセンサーの1画素あたりの受光面積は同じだから。


>4画素で受けた光を1画素に変換して撮影されるのでしょうか。
┌─┬─┬─┬─┐
│Å│B│E│F│
├─┼─┼─┼─┤
│C│D│G│H│
└─┴─┴─┴─┘
センサーの画素がこういう並びだとしましょう。
画像データの1ピクセルは「ABCD」「BEDG」「EFGH」の組み合わせの3ピクセルになります。
現実は異なりますが、画素合成というアルゴリズムでRGGBの画素からRGBの1ピクセルを算出しています。
    • good
    • 0
この回答へのお礼

ちゃんと調べてから質問するべきでした。
わかりにくい質問に対し丁寧に回答して頂き、申し訳なく思っておりますが、感謝しております。ありがとうございました。

お礼日時:2013/08/22 01:18

>デジカメのセンサーのサイズと画素数は、反比例の関係にあると聞きましたが、



100%正解では有りませんが、概ね、正しいと言えます。


>例えば、2000万画素のデジカメで、500万画素で撮影できる設定があった場合、
センサーの使用面積は500万画素分しか使わないのか、
それともセンサーの面積をフルに使って、4画素で受けた光を1画素に変換して
撮影されるのでしょうか。

常に、受光セルの全てを使います。
つまり、2000万画素を画像処理プロセッサー(エンジン)で、500万画素に変換します。
高感度時には、4画素の信号を加算(画素結合)し、500万画素に生成するカメラもあります。

まぁ、難しい話を簡単にすると、イメージセンサーの一つ一つのセルは、明るさしか検出できないので、市松模様になるようレット1:グリーン2:ブルー1の割合でのセルの前にフィルターを掛けて、エンジンで処理する時に隣接4つのセルの情報から、色を推計しているのです。(ベーヤ配列センサーの場合)
※詳しくは、Webでググって下さい。
    • good
    • 0
この回答へのお礼

正直なところ一番わかりやすく、わかりにくい質問なのに、知りたかったことを説明して頂いた気がします。

ただ質問自体に問題がある気がしたので、回答が早かったNo.1の方をベストアンサーにしていまいました。

貴重なお時間を割いて回答して頂き、本当にありがとうございました。

お礼日時:2013/08/22 01:26

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!