09/08/22 20:04:48 ManpQ8xAO
>>4
適当なこと書くなよw
それは単純な高感度撮影の時と同じ。
元々センサーは感度に関わらず露光時間に応じて各画素が受けた光量をリニアに記録しているだけ。
で、感度設定で何が変わるかと言うとA/Dコンバート時のシグナルとして扱う範囲を変えているだけ。
低感度の場合は、カットオフを高めに設定して、例えばセンサーの飽和量を100だとすれば50をカットオフの閾値にして、50~100の
範囲を量子化する。
感度を上げる際はそのカットオフを下げていくんだが、通常は低感度と同じく100のうち50の範囲から画像を生成するためにゲインも
合わせて引き下げて、例えば20~70の範囲にしたりする。
そうすることで量子化された後の画像化の処理は基本的に共通にできる。
それをDレンジ拡張では、ゲイン側を低感度時のまま飽和量付近に据え置いてカットオフだけ下げるから、実際にシグナルとして
利用するのが20~100の範囲になり、A/Dコンバータの量子化精度を高めにした上で、その範囲に合わせた処理を用意する事で、
実際にシグナルのレンジを広げる事が可能になっている。
実際にはもっといろいろ複雑なんだが、基本的にはこんな感じ。
高感度時にゲインオーバーとして切り捨てられてた範囲もシグナルとして利用するようになったってことな。