把相机调为黑白模式是否可以提高成像解析度(非专业的摄友勿进)

补充说明:先说说提问的原因吧: 感光器件上一般有三种像素,分别感应RGB三种不同颜色的光.其中每四个像素为"一组",顺序为RGRB. 而在感光器件感光完毕后,相机的芯片会通过计算把每组中的四种像素合成为一个像素. 所以第一个问题出现了:相机参数上所说的像素数,比如500万像素,1000万像素,是指感光器件上的像素总数还是指合成后的像素总数? 如果是指感光器件上的像素数,那么实际产生的像素不就只有其参数的四分之一? 第二个问题:如果把相机设为黑白模式拍摄,便不必进行像素的合成,那么
更新时间:2015-12-09本文内容转载自互联网
首先纠正一点,马赛克结构CCD/CMOS中,三种色光感光像素的比例是 R:G:B = 1:2:1。
其原因,是因为人眼对绿色光比较敏感。

马赛克结构CCD/CMOS中,典型的像素布局是:
G R G R
B G B G
G R G R
B G B G
每4个相邻的像素组成的2×2矩阵中,有2个感受绿光的像素、1个感受红光的像素、1个感受蓝光的像素。

每个像素本身,只能感受入射光的强度,而并不能识别光的颜色(波长)。
因此,红/绿/蓝色光感光像素上面,分别有红/绿/蓝色滤光片,从而使得每个像素感知的,是某个特定单色光的强度。

由于一个像素只能给出某单一色光的强度信息,因此,要得到彩色光的强度,必须通过分析相邻的4个像素的单色光强度,经过插值计算后得到。
例如,下面这个最简单的3×3矩阵结构的CCD:
1 2 3
4 5 6
7 8 9
依次通过分析1245、2356、4578、5689四组2×2矩阵,可以计算出4个彩色像素(也就是标称的“有效像素”)。
这个矩阵的全部9个单色像素(物理像素,亦即标称的“总像素”),对插值结果的贡献是不同的:位于四角的1、3、7、9只参与了一次计算;位于边缘的2、4、6、8只参与了两次计算;只有位于矩阵内部的5参与了四次计算。
当然,这是个比较极端的例子。在具有几百万乃至上千万个物理像素的CCD/CMOS中,由于位于矩阵内部的像素占据绝对优势,因此总像素与有效像素的差距并不大。

下面可以回答你的问题了。
(1)
相机参数上所说的像素数,通常是指有效像素,也就是插值计算后的结果。
这个有效像素数,会比CCD/CMOS的实际物理像素数略少。
比较详细的参数表中,会分别列出“标称像素”、“有效像素”和“实际像素”。
例如 Canon G9,标称1200万像素,实际像素1240万,有效像素1210万。
再如 Nikon D40,标称600万像素,实际像素630万,有效像素600万。

(2)
由于每个像素前面的单色光滤镜是不能移走的,所以,即使将相机设置在黑白模式,依然不会得到比彩色模式下更多的信息。
实际上,拍照时首先得到的就是一张伪灰度照片(你说的黑白照片),色彩是在这张为灰度照片的基础上计算出来的。
当然,由于算法自身的问题,可能会出现将黑白照片中原本灰度有区别的两个点算成同色的情况,但是除非是极为特殊的条件下,这种差别几乎是不可分辨的。
有用 39 无用 0 我要提问