我们谈到相机第一反应就是有多少万像素,大家也都知道1像素对应相机感光元件上的1个点。很多人也知道我们最常见的感光元件俗称马赛克感光元件,而且也听到过一些其他的人说“马赛克的颜色都是算出来”,没错,他们说的对,马赛克感光元件的色彩就是计算出来的,然而这个计算的过程大概是什么样的?相比纯黑白色的感光元件和X3这样的感光元件有什么区别?今天我们就简单的说一说。

一个点一个颜色

对于那些不了解此类感光元件的朋友,马赛克结构又称为拜耳阵列结构,如下图,每一个点,也就是一个像素在感光元件上会收集一种颜色的光,如果你将感光元件4个像素为一组来看的话,每一组会有2个绿色像素,1个蓝色像素,1个红色像素。原因是人眼睛对绿色的感知能力要强于红色和蓝色,所以给绿色双倍的空间会让照片的识别度、锐度、色彩等更佳。

bayer-sensor-color-layout

当我们拍一张照片之后,相机的感光元件会收集每一个像素点的数据信息,然后传输到机身内的图像处理器中机型计算。而这些完全不一样颜色的点,最后是如何计算成我们看到的各种颜色的照片的呢?

问邻居

对于色彩的算法,是每一家厂商最保密的事情,然而无论如何,其实都离不开“问邻居”的办法。

4200万像素的相机,最后可以出一张4200万像素的照片,那么作为一个只有一种颜色的像素点,它只好去问问它周围的邻居都获得了什么消息(亮度)。

比如下图,我们看到绿色的像素点右侧是蓝色,下边是红色,右下是另一个绿色,于是这个绿色点就会搞清楚周围这三位邻居到底亮度是多少,然后跟自己的亮度结合起来。 为什么是亮度?因为每一个像素点自己颜色是不会改变的,唯一不一样的只是接收光线的强弱,也就是不同的亮度。

在知道这些亮度以后,这个像素就会根据一定的公式把它们和自己合体,计算出一个最终属于自己的颜色。

bayer-sensor-color-layout-1-from-4

多问问更准确

然而如果一个像素点周围可不止3个像素点,而是一圈8个像素点(如果它不是最靠边一排的话)。

那么为了获得更加准确的数据,它可能会向周围的8个像素点来收集信息,比如下图中,绿色点就向周围收集了4个绿色点,2个红色点,2个蓝色点的信息。如果你看到每一个像素上的小数字,是我模拟的它们亮度的百分比。

最后算下来你会得出来,绿色48%,红色65%,蓝色50%,最后可能算出这个点的颜色,是  这样的紫色.

当每一个像素都根据这样的计算方式去计算之后,就能更加精确的计算出一张彩色的照片了。

当然我在这里仅仅用最简单的办法举例说明,实际各家厂商色彩的计算方式要更加复杂和科学。

bayer-sensor-color-layout-1-from-9

这样算到底准不准?

很多人都会说马赛克感光元件的结构必然会造成计算的结果不准确,实际上要分开来看,首先色彩方面马赛克感光元件在合理计算的情况下,可以做到非常准确,因为无论如何感光元件都是准确地收集到了环境中的如何光线,这些光线数据都是真实的。

问题在于,因为通过相邻像素计算的方式,会让临近的像素之间的颜色略有一些重叠,因为毕竟大家都是相互商量得出来的颜色,这也造成了临近像素之间色彩的趋向性和妥协性,所以马赛克感光元件拍出来的照片没有像素级别的锐度。及时一拍一个黑白极其分明的线条,在最后出来的照片上,也多多少少会看到黑白像素之间的灰色过渡像素。

纯黑白感光元件和X3

莱卡曾经史无前例地推出过一款Leica M Chrome,纯黑白相机。很多人不理解这有什么意义,用彩色照片转换成黑白的不就行了吗?

实际上纯黑白感光元件最强大的地方就是,你不需要再位邻居了,因为每一个像素都只有一个颜色,就是从无限接近纯黑到无限接近纯白之间的一个灰色。当不需要进行计算的时候,自然而然也就不会再产生误差和妥协,每一个像素只负责回报自己的亮度,于是照片的锐度、准确性、灰阶之间的分离性都要好过彩色照片转黑白。

而X3感光元件和莱卡用的黑白感光元件有很类似的特点,就是X3感光元件的每一个像素都负责了RGB三种颜色的收集,每一个像素都可以独立汇报自己的颜色,不需要计算不需要商量,也就不会产生像素和像素之间相会均衡、商量的结果。

 

好啦,今天我们先说到这里,接下来有时间我看看能不能把从RAW格式中提取灰阶的办法介绍给大家,敬请期待!