对像素的总结

转自https://baike.baidu.com/item/%E8%B1%A1%E7%B4%A0/1192067?fr=aladdin

有效像素值

首先我们要明确一点,一张数码照片的实际像素值跟感应器的象素值是有所不同的。以一般的感应器为例,每个像素带有一个光电二极管,代表着照片中的一个像素。例如一部拥有500万像素的数码相机,它的感应器能输出分辨率为 2,560 x 1,920的图像—其实精确来讲,这个数值只相等于490万有效像素。有效像素周围的其他象素负责另外的工作,如决定“黑色是什么”。很多时候,并不是所有感应器上的像素都能被运用。索尼F505V就是其中的经典案例。索尼F505V的感应器拥有334万象素,但它最多只能输出1,856 x 1,392即260万像素的图像。归其原因,是索尼当时把比旧款更大的新型感应器塞进旧款数码相机里面,导致感应器尺寸过大,原来的镜头不能完全覆盖感应器中的每个像素。

因此,数码相机正是运用”感应器象素值比有效象素值大“这一原理输出数码图片。在当今市场不断追求高像素的环境下,数码相机生产商常常在广告中以数值更高的感应器像素为对象,而不是反映实际成像清晰度的有效像素。

感应器像素插值

在通常情况下,感应器中不同位置的每个像素构成图片中的每个像素。例如一张500万像素的照片由感应器中的500万个像素对进入快门的光线进行测量、处理而获得(有效像素外的其他像素只负责计算)。但是我们有时候能看到这样的数码相机:只拥有300万像素,却能输出600万像素的照片!其实这里并没有什么虚假的地方,只是照相机在感应器300万像素测量的基础上,进行计算和插值,增加照片像素。

当摄影者拍摄JPEG格式的照片时,这种“照相机内扩大”的成像质量会比我们在电脑上扩大优秀,因为“照相机内扩大”是在图片未被压缩成JPEG格式前完成的。有数码相片处理经验的摄友都清楚,在电脑里面扩大JPEG图片会使画面细腻和平滑度迅速下降。虽然数码相机插值所得的图片会比感应器像素正常输出的图片画质好,但是插值所得的图片文件大小比正常输出的图片大得多(如300万感应器像素插值为600万象素,最终输入记忆卡的图片为600万像素)。因此,插值所得的高像素看来并没有太多的可取之处,其实运用插值就好像使用数码变焦-并不能创造原像素无法记录的细节地方

CCD总像素

CCD总像素也是一个相当重要指标,由于各生产厂家采用不同技术,所以其厂家标称CCD像素并不直接对应相机实际像素,所以购买数码相机时更要看相机实际所具有总像素数。一般来讲总像素水平达到300万左右就可以满足一般应用了,一般200万象素、100万象素产品也可以满足低端使用,当然更高象素数码相机可以得到更高质量照片,有些公司已经开始推出600万象素级别普通数码相机了。

一个视神经细胞相当于1像素,如果双星在视网膜上2个不同细胞上成像就能够分辨开,否则就不能.人的视网膜上共约有1.1~1.3亿个杆细胞,有600~700万个锥细胞,杆细胞感光能力强但只能感应光线的灰度(得到黑白图像),主要在离中心凹较远的视网膜上。这就是我们为什么看星星的时候要用视角来看的原因。而锥细胞则在中心凹处最多,能感应彩色图像。所以人眼就相当于有1.1~1.3亿像素。

原始和逻辑像素

因为多数计算机显示器的解析度可以通过计算机的操作系统来调节,显示器的像素解析度可能不是一个绝对的衡量标准。

现代液晶显示器按设计有一个原始解析度,它代表像素和三元素组之间的匹配较好。(阴极射线管也是用红-绿-蓝荧光三元素组,但是它们和图像像素并不重合,因此和像素无法比较)。

对于该显示器,原始解析度能够产生最精细的图像。但是因为用户可以调整解析度,显示器必须能够显示其它解析度。非原始解析度必须通过在液晶屏幕上拟合重新采样来实现,要使用插值算法。这经常会使屏幕看起来破碎或模糊。例如,原始解析度为1280×1024的显示器在解析度为1280×1024时看起来最好,也可以通过用几个物理三元素组来表示一个像素以显示800×600,但可能无法完全显示1600×1200的解析度,因为物理三元素组不够。

像素可以是长方形的或者方形的。有一个数称为长宽比,用于表述像素有多方。例如1.25:1的长宽比表示每个像素的宽是其高度的1.25倍。计算机显示器上的像素通常是方的,但是用于数字影像的像素有矩形的长宽比,例如那些用于CCIR 601数字图像标准的变种PAL和NTSC制式的,以及所对应的宽屏格式。

单色图像的每个像素有自己的辉度。0通常表示黑,而最大值通常表示白色。例如,在一个8位图像中,最大的无符号数是255,所以这是白色的值。

在彩色图像中,每个像素可以用它的色调,饱和度,和亮度来表示,但是通常用红绿蓝强度来表示(参看红绿蓝)。

比特每像素

一个像素所能表达的不同颜色数取决于比特每像素(BPP)。这个最大数可以通过取二的色彩深度次幂来得到。例如,常见的取值有 :

像素

8 bpp [28=256;(256色)];

16 bpp [216=65536; (65,536色,称为高彩色)];

24 bpp [224=16777216; (16,777,216色,称为真彩色)];

48 bpp [248=281474976710656;(281,474,976,710,656色,用于很多专业的扫描仪) 。

256色或者更少的色彩的图形经常以块或平面格式存储于显存中,其中显存中的每个像素是到一个称为调色板的颜色数组的索引值。这些模式因而有时被称为索引模式。虽然每次只有256色,但是这256种颜色选自一个选择大的多的调色板,通常是16兆色。改变调色板中的色彩值可以得到一种动画效果。视窗95和视窗98的标志可能是这类动画最著名的例子了。

对于超过8位的深度,这些数位就是三个分量(红绿蓝)的各自的数位的总和。一个16位的深度通常分为5位红色和5位蓝色,6位绿色(眼睛对于绿色更为敏感)。24位的深度一般是每个分量8位。在有些系统中,32位深度也是可选的:这意味着24位的像素有8位额外的数位来描述透明度。在老一些的系统中,4bpp(16色)也是很常见的。

当一个图像文件显示在屏幕上,每个像素的数位对于光栅文本和对于显示器可以是不同的。有些光栅图像文件格式相对其他格式有更大的色彩深度。例如GIF格式,其最大深度为8位,而TIFF文件可以处理48位像素。没有任何显示器可以显示48位色彩,所以这个深度通常用于特殊专业应用,例如胶片扫描仪和打印机。这种文件在屏幕上采用24位深度绘制。

像素

很多显示器和图像获取系统出于不同原因无法显示或感知同一点的不同色彩通道。这个问题通常通过多个子像素的办法解决,每个子像素处理一个色彩通道。例如,LCD显示器通常将每个像素水平分解位3个子像素。多数LED显示器将每个像素分解为4个子像素;一个红,一个绿,和两个蓝。多数数码相机传感器也采用子像素,通过有色滤波器实现。(CRT显示器也采用红绿蓝荧光点,但是它们和图像像素并不对齐,因此不能称为子像素)。

对于有子像素的系统,有两种不同的处理方式:子像素可以被忽略,将像素作为最小可以存取的图像元素,或者子像素被包含到绘制计算中,这需要更多的分析和处理时间,但是可以在某些情况下提供更出色的图像。

后一种方式被用于提高彩色显示器的外观解析度。这种技术,被称为子像素绘制,利用了像素几何来分别操纵子像素,对于设为原始解析度的平面显示器来讲最为有效(因为这种显示器的像素几何通常是固定的而且是已知的)。这是反走样的一种形式,主要用于改进文本的显示。微软的ClearType,在Windows XP上可用,是这种技术的一个例子。

兆像素

一个兆像素(megapixel)是一百万个像素,通常用于表达数码相机的解析度。例如,一个相机可以使用2048×1536像素的解析度,通常被称为有“3.1百万像素” (2048 × 1536 = 3,145,728)。 数码相继使用感光电子器件,或者是耦合电荷设备(CCDs)或者CMOS传感器,它们记录每个像素的辉度级别。在多数数码相机中,CCD采用某种排列的有色滤波器,在Bayer滤波器拼合中带有红,绿,蓝区域,使得感光像素可以记录单个基色的辉度。相机对相邻像素的色彩信息进行插值,这个过程称为解拼(de-mosaic),然后建立最后的图像。这样,一个数码相机中的x兆像素的图像最后的彩色解析度最后可能只有同样图像在扫描仪中的解析度的四分之一。这样,一幅蓝色或者红色的物体的图像倾向于比灰色的物体要模糊。绿色物体似乎不那么模糊,因为绿色被分配了更多的像素(因为眼睛对于绿色的敏感性)。

作为一个新的发展,Foveon X3 CCD采用三层图像传感器在每个像素点探测红绿蓝强度。这个结构消除了解拼的需要因而消除了相关的图像走样,例如高对比度的边的色彩模糊这种走样。

猜你喜欢

转载自blog.csdn.net/a573233077/article/details/84929066