Gonlate概念论坛

 找回密码
 立即注册
查看: 541|回复: 0

“传感器底子”到底代表的是什么?

[复制链接]

128

主题

9

回帖

565

积分

管理员

积分
565
发表于 2023-2-10 01:05:06 | 显示全部楼层 |阅读模式

工作室的公众号时隔这么久才更新小编是怎么了?回答一下:小编被老板发配边疆做字幕去了!所以不久前才回来;日后依然会保持时不时的更新一下让大家了解一下我们的后期世界,硬件也好,软件也罢,让我们尽情的享受知识的力量吧!


前两天,小米家出了一款新手机,摄像头的像素更是达到了一亿像素,那么一亿像素是啥概念呢?其实小编没啥概念,大概……大概就是 清晰!清晰!清晰!但是说到传感器的底,这个就很容易理解了,是大是小,肉眼就可以看出来。


今天的众多使用人群中,更多的人在乎的是相机的像素,对焦美颜又或者是连拍速度;似乎对于传感器的要求就是:拍清楚拍好看就行了。那么,既然如此,我们是不是没有必要去买“底子大”的相机呢?


小编今天的任务之一就是来给大家普及什么是“底子”


我们所谓的底,就是指设备的传感器大小

我们管这个传感器叫Solid State Image Sensors(固态影像传感器),常用的传感器类型有CCD、CMOS、JFETLBCAST、Foveon X3、Live MOS等,其中应用最多的是CCD和CMOS传感器。当然可能大家也只听说过CMOS和CCD;


以下内容为可选看科普内容(有关于影像传感器类型的诞生使)



Foveon X3 传感器

Foveon X3 传感器是由加州理工学院(《生活大爆炸》中谢耳朵等人工作的学校)的Carver Andress Mead教授创立的Foveon公司研发出来的。




与传统拜尔马赛克阵列排布像素不同,Foveon X3传感器某种程度上借鉴了彩色胶片三层染色剂的堆叠方式,从上至下排列了三层光电二极管,每一层二极管分别记录蓝、绿和红色光线的强度。


优势:相比只能测量RGB其中之一数据、需要插值“猜”色彩的拜尔阵列传感器,Foveon X3传感器理论上每一个像素位置便可直接计算出RGB值,色彩准确性更高。理论上不会产生摩尔纹和伪色,不需要低通滤镜而具备更高解像力。传统拜尔阵列每一个像素点仅能记录1/3的总数据量,而Foveon X3传感器每一个像素位置都可以记录下完整的RGB值.


劣势:Foveon X3传感器的缺点主要集中在高感画质差和存储速度慢、耗电量大,还有在某些情况下因红色和绿色光波长比较接近而出现交叉污染的情况。理论上因为不需要插值算法去猜RGB数据、去马赛克化,但是嘛~~ 还有一点,就是 如何计算传感器是多少像素是一个值得争议的事情。



JFETLBCAST传感器

尼康在其系列产品D2Hs 以及D2H上使用了这款传感器(Lateral Buried Charge Accumulator and Sensing Transistor array Junction Field Effect Transistor)这个时候正是相机从CCD迈向CMOS的转折点。可以说是CCD与CMOS技术优势融合的产物,充分体现了CMOS低耗电量和CCD高速数据读取的优势




传感器尺寸为23.3mm× 15.5mm,对角线长28.4mm,总像素数为426万(2560×1664),有效像素数为410万,像素间隔为9.4μm。


LBCAST JFET传感器的出现主要是尼康为了应对其旗舰级需要拍摄高速连拍的产品,这种传感器的像素不高,但是存储速度更快,感光方面更类似于CMOS,可以说,是CCD向CMOS过度的一个产品。


Live MOS(Livenbsp MOS)

Live MOS是松下、莱卡和奥林巴斯于2006年开始研发,专用于它们的4/3镜头系统的感光元件,其声称可以拥有CMOS的低耗电的优点下,有等同CCD的影像质素。由于Live MOS低耗电,所以使用4/3规格的相机可以增加Live View(即时取景)功能;


MOS感光器件具有全祯(FFT)nbsp;CCD的优质的画面素质,同时又有CMOS低功耗的优点。简化的电路使得光电二极管到微透镜的距离缩短,从而保证了优秀的敏感性和大入射角的画面质量。这款传感器的出现,可能是为了应对发热量以及耗电的问题为即时取景特意而设计的传感器;


由于没用过没见过,所以暂时不知道有啥缺点。


CCD(Charge Coupled Device)

这就是大家熟悉的CCD传感器了,CCD全称电荷耦合器件图像传感器​,一般分为四种类型:面阵CCD、线阵CCD、三线传感器CCD、全幅面CCD;如果想深入了解这四种类型区别请自行百度。



由二极管组成的CCD非常的耗电,因为CCD的电路是一直接通的。而CCD采用电荷传递的方式传送数据,只要其中有一个象素不能运行,就会导致一整排的数据不能传送,所以导致CCD的成本相比CMOS也是比较昂贵的。


当比较相同尺寸的CCD与CMOS传感器时,CCD传感器的分辨率通常会优于CMOS传感器的水平​。而CCD在电路噪音上,也会由于CMOS传感器。CCD传感器在灵敏度(光注入电荷的相对速度与量)、分辨率、噪声控制等方面都优于CMOS传感器。但并不代表CMOS传感器可以代替CCD传感器,二者在使用途径上有着不同的应用。




CMOS(Complementary Metal Oxide Semiconductor)

CMOS也就是互补金属氧化物半导体传感器,CMOS传感器按像素结构分为被动式与主动式两种。其采用一般半导体电路最常用的CMOS工艺,可以轻易地将周边电路(如AGC、CDS、Timing generator、或DSP等)集成到传感器芯片中,因此可以节省外围芯片的成本。



传感器架构可由两分式、四分式或一个像素阵列组成。输出可为并行模拟输出,或一个10位数字输出或数字串行LVDS输出。每个输出可高达每秒5,000万次的采样速度,这样就能实现每秒55亿像素的吞吐量。


迄今为止,该图像传感器是具有最高连续像素吞吐量的一款。图像质量至少达到10位精度,因此摄像头数字化之后,数据吞吐量可为每秒55Gbit。目前,CMOS是高速成像所青睐的技术。在当前市场中,我们可以发现高速图像传感器有三大发展趋势,一是向极高速方向发展,二是向片上特性集成方向发展,三是向通用高速图像传感器方向发展。



=======================================

普及完毕


好了,普及完了底子我们来说说尺寸吧。在日常的消费级产品中,我们听到最多的就是全画幅,残幅,m43这一类的词语。那么这些传感器尺寸的区别究竟有多大呢?我们来看一张图。




传感器的尺寸越大,意味着所产生的产品体积就越大,如今快节奏的时代,更多的人更偏向于画质也不错的卡片机,既可以拍出满意质量的作品也便于携带。但是大尺寸的传感器真的没有意义嘛?它们之间的区别又在哪里呢?我们接着往下看。

网上说,传感器尺寸不同只是尺寸不同,进光量不同,焦距转换系数不同,那么你听懂了吗?我觉得你下一次给别人解释的时候也会照搬这几句话,但是你真的理解吗?


首先,我们都学过小孔成像的原理,相机的发明就是利用这个原理。现在我们来画图演示当传感器尺寸不同的时候,都会有什么地方发生变化。




这是一张全景图 ,我们接着往下看。



我们接着看传感器,2条黑色的线代表小孔成像得到的光线入射



从这里我们可以看得很清楚,这传感器压根和进光量没啥关系,当然,网上存在说什么小一个传感器就小一档光圈,这里的光圈指的是相对光圈,因为光圈值只是一个相对值,它并不代表镜头口径。


如果按通光量来算,光圈大小想通的时候,不管是什么尺寸的传感器,其相对进光量都是相同的。就跟用1cm直径的水管给1cm³的水池放满水和1米直径的水管给1m³的水池放满水的时间是一样的。


(所以 才会有全画幅镜头 DX镜头 或者是m43镜头 这么一说 相对光圈值一致的时候,镜头的体积可以做的更小。)


在这里,如果用科学严谨一些的话来说,那么就是,当进光量一致,因为传感器大小原因导致不能获得更大单位面积的光源导致的“能感受到范围的光”不同。



都是一个孔进来的,就这么大一个孔;从相对的大小来说,小传感器还可以获得更大的“光圈值”。


那么传感器大小影响画质的主要因素是什么呢?


1·进光量


传感器的尺寸越大就会有更大的表面积,从而在标准间隔(称为曝光时间)上可以提供更多的用于接收光信息的区域。我们可以把传感器比喻成船帆,帆越大,表面积越大,它就能接收更多的风,从而船走的越快。但若是将穿的体积和帆的面积等比减小,减小到指甲盖那么大,或许随便吹一口气就可以达到大船的速度,但是装不了什么东西。对于相机传感器而言,传感器越大,表面积越大,它就能接受更多的光。但同时,也需要更多的光。


所以呢,我们说画幅越大,画质越好主要体现在了在相同的光圈值(相对值)下,它的通光口径会更大,比如说APSC的F1.4的光圈直径是20mm,那么全画幅的F1.4的光圈直径就是35mm;这是相对的。


我们知道,进光量越大,画质肯定是越好,在使用相同镜头的情况下,小传感器的进光量会大于大尺寸传感器,因为相对进光量(进光距离)比大尺寸传感器大(近)


☆ 相对而言,在相同光圈值下,小传感器配备小通光量镜头的进光量要小于大传感器配备大通光量镜头的进光量。但是镜头一样的时候就不一样了,小传感器要是用的大传感器一样的镜头,一样的参数,那相对光圈值一定比大传感器的大,相对进光量则会更大。


2·像素密度


我们在文章开头说过,更多的人会关注相机的像素,什么一亿像素,五千万像素 都是高大上的代表。那么像素密度是什么?


举个例子,我们同时拥有2块CMOS传感器,一大一小,但是他们的像素是一样的,都是2000w的像素。大传感器的单个像素大小肯定会比小传感器的大小要大,这就意味着在相对时间内,它每一个传感器像素的进光量都会比小传感器大。


如果我们换一种控制变量形式,当一大一小两块传感器的像素密度一样大,但是像素不同,取值相同像素,它们的进光量则是一致的。但是因为传感器大小所造成的透视关系才是大尺寸传感器最强有力的优势所在。


3·透视关系(所谓的 影响画质)


首先我们要了解一下镜头的“焦距”是怎么来的。百度说:焦距,是光学系统中衡量光的聚集或发散的度量方式,指平行光入射时从透镜光心到光聚集之焦点的距离​;有那么一个换算公式




小编知道大部分人看不懂,所以通俗的来解释一下,我们所谓的焦距,其实就是视角的大小。是以135胶片或全画幅数码相机为基准,所以在120或者其他尺寸的传感器上,都会有一个“等效焦距”的说法,




我们来看一下这个对照表,24*36代表着标准的35mm全画幅尺寸,而27mm 22.7mm则代表我们的APSC/APSH尺寸,我们只用看水平的视角就可以了,也就是Horizontal这一列。代表的是镜头所对应焦段的视角值、在50mm的焦距时,我们的全画幅所对应的视角是50 而APSH对应的则是30mm APSC对应的则是26mm;当然了,这只是视角不同,我们的焦距是完全一样的。



透视关系会影响画质吗?似乎不会,但是又有些什么不对?没错,就是画面的层次感,有些人说层次感是拍出来的,画幅越大,层次感越强,景深越浅。



其实不是,比如说一台M4/3跟全画幅的相机比较,因为M4/3的画幅较小,在M4/3上使用使用50mm镜头,在传感器上的成像范围只有全画幅的一半(因为M4/3的 Crop Factor为2X),剩下更多的虚化面积就看不到了,自然觉得景深“不够浅”了。所以相同参数下,可能小传感器拍出来的效果“不如”大传感器。


我们今天之所以参考等效焦距,纯粹是因为有比较多人熟悉135系统,因此比较容易联想到相应的摄影效果,但是在实际拍摄的计算上是没有什么特别意义的,因为大部份的计算都应该使用真实的光圈和焦距。





总结:所以说传感器的大小真的会影响画质吗?如果我们随便找一台小传感器设备和一个大传感器设备来比,那可能的确小传感器的画质不如大传感器,


但是若是我们控制变量,在像素密度相同,镜头相同等变量参数一致的情况下,小编想,小传感器除了画面被裁了一下,可能需要用更广的镜头来实现大传感器的焦距或者相反之外,没有任何应该影响画质的因素。


若是用全画幅相机和小画幅相比,镜头群的素质或许也是画质的一方面原因,可能在缩小体积的情况下保证画质对于镜片的抛光打磨是一个不小的挑战。


以上均为小编脑袋一热从日常积累中哔哔出来的,若有错误,敬请更正。





您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Gonlate概念论坛 ( 京ICP备17014288号 )

GMT+8, 2024-11-20 19:40 , Processed in 0.091645 second(s), 20 queries .

Powered by ROMIYIMAGE

Copyright © 2001-2024 Tencent Cloud.

快速回复 返回顶部 返回列表