以上主要是从目视角度来看分辨率,现在谈谈摄影分辨率,因为光辐射接受器件的不同
传统的银盐和胶片摄影与现在的数码摄影又有很大差别。
先看胶片摄影:
19世纪中叶,法国人盖达尔发明了感光乳剂,创造了摄影术,天文学家们马上想到利用摄影的方法,把星体拍下来,这就是天文摄影的开始。此后,感光材料愈来进步,品质愈来愈好,天文摄影在天文科研中的地位就愈来愈重要。
摄影界常采用胶片上每毫米宽度能够纪录多少黑白相间的线对数量N,来表示它的分辨率。
首先,仍利用瑞利判据来推求理论上的摄影分辨率,当单色波长λ同样取0.000555mm时,经推导(从略)得出如下的形式:
N=1477D/f
此式引入了焦比的概念;焦比F=D/f,即镜头通光口径与其焦距之比。由此式仍然可以
得出口径大分辨率高的结论,然而焦距也对分辨率产生影响,焦距越长,用角秒来表示的艾里斑在象面上的直径就越大,所以每毫米宽度上能分开摆放的艾里斑就越少。同一焦比的镜头具有同样的分辨率。
一个焦比F=1/4的镜头,用上式计算可得到分辨率N=370线对/毫米,看起来非常棒,且慢! 此式算出的仅仅是指单色光在视场中心的情况下理论值。对于胶片来说,真正决定其分辨率的因素是银盐颗粒的大小。一般常用的胶片能够记录到的分辨率在60~90线对/毫米范围。据说天文台用的专业胶片可达到200线对/毫米,不过敝人从未见识过。
如此看来,即使望远镜的分辨率再高,也是英雄无用武之地了。而照相机镜头的设计理念并不刻意追求高的分辨率,它致力于在大视场范围内求得7种象差的综合平衡,面面俱到。对于镜头来说,一个点光源(如恒星)在胶片上的成像比艾里斑要大得多,所以称为“弥散圆”。公认的一个事实是,当弥散圆的直径小于0.03毫米时,就认为照片是足够清晰的,从弥散圆的概念出发,进一步还可以得到“景深”、“超焦距”等衍生的术语。
而在分辨率上,视场中心能够达到50线对/毫米,视场边沿达到35线对/毫米,按我国的标准就算是1级镜头了!国外著名镜头如蔡斯、莱卡、尼康红圈、佳能L头等一般视场中心能够达到70~80线对/毫米,据说各家顶级“镜王”在最佳光圈时能达到120线对/毫米。
对于无需放大观看的底片,甚至允许弥散圆的直径不大于0.1毫米。
这就是望远镜与相机镜头最大的不同!但望远镜的高分辨率范围仅仅限于“近轴光线”的很小一个范围,通常不超过0.5度的视场角,也就是一个月面的直径。这与人眼的高分辨率范围限于“黄斑”有着异曲同工之处。也是望远镜更适于目视的原因之一。需要大视场的话,还是让位给镜头吧!
实拍的照片能够达到的实际分辨率是镜头与胶片共同作用的结果。用如下公式表示:
1/NP=1/NL+1/NF
式中,NP为实际分辨率;NF为胶片分辨率;NL为镜头分辨率
例如,用70线对/毫米高级镜头和80线对/毫米的胶片组合,得到的照片真实分辨率为NP =37.3线对/毫米,这样的照片仍然被认为是非常清晰的。如果换用50线对/毫米的镜头,得出NP=30.8线对/毫米,仍是足够清晰的。从这个结果可以体会到其中隐含的木桶理论;即长板受到短板的制约。高级镜头和一般镜头差别比数据的差别要小得多。
还有的摄影教材采用基于误差合成理论的公式:
1/NP=√(1/NL)^1.8+(1/NF)^1.8
此式似乎更合理。但用实际数字代入试算,答案却相差不多。
自从进入本世纪以来,CCD、CMOS、数码单反相机、摄像头甚至数码摄像机等器材逐渐进入爱好者的视野,和胶片相比,数码用于天文摄影具有太多的优点;它量子效率高、感光灵敏度高、无倒易律失效问题、可即时成像、后期处理方便等等。使得胶片在天文摄影中地位骤降。过去拍深空需要几十分钟以至数小时的跟踪曝光,对设备要求门槛很高,使用数码后,跟踪时间起码减少了一个数量级。不但降低了设备门槛,而且还可采用多次单色曝光合成彩色,或是通过时间不同的曝光后期叠加来充分展现深空天体不同层次的细节。
过去用胶片拍行星照片,更是难上加难。由于胶片感光率低,要拍到行星表面细节,必须加长焦距放大影象,即使焦距加长到4米,木星在胶片上的成像直径也只有1毫米,想想看,大红斑也就只有0.1毫米,那时天文教科书上采用的木星照片都只有模糊不清的两条云带,加一个模糊的椭圆斑,我相信那是出自专业天文台的佳作。长的焦比进一步需要增加曝光时间,遇到稍有气流抖动或是跟踪欠佳,就会报废一张底片。而现在只要用一个摄像头就可很方便地拍到行星视频,摄像头的小面积CCD反而成了优点,行星的成像被放大到可观的程度。经后期自动叠加处理,可以得到很漂亮的行星照片。过去能够拍到木星红斑都是了不起的高手用200毫米口径以上的望远镜才能为之,现在一个认真的初哥用80毫米口径,就能轻易做到。
扯远了,现在该谈谈数码摄影的分辨率匹配问题,
数码感光元件中的像素单元一般都是正方形,以马赛克状成行列分布,也有特例,如富士公司的superCCD,其像素为六角形按梅花交错分布,但都是有规则的。胶片的银盐颗粒则是无规律可循的。显然,数码像素的间距就可作为计算感光元件分辨率的基础。相邻两个像素一黑一白才能构成一个线对。
不久前佳能推出的EOS50D其CMOS元件尺寸为22.3×14.9 mm,具有1510万像素 (4752 x 3168),算是在APS-C画幅的DSLR中像素最高的一款。很容易算出,每个像素边长为4.7微米,再换算为分辨率就是106线对/毫米,作为比较,TOUCAM的像素边长为5.6微米左右,而新近一些小DC的像素大小仅仅为1.5微米。
那末问题是;用这个相机进行直焦拍摄时怎样才不至于造成望远镜分辨率(也就是细节)的浪费?
以一架口径100F7的APO折射镜为例,由前面公式可得出此望远镜具有211线对/毫米的分辨率,比相机 106线对/毫米高出许多,如果不采取措施,就会使本来望远镜能够分辨的细节被相机感光元件的“大”像素“模糊”掉了。问题出在望远镜的焦比上,反过来想,如果望远镜分辨率只有106线对/毫米,不就正好匹配了吗?仍然利用前式反算,得到这样的望远镜具有F14的焦比。——换句话说,增加望远镜的焦距,就能解决分辨率不匹配的问题。很容易理解,焦距加长后,艾里斑变大,其大小相当于一个像素的时候,也就能够被像素单元所识别开来,不至于两个艾里斑“挤”在一个像素上面无法分辨。这里算出的焦距仅仅是下限,不要忘记1/NP=1/NL+1/NF这个分辨力的合成公式,在数码成像上同样起作用。进一步增加焦距,会使细节更分明。香港刘佳能先生用C14拍行星,曾经用TV 5X将焦比增加到F59,(焦距达21米!)拍出的行星照片我想都会过目不忘。但是采用这末长的焦比时还必须考虑到对象有足够的亮度。
至于如何增加望远镜的焦距?增焦镜、巴罗镜、目镜都行。不过敝人推荐相机镜头用的增焦镜。
关于感光元件与望远镜分辨率的匹配问题,仅适用望远镜拍摄行星、月面(或日面)细节、或是为了分解星团、双星中的恒星。而用相机镜头拍摄不在此列。原因前面已讲到过,镜头的弥散远远大于艾里斑。而一般的深空拍摄追求大的焦比,以缩短跟踪曝光时间。对于细节表现不是很追求,所以也不适用。
闲谈,就是闲话。