VR、AR或相关目镜系统在设计的时候,MTF的标准该如何定义?根据经验,MTF在截止频率处大于0.1即可,那么截止频率该怎么选择,我整理了一些个人的分析和思考。
1、按显示屏的分辨率计算 目镜系统一般都是按逆向光路设计,显示屏作像面,虚像为物面,人眼瞳孔为光阑。如果按照相机镜头的设计方法,那就把显示屏当做sensor,MTF的截止频率就按显示屏的像素大小来算,举几个例子,不同屏的MTF截止频率: 2.1寸,1600*1600的屏:21lp/mm 1.03寸,2560*2560的屏:69lp/mm 0.39寸,1920*1080的屏:111lp/mm 可以看到不同屏之间的MTF截止频率差距很大,未来显示屏的PPI会越来越大,截止频率也越高,先不提设计难度有多大,对于人眼来说,这么高的频率是否已经超出接受能力了?就是说对人眼来说是不是已经太富裕了,根本用不到这么高的频率呢? 2、按人眼视锥细胞的直径计算 毕竟目镜的接收器是人眼,如果把人眼当做相机,把视锥细胞当做像素,按它的直径来算MTF的截止频率。以前常见的直径是6μm,论坛里得到的答案也是6,后来我在网上搜到的是4~5,但最近听同事说应该按3算,不过他还没给出依据,我按两个极端算一下截止频率: 直径6μm:83lp/mm 直径3μm:167lp/mm 无论用哪个值,这样就跟显示屏没有任何关系了。如果用PPI特别低的屏,也要按这么高的频率来设计吗? 3、人眼的实际MTF 这是我一直以来在找的东西。看了几篇文章,有对人眼MTF进行实际测量的,基本方法是这样:被测者观看某一空间频率的图案,调整该图案的对比度(MTF),当图案的MTF为M0时,被测者刚好能看清,则在视网膜上的MTF为1,那么人眼的MTF为1/M0。多测几组数,再归一化,就画出MTF曲线了。不过这些研究用的空间频率单位都是cycle/degree,可以看做lp/degree,但是它和lp/mm之间怎么换算呢?(毕竟zemax里没有cycle/degree这个单位)。文献【1】里说按视距250mm换算,它实验实际观察距离是300mm,我按250mm算出来确实跟它的图对上了
文献1里这个图的纵坐标是M0,MTF的倒数。文献【2】里的图的纵坐标都是MTF。
到这里就有好多问题了: ①关于这俩单位换算,我以前也提过问题,没得到答案,不过找到一张计算的图,可以看看这个帖子http://www.optzmx.com/thread-21432-1-1.html 。换算的时候,视距是不是应该按实际距离计算?比如VR 虚像距离1m ,那1lp/deg 就是0.057lp/mm ,像距2m 的话就是0.029lp/mm ,这样截止频率不就跟像距有关了?按文献1 的数据,亮度100nit 时,阈值对比度0.1 对应大概30lp/deg 的频率,按VR 像距1m 换算是1.71lp/mm ,难道截止频率按这么低的标准来设计吗? ②文献里的数据都是阈值,就是人眼刚好能看清的程度,这个标准能满足目镜的使用要求吗?刚好能看清是不是“流程或标清”的画面?要达到“超清”画质应该怎么取值呢? 还有一个问题:设计是逆向光路,使用和测试是正向光路,光路是可逆,MTF也可逆吗?在测试的时候能以设计文件的MTF作为参考或要求吗?
|