其实发这篇帖子就是为了解释这个问题,
人眼在观察事物的时候是存在焦点的,大脑已经习惯了这种焦距调整构建的空间感,
焦点是清晰的,焦点之外的东西,包括周边视界都是模糊的,
但现在的显示3维成像方式没有模糊一说,如果摄像机镜头没有通过shader一类的东西模拟人眼效果,所有东西都是清晰的,远方和近处,当我们是在原距离的显示环境中接受这种信息没什么,因为视野里其他事物是正常的,但这种图像信息一旦几乎全屏化几乎填充了眼睛所见,问题就会产生,大脑试图通过聚焦来判定空间的时候会发现非常困难,因为全部都是焦点一样的清晰,这个时候控制空间感和人体平衡的耳垂体就会混乱,人会觉得头晕天旋地转,病就这么来了,
而这个技术牛的地方在于,我们眼睛所见都是依托光,如果一个东西不反射折射光只单纯吸收光线,那我们什么都看不见,而它通过一个医学用的内窥镜成像光头的反向运用,把光信息反过来投射到眼里,也即模拟自然界各种可见物体的反光信息,以此来构建出一个光线原理和自然物体一致的虚拟物理,因此而能被大脑正常处理,其实视频里最重要的一点并非是一个掺杂在3D环境里的虚拟物件,而是前后的聚焦过程,你可以看到在全视野填充的成像中,通过调整模拟人眼摄像镜头的焦点和焦距,投射的虚拟物件可以被模糊掉,这点看似再正常不过的地方才是这个技术最革命性的突破。 |