光场相机成像原理是影响VR未来发展的一个重要技术,那么这个原理的原理图是什么?来这了解一下。
光场相机原理:
通过在普通相机镜头(主镜头)焦距处加微透镜阵列实现记录光线,再通过后期算法(傅里叶切片定理,光场成像算法)数字变焦。
原理图如下:
这样,光线通过主镜头后,打到微透镜阵列上,并再次成像。
那么,放在微透镜阵列后的像素,尽管仍然只记录了光线的强度信息,但却因其相对于某个微透镜的位置而记录了光线的方向信息。
即,如微透镜阵列是10*10,像素阵列是50*50,则每个微透镜分到5*5个像素,这25个像素分别记录了通过主透镜的25个不同位置并到达此微透镜的25根光线的强度信息。
这样,单纯用微透镜阵列和光电传感器,就相当于记录了通过主透镜的所有光线。
在后期处理时,只需要对光线重新追迹即可完成重聚焦,因为光线在自由空间中的传播是可以用两个平面、四个坐标(四维量,学术上称为光场)来唯一表示的。
而成像过程只不过是对这个四维光场进行了一个二维积分,从而得到了二维图像。
光场相机相当于直接记录了四维光场,不同焦深的图像只不过是在做不同情况下的二维积分罢了。
当然,光场相机劣势也明显,空间分辨率不足。这很显然,因为用同样的像素数量,传统相机记录二维图像,像素数被完全使用;
光场相机记录四维图像再做积分生成二维图像,积分过程中就会有信息丢失(想象把平面点阵变成线点阵),自然二维图像像素数量减少了,后果就是空间分辨率不足。
经典光场相机(Lytro)空间分辨率与微透镜阵列数量成正比。而且,要提高空间分辨率,角度分辨率就会下降,这之间有一个trade-off。
累计评论0条
展开其余评论