pg电子试玩的解决方案
宁波怡信光电科技有限公司

解决方案

3d成像方法(二)-pg电子试玩

【概要描述】

【概要描述】

4、飞行时间法tof


       飞行时间是从time of flight直译过来的,简称tof。其基本原理是通过连续发射光脉冲(一般为不可见光)到被观测物体上,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。
tof法根据调制方法的不同,一般可以分为两种:脉冲调制(pulsed modulation)和连续波调制(continuous wave modulation)。
脉冲调制:脉冲调制方案的原理比较简单,如下图所示。它直接根据脉冲发射和接收的时间差来测算距离。

 

 

       连续波调制:实际应用中,通常采用的是正弦波调制。由于接收端和发射端正弦波的相位偏移和物体距离摄像头的距离成正比,因此可以利用相位偏移来测量距离。

 

 

       目前的消费级tof深度相机主要有:微软的kinect 2、mesa的sr4000 、google project tango 中使用的pmd tech 的tof深度相机等。这些产品已经在体感识别、手势识别、环境建模等方面取得了较多的应用,最典型的就是微软的kinect 2。
       tof深度相机对时间测量的精度要求较高,即使采用最高精度的电子元器件,也很难达到毫米级的精度。因此,在近距离测量领域,尤其是1m范围内,tof深度相机的精度与其他深度相机相比还具有较大的差距,这限制它在近距离高精度领域的应用。
       但是,tof深度相机可以通过调节发射脉冲的频率改变相机测量距离;tof深度相机与基于特征匹配原理的深度相机不同,其测量精度不会随着测量距离的增大而降低,其测量误差在整个测量范围内基本上是固定的;tof深度相机抗干扰能力也较强。因此,在测量距离要求比较远的场合(如无人驾驶),tof深度相机具有非常明显的优势。

 

5、光场成像法(light field of imaging)


光场就是光辐射在空间各个位置各个方向的传播。
全光函数:全光函数包含7个变量。
空间位置(3d)、特定方向(2d)、特定时刻(1d)、特定波长(1d)
l=p(x, y, z, θ, φ ,t, λ)
如图所示:

 

       若一条光线通过两个平面uv和st所产生的交点坐标分别为(u,v)和(s,t),此时就可以通过光场函数l(u,v,s,t)来表示这条光线的分布。l代表光线的强度,而(u,v)和(s,t)共同确定了光线在空间中分布的位置和方向。在四维(u,v,s,t)空间中:一条光线对应光场的一个采样点。
       为什么要用这种双平面的方式来确定光场的分布呢?这是因为常规的相机一般都可以简化成两个互相平行的平面——镜头的光瞳面和图像传感器所在的像平面。对于常规的相机来说,每个像素记录了整个镜头所出射光线会聚在一个位置上的强度。
       所以,传统的相机只能获取一个像平面的图像。而如果能够获取到整个相机内的光场分布情况,我们就可以将光线重新投影到一个虚拟的像平面上,计算出这个新的像平面上所产生的图像。光场相机的目的就在于对相机的光场分布进行记录。
       光场相机工作原理:光场相机由镜头、微透镜阵列和图像传感器组成,其中微透镜阵列是多个微透镜单元所组成的二维阵列。镜头的光瞳面(uv面)和图像传感器的光敏面(xy面)关于微透镜阵列(st)成共轭关系,也就是说,镜头经过每个微透镜单元都会投影到图像传感器上形成一个小的微透镜子图像。每个微透镜子图像包含了若干个像素,此时各像素所记录的光线强度就来自于一个微透镜和镜头的一个子孔径区域之间所限制的细光束,如下图。

       这里的细光束也就是光场的离散采样形式,通过微透镜单元的坐标st和镜头子孔径的坐标uv即能够确定每个细光束的位置和方向,获得l(u,v,s,t)的分布。
       如下图:每个宏像素对应于光场的一个位置采样。宏像素内的每一点对应于光场在该位置的一个方向采样。光场的位置分辨率由采样问隔决定。光场的方向分辨率由每个宏像素内所包含的像元数所决定的。

 

 

       怎么实现数字对焦:正如前面所说,获得相机内的光场分布后,就可以重新选择一个虚拟的像平面,如上图。
       可以选择更远或更近的像面位置,计算出所有的光线在这个平面上的交点位置和能量分布,从而就得到了一幅新像面上的图像。这个过程等价于传统相机的调焦过程,只不过是通过数字计算来实现,因而被称为数字调焦。
利用光场相机的数字调焦能力,只需要一次曝光就可以计算出不同像平面位置的图像,能够实现大光圈条件下的快速对焦。更进一步,利用不同深度平面的图像序列,可以完成全景深图像合成、三维深度估计等功能。

 

6、全息投影技术


       全息投影技术是利用干涉和衍射原理记录并再现物体真实的三维图像的记录和再现的技术。
       其第一步是利用干涉原理记录物体光波信息,此即拍摄过程:被摄物体在激光辐照下形成漫射式的物光束;另一部分激光作为参考光束射到全息底片上,和物光束叠加产生干涉,把物体光波上各点的位相和振幅转换成在空间上变化的强度,从而利用干涉条纹间的反差和间隔将物体光波的全部信息记录下来。记录着干涉条纹的底片经过显影、定影等处理程序后,便成为一张诺利德全息图,或称全息照片。
       其第二步是利用衍射原理再现物体光波信息,这是成象过程:全息图犹如一个复杂的光栅,在相干激光照射下,一张线性记录的正弦型全息图的衍射光波一般可给出两个象,即原始象(又称初始象)和共轭象。再现的图像立体感强,具有真实的视觉效应。全息图的每一部分都记录了物体上各点的光信息,故原则上它的每一部分都能再现原物的整个图像,通过多次曝光还可以在同一张底片上记录多个不同的图像,而且能互不干扰地分别显示出来。
如下图。离轴全息和同轴全息。

 

 

7、其他补充


       这里要解释一下,人们看到的舞台上的立体的效果,不是真正的全息,一般来说,只是一层介质膜,被商家炒概念为全息,只是伪全息。

       电影院的3d眼镜和全息更是半毛钱关系也没有,原理是利用了人眼的视差。3d眼镜有:互补色、偏振光、时分式。

ar、vr技术和全息关系也不大。

vr虚拟现实就不说了,只是前期把各个位置各个角度的内容录制合成,后期通过传感器探测人的动作来对应的切换内容。


ar增强现实,如下图分两步,先获取周围世界的三维信息

 

© 2021  宁波怡信光电科技有限公司  all rights reserved.           

© 2021  宁波怡信光电科技有限公司  pg电子试玩入口的版权所有

    

网站地图