传说中一直摆脱糖尿病的困扰sohu虚拟现实的VAC现象 真的无解么

导读:尽管VR火得一塌糊涂,但是一个神经性问题一直困扰着虚拟现实,这就是VAC现象。雷锋网作者黄通兵,七鑫易维CEO,对于眼控技术有深入研究。VA...
尽管VR火得一塌糊涂,但是一个神经性问题一直困扰着,这就是VAC现象。雷锋网作者黄通兵,七鑫易维CEO,对于眼控技术有深入研究。
VAC现象在学术上称之为视觉辐辏调节冲突,英文vergence-accommodation&conflict,也就是我们常说的调焦冲突。
这一现象造成的眩晕感是目前虚拟现实面临着的难以突破的瓶颈。其实眩晕并不是虚拟现实所特有的,有的人在影院看3D电影也会眩晕,有的人在公交上看书也会眩晕,但是眩晕感在VR上却是更为明显的。
其原因之一是,因为近距离的屏幕3D显示使视觉辐辏调节冲突更为明显。
什么是VAC(视觉辐辏调节)?
当我们在看某一点时,双眼转动使视点落在视网膜上相对应的位置,看近处的物体时,双眼通常向内看,看远处的物体视轴会发散些,这就产生了视觉辐辏。双眼从不同角度观看同一物体得到的影像也会有一些差异,大脑会根据这种差异感觉到立体的影像。这也是目前3D显示的常用的方式。
(辐辏调节)
当我们看现实中的实物时,除了视觉辐辏调节,还需要对不同距离的光进行屈光调解,将光线聚焦到视网膜上才能成清晰的像。此过程中晶状体聚焦在物体的过程叫做焦点调节。
(焦点调节)
目前的虚拟现实设备均是通过左右屏显示同一物体不同角度拍摄的画面,利用双眼看到的图像偏移来呈现立体的感觉。
(辐辏调节引起的立体视觉)
但是屏幕发出的光线并没有深度信息,眼睛的焦点就定在屏幕上,因而眼睛的焦点调节与这种纵深感是不匹配的,从而产生视觉辐辏调节冲突(VAC现象)。
这种冲突是与人类日常生理规律是相违背的,因此才会有视觉疲劳、眩晕感。
要想解决这个问题,就要从人眼成像的原理上出发,让VR设备展现的画面可以有深度信息,也就是光就要从空间立体中的点发射出来,让人眼的视觉辐辏和焦点匹配,光不仅要有强度还要有方向,那就是光场显示技术。
那么既然知道怎么解决,为什么不把这个技术应用?
虽然有了解决方案,但是真正应用起来可没那么容易,目前光场技术在相机领域的应用还算较早,但也仅限于光的采集。如图所示,物体向各个方向发出的光是不同的,因此人站在不同的角度、观看也会有视觉差异。
而可以记录光辐射在传播过程中的位置信息和方向信息,这比传统的成像方式多出2个自由度,因此拍摄者可以先拍摄,后期根据自己的需求再选择自己的聚焦点。
(光场相机)
而光场显示技术的实现要比这个困难的多,可以说这不仅仅是学术圈面对的难题,即使是微软、Oculus这样世界领先的虚拟显示公司也在为这件事而发愁。
斯坦福大学的一项研究表明光场技术是可以改善虚拟显示目前存在的眩晕缺陷的,像光场相机一样,先收集各个方向的光,再通过多层堆叠的显示屏进行显示,每层都显示不同焦点的图像,这样人眼就可以实现正常对焦了。
维茨坦因的一个团队设计了一款利用光场显示的VR大盒子,里面有三四个位面展示了同一个图像的不同部分。这些位面前有一个可以改变功率的透镜,可以对焦到画面的不同部分。光线可以模拟现实世界中光在物体上的反射,进而投射出三维效果。
该设备就使用了两层叠加的液晶显示器,使图像不同部分在两层液晶显示器上呈差异化显示,距离远的物体会在后面那层显示器上显示更多细节,距离近的则在前面那层显示器上显示更多细节。如果让VR显示技术和显示视觉效果一样,还需要更多层显示屏的叠加,目前研究人员仅在静态画面上进行了测试,对于动态画面的效果仍有待验证。
除此之外,还可以采用焦距仅为几毫米的微镜头阵列来代替普通透镜。利用特殊的GPU芯片进行实时光源光线追踪运算,将影像分解成为数十组不同的视角阵列,然后再通过微透镜阵列重新将画面还原显示在用户的眼前,从而使观赏者能够如同身处真实世界中一样,通过眼睛来从不同角度自然观察立体影像。
但是此种技术还有一道硬伤,NVIDIA就曾推出过采用此种技术头戴显示设备,其原型设备的空间分辨率仅为146&78,根本无法满足商业化需求,因此只能通过4K级别甚至更高级别显示面板才能达到想要的效果。就目前普及的1080P的手机而言,屏幕已经算是功耗大户了,因此4K级别的显示屏的功耗也就可想而知。
光场显示技术的两种实现方法势必会增加硬件设备GPU的负担,对处理器要求高,但人眼是不需要看全整个画面的,占用GPU渲染出的有深度的画面大部分都是不用看的,这也就导致了资源的浪费。
而眼球追踪技术正是光场显示技术的最佳拍档,我们可以通过捕捉的人眼动作判断人眼的注视点,模拟辐辏调节过程,仅渲染人眼注视点位置的画面,让画面主动去适应视点位置。
这样既保证了真实感,又不会因为眼睛去适应画面而产生疲劳。而在这个过程中局部渲染也自然而然地降低了GPU的负荷。目前我们的虚拟显示设备aGlass已经尝试通过这种方式解决眩晕,不过似乎还有一段艰难的路要走。但一旦让光场显示技术和眼球追踪技术在VR设备上实现,那VR设备也将不再局限于看电影玩游戏了,他甚至可以在虚拟世界里再现任何你在视觉上想要的东西,并且还和现实感官没差异!
免责声明:本站转载文章仅代表作者个人观点,与"3D互联"无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
file_put_contents(/usr/share/nginx//caches/caches_tpl_data/caches_data/9f604b7b982c7fec226b6.cache.php) []: failed to open stream: Permission denied in /usr/share/nginx//phpcms/libs/classes/cache_file.class.php on line 60VR头盔让你头晕的真正原因及解决办法-vr186虚拟现实门户
VR头盔让你头晕的真正原因及解决办法
摘要: 戴上国产的VR头显,不动的时候还好,一动起来就会让人极度眩晕,这是为什么?按照一般的看法,VR头显无非是戴在头上的显示器,晕动(Motion Sickness)到底是怎么回事?
&【编者按】本文作者@台伯河,VR行业从业者。
随着渐渐兴起,国内现在做的厂商也增多了起来。但是我经常听到有体验者向我表示:他戴上国外大厂诸如Oculus、Sony和Valve的VR头显的时候,体验十分出色,但是戴上国产的VR头显,不动的时候还好,一动起来就会让人极度眩晕,这是为什么?按照一般的看法,VR头显无非是戴在头上的显示器,晕动(Motion&Sickness)到底是怎么回事?
实际上人对于VR的眩晕很大程度上,与晕船晕车没啥区别:人耳朵里的前庭系统所感受到的运动状态和视觉系统不一致,就会在大脑里&打架&&&人就会觉得晕乎乎的。总的来说,晕动症分为三种:
你看到动了,感觉没有动:比方说打FPS就是这种情况;
你感觉动了,但是看到没有动:比方说晕车晕船晕机就是这种情况;
感觉的运动情况与看到的运动情况不匹配:宇航员在做离心机训练的时候就会遇到这种情况。
对于VR,情况可能要更加复杂一些。用户的全部视野都被VR头显所覆盖,VR头显极力欺骗你已经到了另一个世界,此时视觉系统所感受到的东西就不仅仅是视野中的一块屏幕上显示的画面,而是整个视野,在这种情况下,VR导致的晕动症就会有很多种因素。
第一个因素当然是你身体的运动和你的视野中所观测到的运动不匹配。
比如说你在坐VR的过山车的时候,视觉上是在高速运动,但是前庭系统却表示你并没有在运动,这时就会导致头晕。从逻辑上,这与打FPS造成的头晕没有什么区别,每个人都会有不同的感受。
第二个很重要的原因,是头部运动和视觉观测到的头部运动的不匹配。
这才是今天我们要说的重点,也是VR头显能够从技术上加以改善的部分。其中这一点包括两个部分:帧间延迟和帧内延迟。
帧间延迟很好理解。人类对于头部转动和相对应的视野的变化是极度敏感的。如果用户的头转动了,而相对的,视野转动有延迟,只要很微小的延迟就能感觉得到。有多微小呢?研究表明,头动和视野的延迟不能超过20ms,不然就会非常明显。
不要小看20ms:实际上人头部运动的速度很容易就能够达到每秒上百度。假设头部转动速度为100度/秒(其实随便转头就能达到这个速度),20ms的延迟意味着视野中物体的转动延迟为2度,把手伸直,竖起大拇指,大拇指的宽度大概就是2度。
20ms的延迟时间对于VR头显而言是一个非常大的挑战。首先设备需要足够精确的办法来测定头部转动的速度、角度和距离,这可以使用惯性陀螺仪(反应灵敏但是精度差)或者光学方法来实现。然后计算机需要及时渲染出画面,显示器也需要及时地显示出画面,这一切都需要在20ms以内完成。相应的,如果每一帧显示的时间距离上一帧超过20ms,那么人眼同样也会感到延迟。所以,VR头显的画面刷新率应该超过50FPS,目前来说60FPS是一个基准线。要在这么短的时间内搞定这一切,本身就是巨大的挑战。
那么是不是单纯把帧率提高到60FPS以上,拼死将延迟做到20ms以内就可以了呢?其实除了帧间延迟之外,VR所造成的眩晕还有更加复杂的成因。下面我用几张示意图演示。
&我们可以看到,左边这张图是真实的世界中,一个物体从左往右移动时眼睛看到的情况:随着时间的推移,物体的轨迹是一条线;而右边的图则是任何一种显示器显示出来的情况:物体的图像在每一个点显示一段时间之后,就跳到下一个点;它并非是连续的运动。
但是一旦当人的头部运动,那么人眼也会相对于显示的物体有相对的运动,这时物体在人眼中的轨迹就变了一个样子:
右图中头部往左转时,原来静止不动的物体的轨迹就变成了右图这个样子,不再是一个点,而是在每一帧结束之时跳回到它&应该&在的位置。然而人眼的视觉暂留现象则会保留上一帧和这一帧的图像,于是图像就会造成拖影,从而导致眩晕。
假如我们仍然假设60hz的刷新率,头部转动速度为120度/秒,那么一帧内头部转动为2度,以DK2的分辨率,一帧内的延迟为19像素,这个时候头显显示的图像将会是相当模糊的。而分辨率越高,这个问题就越严重。以人眼理论极限分辨率来计算,一帧内延迟会达到600像素。
这个问题怎么解决呢?想要让物体的图像更加连续的移动,最好也是最简单粗暴的办法是提高刷新率。
从60到90,到120,到200&&可能最后到1000hz,那时我们的视觉系统就彻底分辨不出真实或者是虚拟了。&但显然我们现在无法将刷新率提高到1000hz,目前Oculus&Rift&CV1和HTC&Vive采用了90hz刷新率,而Sony&Project&Morpheus采用的是120hz刷新率。
另外一个办法,就是降低余晖(Persistence)。
余晖(Persistence)是一个在CRT显示器时期的概念。CRT显示器是电子束激发屏幕上的荧光粉发光,所以实际上CRT显示每一帧之内只有很短一段时间像素是发光的,其余时间像素是暗的,示意图如下:
可以看到液晶显示器,每一帧内像素总是在发光,所以液晶显示器就被称之为&全余晖&(Full&Persistence)显示。
中间这张图只有一半时间像素发光;而右边这张图是理想情况下只有非常短的时间内屏幕在发光,也就是&零余晖&(Zero&Persistence)。由于人眼的视觉暂留效应,刷新率足够高就不会察觉到屏幕只有每一帧很短时间发光。但是为了弥补亮度的不足,每一帧内像素发光的强度要大大提升。
低余晖显示对VR头显的意义在于,头动时物体的轨迹更加接近于物理世界的真实轨迹:
这时头部运动带来的拖影会大大降低。假设假设同样头部转动为120度/秒,头显刷新率60hz,一帧内屏幕发光2ms,以DK2分辨率和视角计,那么在发光2ms之内头部转动人眼所观察到的视觉延迟仅为2像素,眩晕感就随之而去。
但是我们都知道LCD的基本显示原理:通过让液晶翻转来选择性透过光线。这意味着LCD很难使用低余晖显示。
(TN-LCD的基本显示原理)
液晶翻转的响应时间最快也有2-4ms,而背光原理也导致LCD不能做到全黑。相比之下传统的CRT显示器是天然的低余晖显示。
想要解决这个问题,VR头显必须使用主动发光的显示屏,比方说OLED。由于其每个像素都是主动发光的,所以OLED屏幕可以做到低余晖。
实际上,Oculus和Valve都使用了AMOLED的低余晖显示屏,Sony则使用了自家的OLED显示屏。目前国产的VR头显大多采用传统的LCD显示屏,所以其造成眩晕是很自然的。
但是低余晖也并不是什么都好。它也会带来副作用:由于每一帧图像显示的时间都很短,所以移动的物体显示出的轨迹是断续的,视觉系统会认为其为不同的物体,而在显示屏全亮的情况下,视觉系统则有足够的时间将其界定为同一个物体。从这个意义来说,这是一个trade-off:在解决晕动和拖影的同时,低余晖显示会导致头动时物体闪烁和跳跃。
好了,说了这么多,我想大家也都明白了:虚拟现实并不是在眼睛前面放两块显示屏加一个陀螺仪就能搞定的。在此也希望国内的厂商能够沉下心做好产品,把虚拟现实的基本体验做好,我们才能够像智能手机那样从苹果谷歌到小米华为。
声明:本文在技术描述中参考了现Oculus首席科学家Michael Abrash的工作,部分图片来自于他在Valve的博客,。
来源:雷锋网
每天五分钟,读VR精选好文
关注“VR头盔让你头晕的真正原因及解决办法”的人还喜欢
免责声明:本站转载文章仅代表作者个人观点,与立体时代无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
所有评论仅代表网友意见,不代表VR186立场。
VR高峰论坛暨深圳市虚拟现实(VR)产业联合会成立仪式(以下简称“联合会”)、宝安区VR产业技术创新联盟成立仪式、VR专项基金发布仪式将于日在深圳市会展中心{杜鹃厅隆重召开。
星轮ViuLux VR DAY体验日第二期活动将以“预约+体验+交流”的形式邀请VR爱好者们到掌网科技免费体验VR新品。
虚拟现实的技术和产业现实讨论
群雄逐鹿 热度升温
VR难点如何各个击破?
热门资源下载虚拟现实真的掀起了热潮?这份报告里有真相 | VR/AR 领域数据报告
内容不是一个赢家通吃的行业,到后期比较容易出现合并的现象。
推荐指数:★★★★
阅读时间:3分钟
推荐语:VR/AR 在近两年成为资本追逐的热点,涌现了众多创业企业,那在资金的具体分布上,不同地区、不同细分领域和投资轮次有什么差别?这些差别反映了什么样的趋势,背后的原因是什么?黑马哥与您一同观察与思考。
文 |&FellowData
我们在上一篇 VR/AR 领域行研报告中提出,在经历了一轮资本持续增长之后,我们需要更加理性的看待这个市场。VR/AR 产业正在重走 1984 年的 PC 浪潮,它的发展取决于多个方面。在目前 VR/AR 领域倍受资本关注的时期,资金的实际流向是怎样呢?在这次的报告中 FellowData 将为大家解读。
2015 年上半年以来,VR/AR 领域资本大量流入北上深等第一梯队城市
从获投总金额的地域分布来看,北京、深圳、上海作为第一梯队,其中北京无疑最多,截止目前已超过 11 亿人民币,而流入深圳的资金在这个领域超过了上海。作为第二梯队的杭州、成都、厦门相比其他省会城市也有不错的成绩。
那么资金是什么时候开始流入的呢?我们从图中看出,其实资金流入深圳和上海的时间都比北京早,而且在 2015 年下半年之前都保持着平稳的走势。北京从 2015 年上半年开始资本大量流入,且一直暴增,从 2015 年下半年才稍微放缓了速度。杭州、厦门也都是从 2015 年下半年开始有资金进入。
我们先把 VR/AR 的机会分为五个细分领域:
应用平台:基于 VR/AR 的应用、APP、浏览器和平台等。代表公司有礼小签、橙子 VR、触景无限等。
内容:内容制作团队,包括游戏、影视娱乐、旅游、早教等内容。代表公司有乐客灵境、热播科技、兰亭数字等。
技术研发:底层技术研发,比如可视化技术、影像技术、手势识别技术、空间交互技术等。代表公司有指挥家、盛开互动、完美幻境等。
软件系统:基于一些具体领域的辅助系统,比如装修设计、旅游、航空航天、军用系统等。代表公司有曼恒数字、盟云移软、赛四达等。
硬件:目前以可穿戴设备为主。代表公司有乐相科技、蚁视科技、3Glasses 虚拟现实科技、暴风魔镜、灵镜 VR 等。
硬件类项目在获投金额上稳居第一,内容领域快速增长的态势强劲
从获投总金额来看,总体走势跟数量基本保持一致,但是硬件在获投金额上却比内容胜出一筹,可见内容在资金的需求上远远不及硬件部分。
也许在大多数人眼里,中国在底层技术和软件系统上的优势相对薄弱。所以,投资人们在这两个领域大多持观望态度。未来充满了机遇,在不久的将来,我们希望中国在这两个领域也会诞生新的独角兽。
从年度金额走势来看,软件发展时间较长,资金量虽然不大,但是总体来讲比较稳定,投资人对技术研发的投资处于忽冷忽热的状态,应用平台则是从 2015 年下半年开始有资金流入,硬件类项目融资总额从 2015 年上半年开始激增,内容类别也伴随着硬件的火热从 2015 年下半年开始受到资本追捧。
截止到今年上半年,内容类别依旧保持快速增长态势,而硬件的获投总金额则有所下降。有观点认为,VR 硬件依旧存在技术瓶颈,产业链不够完善等现实困境,使得资本市场对硬件类项目的兴趣减弱。2016 年一季度 Oculus、HTC、Sony 等新产品的上市,能否继续带动 VR 硬件的热潮?FellowData 将持续为您追踪这一领域的趋势变化。
内容领域在天使轮和 A 轮占绝对优势,硬件领域 B 轮主导
从各细分领域的轮次占比来看,内容在天使轮和 A 轮占了绝对的优势,而 Pre-A 轮中,硬件的数量有所提升,到了 B 轮,硬件迎头赶上占据了主导地位,而软件系统和技术研发一直都保持着比较稳定的步伐前进着。究其原因,我们认为有以下四点:
我们从年度获投数量看到,内容的发展期相比软硬件时间较短,走到 B 轮之后的项目数量也自然会比软硬件少。
由于目前硬件还不成熟,内容缺乏好的载体,内容对软、硬件和技术的依赖性导致不容易获得后续融资。
VR 内容制作的进入门槛相对较低,但其实市场门槛并不低,因此内容团队的在市场上激烈的竞争导致其中途死掉的可能性比较大,能走到 B 轮的项目会慢慢变少。
内容能够变现的速度比较快,需要融到 B 轮以后的项目也会慢慢变少。
我们认为 VR/AR 资金流向内容和硬件都有其原因:
内容:好内容永远都是缺乏的,在任何领域都存在着巨大的机会。况且内容不是一个赢家通吃的行业,到后期比较容易出现合并的现象。虽然现阶段的 VR/AR 内容并不成熟,但是在这个高速发展的阶段,投内容的机会较多。一旦硬件设备开始普及,已经做好准备的内容团队就能大规模的落地了。
硬件:硬件的技术门槛相对较高,对资源和资金都有很大的需求,对其关注的资本也都资金雄厚,这并不能成为一个大众的创业领域。在硬件方面技术门槛的突破才能够成就巨头。尽管风险重重,但只要坚持到后期,回报也会与风险成正比。}

我要回帖

更多关于 摆脱糖尿病的困扰sohu 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信