侵权投诉
搜索
更多>> 热门搜索:
订阅
纠错
加入自媒体

微软全息投影HoloLens会重蹈Google Glass覆辙?

2015-01-23 09:30
吃瓜天狼
关注

    昨天微软Windows10的发布会上,微软发布了一款增强现实设备HoloLens,它是微软近十年来推出最黑科技的一款产品,没有之一!它看起来更像是进化版的Google Glass。

  Hololens是第一款以消费者为导向的增强现实设备,与其他增强现实设备不同的是,微软通过HoloLens为用户带来了全息式生活体验服务,并且形成了一整套的解决方案。它可以理解用户的手势、语音和周围的空间环境。

  HoloLens能够让你进入一个未来的世界,给你一种叹为观止的用户体验。它不同于三星之前发布的虚拟现实眼镜,必须配备Galaxy Note4才能够使用,它是一台完全独立的计算设备,内置了包括CPU、GPU和一颗专门的全息处理器。这款头戴装置在黑色的镜片上包含了透明显示屏,并且立体音效系统让用户不仅看到、同时也能听到来自周围全息景象中的声音,同时HoloLens也内置了一整套的传感器用来实现各种功能。

  目前,它能够追踪人的手势和眼部活动,那么屏幕和投影都会随着人的活动而移动。对于 Hololens 项目来说,最成功之处可能就是增强现实全息投影是如何欺骗大脑的:它让大脑将看到的光当成实物。在这支黑科技团队的理解里,他们的终极目标就是让人感知光的世界,它既存在,也不存在,重要的是,让大脑认为它待在一个实体的世界里。

  HoloLens所采用的人机交互形态:

  SLAM建模与叠加:使用HoloLens智能眼镜,需要先使用SLAM对场景进行预先建模,然后才能将3D模型、视频、窗口等内容叠加在该真实场景模型之上。微软之前发布了与google的projecttango相似的技专利,SLAM这块相对简单。但这种方式不适于在户外开阔空间内和未知空间内使用,只能在限定空间(一般为室内)和近距离的基本固定的场景或目标使用。

  景深自适应:由于使用SLAM方法,可以对建模场景和建模内容利用视差原理实现AR叠加时的景深自适应,这样才能在双目透视时让人眼同时观看到目标和AR信息,但对于未建模的未知目标,无法实现景深自适应;

  手势识别:基于结构光传感器,类似LeapMotion和Kinect。

  HoloLens的技术难点:

  1、透视效果:即户外强光、光线干扰等条件下的视透率问题,这点他们暂未解决,如果这点未能解决的话,很显然HoloLens是无法拿到大街上去使用。

  2、实际条件下的目标识别:目标识别在此类用途的智能眼镜上是必备的基础功能,在大尺度变化、倾斜、遮蔽、反光、简单特征与复杂背景这些实际条件下的目标识别。

  3、 普适条件下的目标AR:不一定能有条件和时间对每一个未知场景和目标进行建模,这时的AR其尚未解决;

  4、普适条件下的景深自适应:对未预先建模的目标和场景,HoloLens的方法无法做到景深自适应。要么限定应用目标和场景,要么随时建模,要么随时用激光测距仪测量,要么用双目摄像头测距。

  5、其他:全息波导的制造成本较高,成像的光学质量目前还较差,用了这么多摄像头和传感器的视觉计算,对CPU和GPU的处理能力有着极高的要求,需要采用Asic和一些专业级的芯片,成本和续航能力是个问题。

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号