智能眼镜
智能眼镜,也称智能镜,是指“像智能手机一样,具有独立的操作系统,可以由用户安装软件、游戏等软件服务商提供的程序,可通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入的这样一类眼镜的总称”。
中文名:智能眼镜
外文名:Smartglasses
别称:智能镜
特点:智能手机一样具有独立的操作系
属性:实现无线网络接入的这样一类眼镜
1、特点
谷歌在做可穿戴式计算机:谷歌眼镜,称“ProjectGlass”,大家都知道。到2013年甚至可以采购到这批设备。但是,你知不知道工程师帝国微软,也做相似的事情呢?是的,继Win8之后,微软转型移动端的脚步又一次加快了。
据悉,微软已经公开了了一批类似谷歌眼镜的产品的专利。谷歌对外宣布产品开发计划,旨在方便今后可以在公共场合中测试外型怪异的谷歌眼镜。单从当前产品设计来看,谷歌眼镜包括了一条可横置于鼻梁上方的平行框架、一个位于镜框右侧的宽条状电脑,以及一个透明显示屏。总体而言,该外型绝对不会像我们通常理解的传统眼镜的设计。
眼镜是基于Android操作系统运行的,看起来可以用语音操作、还可以视觉控制。在佩戴者视线上会有一个光标,向上看能与光标互动,查看天气,发信息,做智能手机能做的事。除了智能手机功能,它还能与环境互动,扩充现实。
根据视频演示,ProjectGlass可提供天气、交通路线等信息,用户还可以用语言发信息、发出拍照指令等,它还能显示附近的好友。举个例子:如果看到地铁停运,眼镜会告诉用户停运的原因,提供替代路线;如果看到自己喜欢的书,可以查看书评和价格;如果在等朋友,眼镜会显示朋友的位置。
2、智能眼镜交互方式
主要介绍应用于智能眼镜比较广泛的三种交互方式,即语音控制、手势识别和眼动跟踪。
语音控制
在人们的日常交流中,说话是最常用的方式,将语音交互引入可穿戴领域,那人们将能够享受到更加自然和轻松的交互体验。语音控制即是让计算设备能听懂人说的话,还能根据人的说话内容去执行相应的指令。对于体积小、佩戴在身体上的智能眼镜来说,语音控制是行之有效的交互方式。
语音控制原理
语音控制中最核心部分是对语音的识别技术。骨传导技术能完成对语音的高效识别和传输,多款智能眼镜均采用了此项技术。以Buhel的SoundGlass为例,SoundGlass中配备了间接骨传导传感器。他的每个镜腿内各有一个发声变频器,变频器振动时产生的声音能够通过用户头部侧面的骨头传递到内耳,这样用户就可以听到声音了.语音控制虽然是智能眼镜中重要的交互方式,但语音控制却碰到了不少难题。
语音控制的缺陷
首先,对语音信号的提取有着不少的干扰因素,例如个体间的发声差异以及自身语调的变化、不同地区以及文化背景不同的人们说话方式的区别、环境的噪声对语音信号的干扰等,以上这些因素都会对语音信号的提取产生不利影响。其次,语音识别的效率和速度还有待提高,这两点直接影响着语音控制在智能眼镜中的应用价值,是应用价值的重要的衡量指标。另外,用户对语音控制的期望很高,但实际情况是语音控制还不能满足用户的需求,例如当用户使用谷歌眼镜发起语音控制命令时,用户必须严格地按照谷歌眼镜提供的标准方式发出,当用户要打电话时,必须说”okglass,makeacallto...”,而更习惯的方式”okglass,call.”则完全无效。
手势识别
以手势作为输入,完成以智能眼镜的交互功能,优势在于采用了非接触式方式。手势识别技术从简单粗略到复杂精细可以分为三个种类:二维的手型识别、二维的手势识别、三维的手势识别。三维手势识别跟二维手势识别的区别在于三维手势识别的输入信息还包含着深度信息,智能眼镜采用三维手势识别能实现更多更复杂的交互方式。
手势识别原理及传感器
三维手势识别要用到深度信息,能够识别各种手势、手型和动作。要获取深度信息就要用到特别的硬件,在配合上识别算法就能实现三维手势识别了。接下来,介绍几款手势识别专用的传感器:TMG399,该产品是非接触式光学IR手势识别传感器,配备有手势识别、环境光检测、接近感知和颜色感知的四合一传感器模块;MGC3130,微芯科技推出的3D手势识别芯片,在其电场的作用下,无需接触就能感应手势,能够在15cm的距离以内按150dpi的高精度确定坐标位置;MYO,初创公司ThalmicLabs的产品,它是一个戴在手臂上的臂环;16Lab,这是一款用于手势控制的智能戒指,内置有惯性传感器模块、处理器和低功耗蓝牙模块。
手势识别缺陷
但手势识别在应用于智能眼镜的过程中也暴露出一些缺陷。首先,手势识别的精度偏低,定位还不够精准,由于每一个人的手结构都不尽相同,很难通过捕捉手的动作实现精准的定位。其次,手势识别的关键是对手指特征的提取,在繁杂的背景下要能够准确分辨出目标的特征,但对于手势遭到遮挡的情况或者对冗余信息的去除等方面,目前来说仍是难以攻克的难题。
眼动跟踪
眼动跟踪即是对眼睛的注视点或者是眼镜相对于头部的运动状态进行测量的过程。谷歌眼镜能够通过眼动跟踪技术感知到用户的情绪,来判断用户对注视的广告的反应。
现目前,用于智能眼镜的眼动跟踪测量技术主要是基于图像和视频测量法,该方法囊括了多种测量可区分眼动特征的技术,这些特征有巩膜和虹膜的异色边沿、角膜反射的光强以及瞳孔的外观形状等。基于图像、结合瞳孔形状变化以及角膜反射的方法在测量用户视线的关注点中应用很广泛。
虽然眼睛是身体当中接收信息最广和最快的方式,但眼动跟踪却离人性化的交互方式有很大差距。由于眼睛本身存在固有的眨动以及抖动等特点,会产生很多的干扰信号,可能会造成数据的中断,这样会导致从眼动信息中提取到准确数据的难度大大升高。
3、应用产品
SmartEyeglass
北京时间2014年3月9日早间消息,索尼本周在旧金山的WearablesDevCon大会上展示了智能眼镜SmartEyeglass的原型产品。索尼希望吸引开发者的兴趣,促使开发者为这款智能眼镜开发应用。
与谷歌眼镜类似,SmartEyeglass能在用户的眼前实时显示信息。不过与谷歌眼镜不同的是,索尼的原型产品更像是普通眼镜,在透明镜片上以绿色的文字显示信息。
在索尼提供的一段视频中,用户走进一座机场,随后获得了前往办理登机手续柜台的方向指示。这款产品的其他用途还包括在观看球赛时获取最新比分和球员姓名,收发短信,以及获取未接来电的提示等。
索尼SmartEyeglass采用双眼型显示技术,使文字的显示呈现距离感,从而更易阅读。这款产品还集成了嵌入的摄像头、麦克风,以及与智能手机类似的传感器,包括加速计、陀螺仪和数字罗盘。
这款仍停留在原型阶段,尚未像谷歌眼镜一样成熟。其操作需要通过单独的线控来完成,线控上的触摸板提供了导航、电源和摄像头按钮。目前,SmartEyeglass可以与Android手机配合使用。针对这款智能眼镜的应用在手机中运行,而智能眼镜通过蓝牙或WiFi与手机互动。
索尼表示,正基于与SmartWatch2同样的框架为SmartEyeglass开发SDK(软件开发包)。目前尚不清楚索尼将于何时发布这款智能眼镜及其SDK。
Eyephone
Eyephone是一款增强现实(AR技术)的特制眼镜。在眼镜上嫁接视频成像技术,相当于将106寸以上的大尺寸视频影像投影在距离用户3-5米的空间中。即使在狭小的环境中,也能享受超大屏的视觉享受。除具备视频眼镜头戴式显示的功能外,蓝斯特科技为EyePhone在视频眼镜的基础上引入了增强现实技术。用户在使用Eyephone眼镜的同时又可以与社交圈时刻保持互动,浏览、分享和讨论与电视内容相关的话题。EyePhone智能眼镜迎合用户多元化的信息交换需求而设计的。
googleglass
谷歌或将在5月15日至17日召开I/O开发者大会正式将智能眼镜测试版交付给开发者。
4月10日,谷歌高管在接受媒体采访时透露,谷歌智能眼镜测试版将在“一个月内”正式交付给开发者,由此来看,测试版即将在近期问世。
北京时间6月28日凌晨消息,谷歌今天在2012年I/O开发者大会上发布GoogleGlass智能眼镜,售价1500美元。谷歌眼镜配备了一个投影显示器,一个能拍摄视频的摄像头,镜框上有触控板。它还带有麦克风和喇叭,各种传感器,陀螺仪,还有多种通信模式。
GoogleGlass是Googlex实验室研发的,Googlex实验室是Google的一个秘密实验室,它汇集了一群极客狂人,该实验室主要用来探索研究未来世界的科技,例如Google无人驾驶汽车、GoogleGlass、太空电梯等等。GoogleGlass几乎集成了一部智能手机所拥有的全部硬件,通过蓝牙与智能手机配对,可"通过Wi-Fi与网络连接,也可收听音乐、拍照和录像等等。GoogleGlass搭载的是操作系统是基于Android系统,并经过特殊定制了的。
就Glass本身而言,只支持两种基本操作方式Psi;语音指令和触摸板。通过语音指令,用户可不用动手,直接与Glass对话便可让Glass执行指令;当用户处受环境约束或者程序约束不方便使用或者无法使用语音的情况下,可通过触摸板热行凡个简单手势动作,也能够使Glass执行用户的意图。
语音指令
如果处于可W使用语音指令的条件下,在Glass显示界面底部就会给出一个小提示,告知用户使用什么语音指令从而进行下一步操作。如主界面出现okglass的文字提示,用户只要说出"okglass"便可进行下一步操作。主界面上便会罗列出接下来用户可W使用的指令,如果用户说出"getdirectionto",glass便会打开导航功能。
触摸板操作
GoogleGlass触摸板目前支持一下集中手势操作:向前、向后、向下、单指点击和双指按住拖动。一般而言,我们可以通过向前向后来实现显示界面的滑动(比如査看图片向前滑显示上一张图片,向后滑显示下一张图片),通过向下滑动当前程序退出,单指点击执行确认操作,在浏览网页时,可W还可通过双指按住拖动来更换视角区域。
GoogleGlass与手机配对
如上所述就Glass本身而言,只支持语音和触摸板两种基本操作方式,然后在很大程度上只有这两种操作方式是不能满足用户需求,或者说依据这两种方式在某些情况下操作效率较低,例如用户需要输入数字、文本等情况下,远不如键盘输入来的方便,那么谷歌提供一种解决方案。就是通过GoogleGlass与手机进行配对,实现屏幕和操作共享。只要下载MyGlass,并安装到手机上,打开软件,通过蓝牙或者Wifi便可与GoogleGlass完成配对。Glass与手机配对后,不仅可实现屏幕和操作的共享,还可W将手机的拨打电话、GPS定位等功能分享给Glass(由于Glass中没有Sim卡,W及GPS定位传感器),这样Glass就拥有一个智能手机的所有功能。
那么手机与Glass实现了屏幕与操作共享,便可通过手机显示屏查看眼镜上的显示内容,通过手机触摸屏完成对Glass的操作。比如Glass实现起来比较复杂的数字、文本输入的操作,用手机来替代实现,便极大地方便了用户操作。
MicrosoftHoloLens
HoloLens是增强现实眼镜,戴上它之后,就好像微软现场所演示的,会在现实的世界里混入虚拟物体或信息,从而进入到一个混合空间中去。它会将人的头部移动虚拟成指针,将手势用作动作开关,而将声音指令作为辅助,帮助切换不同的动作指令。
第二十七届北京国际眼镜展览会上,五品文化召开了五品智能眼镜1.0产品说明会。
五品智能眼镜1.0的首次亮相,外观时尚,镜架采用进口材料,戴上轻巧舒适,可配光学镜片,款式多样可选;镜架中植入智能芯片,配合手机客户端,可实现语音遥控拍照、接打电话、坐姿提醒和防盗等功能;采用“骨传导”技术,可实现立体无干扰通话、听音乐。
4、智能眼镜相关
智能眼镜将开创全新消费电子市场。智能眼镜在具备智能手机功能的同时,还具有满足消费者便携性和大屏幕视觉体验需求等杀手锏,作为未来智能手机的替代和有效补充。
谷歌眼镜使用的原理被称为增强现实技术,其特点是在显示装置上附加了环境信息。资料显示,日本、香港、荷兰等发展最快的现实增强市场,在最初的2到4年内,现实增强设备的普及率能超过5%,并接近10%。这与1998年移动媒体刚刚出现时的普及速度类似。根据市场反馈的早期普及速度,到2020年现实增强将成为一个新的大众媒体,吸引约10亿付费媒体用户。
相关个股
磁控溅射成膜技术、大角度消偏振薄膜设计与制造技术、膜厚检测与监控技术三大核心技术与国际先进水平同步发展,是我国装备水平最高、规模化生产能力最大的光学镀膜产品生产之一,以光学薄膜技术为核心的精密光学元件具有较强的国际市场竞争力。
上一篇:微软Lumia 430
下一篇:萨提亚·纳德拉