1.语音控制
在人们的日常交流中,说话是最常用的方式,将语音交互引入可穿戴领域,那人们将能够享受到更加自然和轻松的交互体验。语音控制即是让计算设备能听懂人说的话,还能根据人的说话内容去执行相应的指令。对于体积小、佩戴在身体上的智能眼镜来说,语音控制是行之有效的交互方式。 [1]
语音控制原理
语音控制中最核心部分是对语音的识别技术。骨传导技术能完成对语音的高效识别和传输,多款智能眼镜均采用了此项技术。以Buhel 的 Sound Glass 为例,Sound Glass 中配备了间接骨传导传感器。他的每个镜腿内各有一个发声变频器,变频器振动时产生的声音能够通过用户头部侧面的骨头传递到内耳,这样用户就可以听到声音了.语音控制虽然是智能眼镜中重要的交互方式,但语音控制却碰到了不少难题。 [1]
语音控制的缺陷
首先,对语音信号的提取有着不少的干扰因素,例如个体间的发声差异以及自身语调的变化、不同地区以及文化背景不同的人们说话方式的区别、环境的噪声对语音信号的干扰等,以上这些因素都会对语音信号的提取产生不利影响。其次,语音识别的效率和速度还有待提高,这两点直接影响着语音控制在智能眼镜中的应用价值,是应用价值的重要的衡量指标。另外,用户对语音控制的期望很高,但实际情况是语音控制还不能满足用户的需求,例如当用户使用谷歌眼镜发起语音控制命令时,用户必须严格地按照谷歌眼镜提供的标准方式发出,当用户要打电话时,必须说”ok glass,make a call to...”,而更习惯的方式”ok glass,call.”则完全无效。 [1]
2.手势识别
以手势作为输入,完成以智能眼镜的交互功能,优势在于采用了非接触式方式。手势识别技术从简单粗略到复杂精细可以分为三个种类:二维的手型识别、二维的手势识别、三维的手势识别。三维手势识别跟二维手势识别的区别在于三维手势识别的输入信息还包含着深度信息,智能眼镜采用三维手势识别能实现更多更复杂的交互方式。
手势识别原理及传感器
三维手势识别要用到深度信息,能够识别各种手势、手型和动作。要获取深度信息就要用到特别的硬件,在配合上识别算法就能实现三维手势识别了。接下来,介绍几款手势识别专用的传感器:TMG399,该产品是非接触式光学 IR 手势识别传感器,配备有手势识别、环境光检测、接近感知和颜色感知的四合一传感器模块;MGC3130,微芯科技推出的 3D 手势识别芯片,在其电场的作用下,无需接触就能感应手势,能够在 15cm 的距离以内按 150dpi 的高精度确定坐标位置;MYO,初创公司 Thalmic Labs 的产品,它是一个戴在手臂上的臂环;16Lab,这是一款用于手势控制的智能戒指,内置有惯性传感器模块、处理器和低功耗蓝牙模块。 [1]
手势识别缺陷
但手势识别在应用于智能眼镜的过程中也暴露出一些缺陷。首先,手势识别的精度偏低,定位还不够精准,由于每一个人的手结构都不尽相同,很难通过捕捉手的动作实现精准的定位。其次,手势识别的关键是对手指特征的提取,在繁杂的背景下要能够准确分辨出目标的特征,但对于手势遭到遮挡的情况或者对冗余信息的去除等方面,仍是难以攻克的难题。 [1]
3.眼动跟踪
眼动跟踪即是对眼睛的注视点或者是眼镜相对于头部的运动状态进行测量的过程。谷歌眼镜能够通过眼动跟踪技术感知到用户的情绪,来判断用户对注视的广告的反应。
眼动跟踪原理
用于智能眼镜的眼动跟踪测量技术主要是基于图像和视频测量法,该方法囊括了多种测量可区分眼动特征的技术,这些特征有巩膜和虹膜的异色边沿、角膜反射的光强以及瞳孔的外观形状等。基于图像、结合瞳孔形状变化以及角膜反射的方法在测量用户视线的关注点中应用很广泛。 [1]
眼动跟踪缺陷
虽然眼睛是身体当中接收信息最广和最快的方式,但眼动跟踪却离人性化的交互方式有很大差距。由于眼睛本身存在固有的眨动以及抖动等特点,会产生很多的干扰信号,可能会造成数据的中断,这样会导致从眼动信息中提取到准确数据的难度大大升高。 [1]