穿戴装置新操作-手舞足蹈!

  • A
  • A+
  • A++
2014-10-28

穿戴装置新操作-手舞足蹈!

(图/取自网路)

 

穿戴设备如Google眼镜,已经成为人们十分关注的未来人机交互体验工具,相比手机,它拥有更加直观的资料呈现方式,也能够提供更主动式的服务,因为它就戴在你的脸上。

 

当然,目前Google眼镜发展似乎遇到了一些瓶颈,主要是由于外形设计不佳、隐私窥探、正式版遥遥无期等问题,让人们对Google眼镜的热情有所下降。另外,语音对话模式也带来了一定的局限性。试想一下,在一个嘈杂的酒吧说“OK,Glass”,不仅眼镜无法识别,也会让周围人反感。

 

那么,有没有一种可能性让Google眼镜可以实现类似“Kinect”体感摄像头的操作呢?一家位于美国波特兰的软体厂商给出了答案:ARI应用。近日,该公司发佈了首个测试版本,让我们看到了一种新的人机交互模式。

 

当移动电脑应用从手机转移到你的眼睛,一个新的操作形式势在必行,“ARI”就提供了这样的一种体验。你可以把它看作是手势识别版的siri,但不需要任何按钮,直接就能够使用。

 

ARI的创始人表示,开发这个软体平臺的初衷在于他们发现Google眼镜的操作形式不够灵活,语音技术会遭到环境的限制,最终让智慧眼镜产品成为一种花瓶式产品。ARI的出现,则意味着智慧眼镜可以应用在更多场景中,比如戴着厚厚手套无法触摸眼镜按键的滑雪运动员。

 

ARI在游戏环境下也具有更大的发展前景,毕竟没有一个用户想通过大叫「飞起来,小鸟」来操作Flappy Bird;但是微软Kinect已经证明,玩家逐渐接受了「手舞足蹈」式的体感操作。

 

总得来说,智慧眼镜产品距离成熟还有很长一段时间,不仅仅是因为它涉及到敏感的隐私问题,还在于其使用体验不完美、应用鸡肋,不如直接使用手机来得方便。不过,ARI的出现证明智慧眼镜拥有极大的潜力,相信在不断地完善、优化之后,对智慧眼镜的操作体验会产生积极的影响。

 

 

【一零一传媒/整理报导】

 

 

免责声明:

部分图片、观点,来源于网际网路及其他网路平台,主要目的在于分享讯息,让更多人获得需要的资讯,其版权归原作者所有。如涉及侵权请告知,我们会在24小时内删除相关内容。

 

 

  • 本文评论:
延伸阅读