手势识别指的是计算机设备侦测并识别人类手势。近几年来,随着手势识别技术的高速发展,以及3D传感器的广泛采用,手势交互已经得到广泛的普及。
在越来越多的设备中,我们看到了手势主导的界面,改变了我们和计算机交互习惯。通过结合3D传感器和精美的界面,用来分析数据,计算机变得更智能,能更好的理解人类操作。不可不说是沟通的一大进步。
那么对于用户体验设计来说,手势交互又意味着什么呢?
改变使用习惯:手势交互和手势识别
用户通常都会有惯性思考,我们设计师也同样如此。
在进行手势交互设计时,经常会落入一下误区:
表面上实施手势交互,但实际上是触摸版的“鼠标+键盘”操作模式,鼠标被手指取代了而已。还有些设计师天真的认为,一套手势交互系统,就能通吃全部项目。
输入模式要和界面相匹配.
如果界面使用体验和输入模式不匹配,那么用户操作时会感觉很不流畅,体验自然会很差。
新的输入模式需要新的设计规则运动跟踪+手势识别,构成了全新的交互模式。
通过对NUI大量研究,我们发现了5条关键设计心得,能够让你高效的构建NUI界面。当然,这份列表还有待补充。
1. 放弃网格式布局: 菜单和视觉元素的构建,要考虑到用户操作时的人机工程学
窗口,图标,按钮,指针,是界面的常见构建块。打开电脑,每个软件中都可以看到上述元素,而且都是依据网格线布局模式进行水平和垂直布局。
但倘若如果你加入了手势,你会发现,网格线布局模式非常不好用。因为人类的运动是非常自然的,很少会沿着水平线和垂直线进行直线手势操作。(除非机器人)。而且,还可能出现的问题是遮挡问题,当用户进行手势操作时,很容易手就挡住了屏幕。
NUI交互前例很少,设计师不能从GUI中借鉴,只能不断观察用户的手臂和手势操作。才能构建符合人机工程学的界面。
例如:我们曾经构建了一个“弧度界面系统”,当用户将肘部放在桌子上时,依然能够操作菜单,这样用户就不用抬起手臂操作了,更自然,也更舒服。
当光标悬停在选项时,手势抓取可以用来选择。.
2. 光标能够暗示用户当前位置
手势交互界面主要依赖手和手指来控制屏幕上的物体。同样的,我们需要手势光标来暗示用户当前所处位置。但有时候大可不必使用光标,在我们打造的一款应用中,我们将光标换成了手掌半透明“镜像”。这样用户就知道手对应在界面中的位置了。
半透明光标.
3. 将手放在传感器可以捕捉到的地方——必须要了解“有效交互区域”的概念“
有效交互区域指的是传感器能够清晰捕捉用户手势交互动作的区域,设计的关键点在于,要将有效交互区域设置在用户容易操作的区域。否则,用户有效操作就需要不断抬起、挪动手臂,非常累。
第二点是要保证用户要在有效交互区域中。不能超出范围。
有效交互区域
4. 三维感
3D照相机为我们提供了很多新机遇,让用户可以更深入的与内容交互。而且,与触摸屏交互和鼠标交互是二维的,没有所谓的Z轴。但是体感类交互,却能提供X-Y-Z三轴。在界面设计上,我们也需要添加相应的反馈。比如说用户想买一双鞋,那么他通过手势交互,就可以在屏幕中抓取这双鞋,然后旋转观赏这双鞋的细节。
对于设计师意味着什么呢?第一,我们的界面需要更强的三维感。第二,三维感可以为人机交互带来更多的趣味性。
5. 合理预判用户行为
通过3D摄像机,我们可以实现手势识别,同样的,还可以预测用户意图。例如,我们在生活中想要详细看某个物体时,我们会用手把它抓过来——所以,当用户的手靠近屏幕时,所接触的菜单/物体/选项应该有一个轻微的扩大,这样用户就能更好的选择。
手势识别为我们提供了大量的机遇,挑战也是不言而喻的。手势设计时,要根据用户的日常体验,模仿日常交互行为,这样才能符合用户预期。或许未来不再有键盘和鼠标,用户的手也不用接触屏幕。在远距离就能操作界面。高效、愉悦的使用体验,正等你来打造。而手势输入模式,便是打开用户体验的大门。