我们看到之前用你的手在空中控制机器,就像你不在乎一样。没有触摸,没有鼠标。就是爵士手。
所以一开始,当我看到我们今天要讲的东西的演示时,我想,“好吧,这看起来有点像我几年前看到的公司演示的东西视力而且PointGrab然而,它也有我在Movea和Hillcrest看到的那种味道,只不过它们的技术涉及遥控器,在这种情况下,只有手才能做的事情。
但我看到的并不是这两种技术在起作用。更让人困惑的是,这并不是一种特定的传感技术——光学、触觉等等。但它是关于运动和位置的。虽然宣布的技术可能是全新的,但你可能需要使用它来感受区别。我当时正盯着屏幕,所以坦白地说,我不得不问很多问题,来弄清楚为什么这不是在其他所有手势识别发布几年后的又一个手势识别发布。
我说的是Quantum Interface的新界面“Qi*”。这是一种获取位置信息并使用变化来模拟运动的方法,特别是预测运动的方向,然后将其转化为用户界面可以使用的信息。他们说,这样做的结果是,在任何类型的用户界面中导航都更流畅、更快。由于预测,你不需要“完成”太多的动作;在一个方向上的一点移动会比你不得不在你前面追踪你的手更快地到达你想去的地方。
这种只将位置作为输入的概念不涉及任何手势。这并不是要专门识别一个手势——无论是静态的手型还是用户必须学习的动作模式。它只是简单地说,移动你的手或把手指放在一个表面上,让一个构造良好的界面使下一个动作变得明显。在引擎盖下,动作被转化为命令:这是气所做的具体部分。
它通常是关于导航菜单;你移动到一个弹出的菜单,然后你停留在(或朝向)一个项目上,将手指推向屏幕,它将带你进入下一个级别的菜单,以此类推。所有这些都比旧的方法更快更顺利。
但这里还有一个微妙的部分:这是一个中间层的技术。它存在于硬件之上——它将从任何可以提供位置信息的系统中获取位置信息,无论是触摸还是光学(手势或眼球跟踪或…)或其他。它通过多个位置传感器提供输入来改进。
它也没有内置到任何特定的用户界面(UI):界面设计师可以利用Qi提供的信息来驱动界面。Quantum Interface在使用Qi构建ui方面有相当丰富的经验,所以他们确实在这个领域与合作伙伴合作,但这只是关于使用Qi;不是气本身。
这种中间性也使得它与系统无关:你可以为不同的应用平台(比如手机、手表和平板电脑)创建一致的界面,只针对该平台上可用的细节和资源进行调整。有点像剥皮。
我不确定我是否说了更多关于“气”不是什么,而不是“气”是什么,但两者都很重要,因为新事物的细微差别,嗯,细微差别。你可以在他们的公告.
*遗憾的是,即使考虑到中国庞大的电子领域,他们也会把“chee”读成“chee”,考虑到无线电源技术“Qi”的发音是“chee”:根据新闻稿,它的发音像它的首字母“Qi”(“cue eye”),尽管他们选择把I小写……
图片由量子接口提供