Google Glass出了这么久,我亲自体验过的非官方应用也就两个,一个是之前写过的快捷酒店管家,另一个就是今天要说的出门问问。试用之后的体验就是,Glass这类设备在不远的未来肯定大有可为。
先简单介绍下出门问问。这是一款基于自然语义分析的生活服务搜索,你可以直接通过语音输入的方式,用它来查询诸如“附近哪里有好吃的川菜?”,它就能理解你的意思,返回给你关的查询结果。其中技术的最难点在于语义分析这一环,即怎么让机器理解人们的自然语言。出门问问的创始团队成员大多是Google系,创始人李志飞是Google的机器翻译团队科学家。
听起来是一款挺有趣的产品,不过,在这之前我是一次都没有用过的,因为我对手机上的语音交互向来没好感,不如键盘输入准,体验上的便捷也不明显。换到Google Glass上之后,情况变了。因为Google Glass上现在是没法输入文字的,只能靠触摸板上简单的点按操作和语音来交互。
比如你戴着Google Glass在开车,想去苏州街,不知道路咋走,只要说一声“OK 出门问问”,就能打开出门问问的Glass应用,然后随便说一句,苏州街怎么走啊?或者我想去苏州街,应用就能很快的给出导航图,告诉你该怎么走在哪儿拐弯,调整头部上扬的角度,还能提前查看前面几个拐点的位置。所有这些交互,都只需要一只手操作,再动几句嘴皮子就能完成导航,不用低头在手机上打字忙活,安全又高效。
除了导航,Glass上的出门问问能做的还有很多,问吃饭的地儿,问天气,问最早一班机票的价格,甚至还能问附近有无帅哥美女,手机上有的Glass上基本也都有。不过个人认为这些还是属于锦上添花,真正有用也好用的可能还是在开车导航这类场景中。因为在这种场景下,才能发挥Glass和出门问问这两款产品的威力,手和眼都被相对固定了,自然的在眼镜上用语音交互的优势也就提现出来了。
语音交互的优势其实还不单是在特定场合。从长远来看,人类同机器的交互会向更自然的方式进化,比如直接同机器用语音交流,就跟同人说话一样。要达到这样的状态还有很多要做的,语音和语义识别上还有很多需要改善的地方,深度学习和人工智能方面也需要更多突破性的进展。到这些技术都足够成熟时,现在的触摸屏交互可能就跟过去的打孔纸条操作一样落伍了。