你是否曾有想过,当我们在追求电子产品日新月异的时候,世界上还有 2.85 亿人视障人士,他们是在怎么使用着智能手机?
我身边就有这样一位朋友,他有着视觉障碍,但却在日常生活中熟练使用着 iPhone,通过与我微信交流,发朋友圈,在我见到他之前,几乎无法相信他是一个看不见现实世界的人。
「只要把我当做与你们一样的正常人就好,」我还记得他说过这样一句话。这一切都多亏了 iOS 系统中的 Accessibility(辅助功能),对于正常人来说它可能就是一个小圆点,而对于残障人士来说,这是一套从视觉、听觉与物理动作设计的智能手机使用的完整解决方案。
那位朋友告诉我,通过 VoiceOver 与 Speak Screen,他可以像我一样正常使用手机,它会通过语音告诉你地图里定位的具体位置,甚至照片的时间地点拍摄环境。
Accessibility 帮助视障人士认识数字世界,而谁来帮他们看清现实世界,最近有一个词频繁出现在视野中,那就是 Aipoly。
Aipoly 来自 Alberto Rizzoli、Marita Cheng 与一帮 Singularity University(奇点大学)技术团队的合作项目,前者都在致力利用 AI 来解决社会问题的领域有着多年积累。
「我们将所了解到的神经网络系统集成在这个 app 中,用户对着需要识别的图像,按下一个按钮,便会收到语音信息,这是最简单的操作。」Alberto Rizzoli 讲道。
Aipoly 工作原理便是分析图片的各个部分,并通过反向图片搜索,确定物体的名称(如「狗」、「汽车」)以及形容词(如「银色」、「闪闪发亮的」)。最重要的地方在于,AI 会理解分解图像后的信息,将其组合并转化成音频转达给用户(如「闪闪发亮的银色汽车」)。
这仍是一个处于实验阶段的技术,尽管它已经可以识别数百个物体与颜色,不断自主学习,变得更聪明,并且已经上架了 App Store 提供公开下载。
Alberto Rizzoli 表示 Aipoly 一旦完善,视障人士可以使用它识别一盘食物里分别有什么,或者解读一张照片里人物的穿衣打扮。
Aipoly的野心很大,他们设想利用它来创造为视障人士设计的「Google 街景」,「我们可以建造一个现实世界的虚拟模型,这样用户就不必持续扫描他们周围的环境。」这听起来像是一个宏伟的计划。
不得不承认,我们确实在很长一段时间忽略了视障人士的电子消费需求,在过去的 10 年,我们在图像识别上的技术已经获得了不少突破,未来的几年则会变得更加精确。
而 Alberto Rizzoli 认为这 2.85 亿人将会为接下来几年的智能手机,甚至 VR 市场注入更多的活力。Google 在这一领域一直走在前沿,同时 Aipoly 也正在申请获得来自 Google 的经费支持。
本文作者:佚名
来源:51CTO