在医疗保健领域对AI助手的使用,正在促成能够提高患者在家中医疗参与度的可替代护理模式。然而,AI助手目前仍需解决语音识别、用户识别、隐私和数据安全等基本问题。
设计虚拟护理体验,需要对从软件开发到提供护理的各个阶段涉及的所有相关方不当行为造成的影响,具备精确和全面的了解。随着时间的推移,AI助手将发展成为家庭医疗保健的重要组成部分,但直至那时,绝大多数AI助手将仅限于对病人不构成威胁的低风险任务。
AI助手(如Alexa和Google Assistant)的设计、实施和语音体验管理,对于那些有意使用语音作为智能解决方案接口的公司来说,是一个关键所在。亚马逊和谷歌已经在帮助几家公司为其具备麦克风和扬声器的连接解决方案添加语音控制功能:亚马逊在提供Alexa Voice服务和Alexa Skills套件,谷歌也有一个类似的程序,名为谷歌Actions。
为了开发定制化的语音体验,越来越多开发者社区的顾问开始负责帮助企业设计更加复杂的品牌“技能”,并遵循具体的执行协议(如医疗行业中的那些)。通过允许在更复杂的环境中使用基于语音的家庭助理这样的工具,这些技能会由这些顾问或者企业自己直接设计。
对于医疗行业来说,越来额越多的服务提供商正在家庭医疗保健和辅助生活中引入创新方法,这由降低医疗保健成本的需要所推动。同时还有病人在家中会比在医院康复得更快些这样的证据所支撑。因此,家庭AI助手将提供令人振奋的新机会,可在家中提供一系列先进的医疗保健解决方案。例如,患有年龄相关疾病或者慢性健康疾病的独居患者,可以使用AI助手来控制药物摄入、安排医疗预约。AI助手还能够教育患者,并记录患者的健康指标,以便进行分析和采取行动。
Ovum消费者服务高级分析师Mariana Zamoszczyk表示,现在的AI助手可以使医疗提供者和其他健康相关实体能够扩大医疗治疗的覆盖范围,但仅是以一种互补的方式存在。AI的发展仍处于实验阶段,这意味着AI助手尚未做好提供全面医疗诊断的准备,而只能够在一些相对风险较低、不会危及生命的医疗事宜中提供帮助,例如预约医生,或者为患有心理健康疾病的患者播放音乐来放松情绪。目前大多数商用AI助手甚至无法识别不同的用户,更不要说确保患者服用正确的药丸了。
使患者处于不正确医疗当中的风险,需要考虑到许多方面的影响。如果整个语音体验的设计和配置是不正确的,那么AI助手可能会误导患者并使其处于危险之中。虚拟体验设计中的任何漏洞都涉及人命关天的大事。因此,软件质量保证和安全标准实施,将会是开发过程中的强制性步骤。在一些行业中,存有缺陷的软件在多数时候可能是无关紧要的,但是当涉及到医疗安全,那么这当中容不得半点马虎。
从法律角度来看,在医疗保健中使用AI提出了几个问题。医生和其他持牌专业医学人士通常会对治疗不当行为负责,但如果出现问题的话,那么是否要对智能技术进行问责呢?牵涉到的各方是否都有相同的责任呢?应该制定那些规则来降低风险呢?现有法律是否适用于AI家庭助理呢?其他AI应用领域也出现了类似的问题,例如,在一场涉及无人驾驶车辆的交通事故中,谁来担负责任呢?AI的好处是显而易见的,但是一些风险仍不确定。使用AI助手的法律影响,仍然是一个需要进一步进行研究并且需要相关各方达成共识的灰色地带。