【资料图】
财联社5月16日讯(编辑 牛占林)世界卫生组织(WHO)周二警告称,在医疗保健领域使用人工智能(AI)时要特别谨慎,因为用于决策的数据可能存在偏差或被滥用的风险。
毫无疑问,人工智能应用正在迅速普及,并展示出了一种可能颠覆企业和社会运作方式的趋势,当然,也有潜力彻底改变医疗保健领域。
人工智能可以,并且在一些富裕国家已经被用于提高疾病诊断和筛查的速度和准确性;协助临床护理;加强卫生研究和药物开发,支持多样化的公共卫生干预措施,如疾病监测、疫情应对和卫生系统管理。
世卫组织指出,对于人工智能的潜力以及应用前景,所有人都充满了期待,但在实际应用过程中,对于如何将人工智能用于提升医疗信息的获取、作为决策支持工具和改善诊断方面,目前仍然表示担忧。
和其他行业一样,用于训练人工智能的医疗数据可能存在偏差,并产生误导性或不准确的诊断信息,甚至这些模型可能被滥用来产生虚假信息。
世卫组织表示,评估使用ChatGPT等人工智能的大语言模型(LLM)的风险是“必要的”,以保护和促进人类福祉,保护公众健康。
该组织指出,草率采用未经测试的人工智能系统可能会导致医护人员出错,对患者造成伤害,削弱对人工智能的信任,从而破坏或延迟此类技术在全球的潜在长期利益和使用。
在致力于利用人工智能和数字健康等新技术改善人类健康的同时,世卫组织建议政策制定者优先确保患者的安全和保护。
世卫组织强调,要确保人工智能符合所有国家公共利益的六项原则:一、保护人类自主性;二,促进人类福祉、安全以及公共利益;三、确保透明度、可解释性和可理解性;四、促进责任和问责;五、确保包容性和公平性;六、促进负责任和可持续的人工智能。
与此同时,多国医生和公共卫生专家呼吁,应停止开发通用人工智能,直到对其进行监管为止。他们认为与医学和医疗保健相关的风险包括人工智能错误可能导致患者受伤、数据隐私和安全问题,以及将人工智能用于加剧社会和健康不平等的方式。