今天,很高兴为大家分享来自中国科学报的医疗AI可能对贫穷国家构成危险,如果您对医疗AI可能对贫穷国家构成危险感兴趣,请往下看。
本报讯 世界卫生组织(WHO)警告称,引入基于人工智能(AI)的医疗保健技术可能对低收入国家人群是“危险的”。
据《自然》报道,WHO近日发布了一份大型多模态模型(LMMs)新指南,指出AI技术的使用和开发不能只由科技公司和富裕国家决定,这一点至关重要。该机构表示,如果没有根据资源不足地区人们的数据对模型进行训练,那么这些算法很可能无法提供良好服务。
“作为技术飞跃的一部分,我们最不希望看到的是世界各国社会结构中的不平等和偏见被传播或放大。”WHO数字健康与创新总监Alain Labrique表示。
事实上,WHO首份关于AI医疗保健的指南发布于2021年。但在生成式AI浪潮的推动下,LMMs的威力和可用性迅速提高,这促使WHO在首份指南发布不到3年后就进行更新。
WHO表示,LMMs是历史上被采用速度最快的消费应用程序,其中医疗保健是一个很受欢迎的应用领域。AI模型可以生成临床笔记、填写表格并帮助医生诊断和治疗患者,因此一些公司和医疗保健供应商正在开发特定的AI工具。
但LMMs在为人们带来便利的同时,也存在不少隐患。WHO更新指南的目的就是确保LMMs的爆发式增长能够促进和保护而非破坏公众健康。
WHO警告,在最坏的情况下,全球可能出现“恶性竞争”,即公司为了抢先发布,而忽视应用程序的无效性和不安全性。这甚至增加了模式坍塌的可能性,从而陷入虚假信息循环,基于不准确或虚假信息训练出来的LMMs会污染互联网等公共信息来源。
“生成式AI有潜力改善医疗保健行业,但前提是开发、监管和使用这些技术的人能够识别并充分考虑相关风险。”WHO首席科学家Jeremy Farrar表示。
在Labrique看来,操作这些强大工具绝不能只靠科技公司完成,各国政府必须合作,从而有效监管AI技术的开发和使用。民间社会团体和接受医疗保健的人必须为LMMs开发和部署的各个阶段作出贡献,这包括监督和监管。
WHO强调,鉴于这些模型的训练、部署和维护成本高昂,LMMs开发有可能被行业主导。目前已经有确凿的证据表明,在AI研究方面,大型公司正在排挤高校和政府,而高校的博士生和教职员工则以前所未有的规模离开学术界投身其中。
指南建议,从事医疗保健或科学研究的LMMs开发人员应接受与医生相同水平的道德培训。此外,各国政府可以要求开发者注册早期算法,以鼓励公布负面结果,防止出现偏见和炒作。(徐锐)
好了,关于医疗AI可能对贫穷国家构成危险就讲到这。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。