世卫组织呼吁应用“安全和道德”的人工智能来促进健康

联合国教科文组织号召各国立即执行其《人工智能伦理问题建议书》,以避免这项技术被滥用。
Unsplash/D koi
联合国教科文组织号召各国立即执行其《人工智能伦理问题建议书》,以避免这项技术被滥用。

世卫组织呼吁应用“安全和道德”的人工智能来促进健康

健康及卫生

世界卫生组织今天呼吁谨慎使用人工智能生成的大型语言模型工具(LLM),以保护和促进人类的福祉、安全和自主性,并维护公共健康。

此类大型语言模型工具包括广为人知的ChatGPT等许多其他模仿理解、处理和产生人类交流的平台,它们在公众中传播迅速,并越来越多地用于满足人们的健康需求,在健康方面的应用充满了潜力。

可能存在的风险

世卫组织指出,在利用大型语言模型工具来改善健康信息获取、作为决策支持工具,甚至增强在资源匮乏环境中的诊断能力以保护人们的健康和减少不平等时,必须仔细审查其可能存在的风险。

虽然世卫组织支持适当使用技术,包括人工智能大型语言模型工具,来支持医护人员、患者、研究人员和科学家,但对这种新技术持谨慎态度。

世卫组织倡导几大核心价值,包括需要广泛遵守透明度、包容性、公众参与、专家监督和严格评估等。

操之过急地采用未经测试的系统可能会导致医护人员的错误操作,对患者造成伤害,削弱对人工智能的信任,从而破坏或延迟此类技术在全球范围内的潜在长期效益与应用。

世卫组织的关切

为了以安全、有效和合乎道德的方式来使用的技术,并进行严格监督,世卫组织该模型的这些方面仍存有疑虑:

  • 用于训练人工智能的数据可能存在偏差,产生误导性或不准确的信息,可能对健康、公平和包容性构成风险;
  • 大型语言模型生成的回答对终端用户或许显得权威而可信,但这些回答可能是完全错误的,或者包含严重错误的信息,尤其是涉及健康的回答;
  • 大型语言模型可能在未经事先同意使用的数据上进行培训,并且可能不会保护用户提供的敏感数据(包括健康数据);
  • 大型语言模型可能被滥用,以文本、音频或视频内容的形式产生和传播看似极具说服力的虚假信息,公众会很难将其与可靠的健康内容区分开来;
  • 与致力于将该工具商业化的技术公司不同,世卫组织致力于利用新技术,包括人工智能和数字健康,以改善人类健康,同时建议决策者确保患者安全和保护。

世界卫生组织建议在广泛应用于日常医疗和药物治疗之前,应解决这些问题,并对其效益进行清晰的评估,无论是由个人、医护人员还是卫生系统管理者和决策者使用。

指南与原则

世卫组织重申,在设计、开发和部署医疗人工智能时,应遵守该组织《医疗卫生中人工智能的伦理与治理指南》列举的伦理原则和适当的治理措施。

指南中确定的六项核心原则是:(1)保护自治权;(2)促进人类福祉、人类安全和公共利益;(3)确保透明度、可解释性和可理解性;(4)促进责任和问责;(5)确保包容性和公平性;(6)促进具有响应能力和可持续性的人工智能。