chatgpt算法的局限性 丛亚丽:ChatGPT在医疗健康领域应用的伦理挑战及治理建议

默认分类1年前 (2023)发布 admin
1,533 0
ChatGPT国内版

编者按人工智能医疗由智慧医院系统、区域卫生系统、家庭健康系统组成,通过打造健康档案区域医疗信息平台,利用最先进的物联网技术,实现患者与医务人员、医疗机构、医疗设备之间的互动,促进医疗行业发展。根据互联网数据中心(IDC)数据,预计到2025年全球人工智能应用市场总值将达1270亿美元,其中全球人工智能医疗处于高速成长期,占人工智能市场五分之一。我国人工智能产业发展快速,人工智能医疗顶层设计、商业模式、技术模式日趋成熟,投融资市场活跃。人工智能医疗的迅速发展和普及,提高了医疗质量,降低了医疗成本,能够帮助医疗行业解决资源短缺、分配不均等众多民生问题,但同时人工智能医疗的伦理、法律问题,以及数据共享、应用场景、技术迭代、医患认同等,也受到学界的关注。本刊特邀请中华医学会相关分会的专家学者共同探讨人工智能医疗发展的机遇与挑战,以飨读者。

丛亚丽

是一种由训练的、基于GPT-3.5和GPT-4架构的大型语言模型,是可用于疾病监测、药物信息提供、虚拟医疗助理等医疗健康的聊天机器人的示例。作为一种语言模型,旨在为基于文本的输入生成类似人类的响应,这使得它非常适合回答问题和提供与健康相关的建议。虽然可以使医疗保健工作者从一些繁琐的事务和繁重的劳动中解放出来,但对其专业技能的取代也会导致前所未有的技术性失业危机。此外,与其他新兴科技产物一样,在医疗健康领域的应用无可避免也充满“阳光下的暗礁”。

“阳光下的暗礁”

1.对人文主义的挑战:迄今为止的人文主义所关注的重点在于确认和提高人在这个世界的地位和价值,促进人的潜力的发挥,但的算法和算力不断迭代,远远超出人类的信息处理能力,也挑战了以人为中心的人文主义,人类需要充分认识这种变化的可能性和现实性,以此来考虑人在这个世界上是否还是至上的地位。

2.对人的自主性的挑战:自主原则要求人类能够完全控制其在医疗健康中的决策,更确切地说,应该帮助人类作出明智的决定,必须确保患者能够获得公正的信息并尊重他们的自主权。尊重自主权还意味着对个人隐私的保护,并通过采用适当的数据保护法律框架确保参与者知情、有效的同意。如果个人不同意,则不应限制或拒绝基本的服务。

chatgpt算法的局限性 丛亚丽:ChatGPT在医疗健康领域应用的伦理挑战及治理建议

3.对透明度进一步提出要求:与医疗健康中的所有人工智能应用程序一样,透明度对于在患者、医疗保健提供者和人工智能开发人员之间建立信任至关重要。必须公开透明地说明其运作方式、收集的数据以及决策方式。但基于多层复杂神经网络搭建的深度学习模型,目前还不能解释其算法逻辑,经常出现事实性错误,产出的结果也不具有安全保障,如果被恶意利用,将造成严重的安全隐患。

4.问责制仍然不能回避:必须有人对的决策和行动负责,这有助于医疗保健提供者能够负责任地使用人工智能技术。尽管对话能力和交互能力大幅提升,但经常出现事实性错误,无法提供专业性强的答案,对于医学的知识并不深入和专业,人类利益相关者有责任确保能够执行其任务并且在适当的条件下使用。当做出的医疗决定对个人造成伤害时,应明确责任分配原则,然而当前大多数国家/地区的法律中对此并没有明确界定,对传统的产品责任理论是否可应用于也没有明确规定。尽管欧洲和美国法院将医疗软件视为医疗设备,然而,开发商可能通过将解释为服务而非产品来逃避责任,患者可能难以从中获得赔偿。

5.对公平的追求一直在路上:的开发和实施方式必须确保所有社会成员都能平等获得和受益,无论其社会经济地位或其他人口因素如何。这包括确保可供残障人士使用,应避免或识别并减轻在使用过程中出现的偏见。应制定特殊条款保护弱势群体的权利和福利,并在出现或指控出现此类偏见和歧视时建立补救机制。该系统也需要设置自己的优先事项——在推荐治疗方法时,成本效益、不惜代价的疗效、便利性、副作用最小还是医疗公正?

伦理治理建议

为解决上述问题,需要适当的道德和治理框架,以确保以负责任和合乎道德的方式开发和使用人工智能。WHO发布了《健康领域人工智能伦理与治理指南》,该指南还就如何确保人工智能的负责任治理提供了建议,包括符合伦理要求和透明的人工智能技术设计,公众参与和发挥作用的机制以及向提供者展示诚信的机制,对人工智能应用的影响评估等,这些建议可应用于在医疗健康领域的使用:

1.利益相关者的参与:利益相关者包括患者、医疗保健提供者和人工智能开发人员,他们的共同参与可以确保以响应各方需求的方式开发和实施。通过让利益相关者参与的开发和实施,可以确保以患者为中心的方式使用。

2.伦理审查委员会:伦理审查委员会可以努力促进以合乎道德和负责任的方式使用,就可能出现的棘手伦理问题提供指导,并确保符合透明度、问责制和公平原则。

chatgpt算法的局限性 丛亚丽:ChatGPT在医疗健康领域应用的伦理挑战及治理建议

3.数据保护:数据保护措施对于确保正确使用患者数据至关重要。这包括确保安全地收集和存储患者数据,并且患者可以控制他们的数据。目前,数据保护政策在人工智能算法面前备受挑战,但医疗保健提供者可以通过实施数据保护措施尽可能保障以合乎道德和负责任的方式收集和使用患者数据。

4.评估和验证:评估和验证有助于确保准确、可靠且安全地用于医疗健康。通过在临床环境中实施算法之前对其进行评估和验证,医疗保健提供者可以确保为患者提供准确可靠的建议和信息。

-结 语-

的发展引起了很多伦理挑战,如果遵守高水平的道德规范,可能难以保证其快速发展,但如果保证其首先进入市场,则道德原则可能会被淡化、修改变得无效,因此,如何将伦理规范写入到人工智能的源代码中,如何确定哪些是可接受的、哪些是不可接受的,当前的法律和管理系统仍然存在很多模糊,需要在实践中不断探寻和摸索。

本身还在更新和迭代中,其中的技术发展和社会伦理问题的交织将使问题变得更加复杂,目前已有“暂停训练比GPT-4更强大的人工智能系统至少6个月”的建议出台。何去何从,需要多方人士群策群力,才能确保在医疗领域负责任地使用。

(作者:对外经济贸易大学李晓洁北京大学医学人文学院 刘瑞爽 丛亚丽)

(本文作者丛亚丽为中华医学会医学伦理学分会主任委员)

编辑 |左舒颖

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...