首页 > 正文

【深度】守紧大模型时代医疗数据安全与伦理“闸口”

2025年04月23日 08:40
来源: 界面新闻
编辑:东方财富网

手机上阅读文章

  • 提示:
  • 微信扫一扫
  • 分享到您的
  • 朋友圈

  界面新闻记者 | 张倩楠

  今年以来,中国多家医院正加速推进DeepSeek大模型本地化部署,掀起AI驱动诊疗变革新风暴。

  据不完全统计,截至目前,国内已有超百家三级医院官宣完成DeepSeek本地化部署,涉及北京、上海、广东、江苏、浙江等20余个省份,包括北京大学第一医院、清华长庚医院、上海第六人民医院、郑州大学第一附属医院、深圳大学附属华南医院、北京中医药大学深圳医院、湖南省人民医院等。

  作为一项基于深度学习和大数据分析的智能技术,DeepSeek可用于临床、科研、医院运营管理等数十种医疗场景。

  其中冲击感最强的莫过于在临床上的使用。首都医科大学三博脑科医院神经外科主任张宏伟就公开分享了他的“震惊”。他在门诊遇到一位超复杂脑瘤患者,患者已经过两次开颅手术、一次经鼻手术、一次放疗、一次伽马刀治疗,肿瘤仍未被控制。张宏伟把患者情况发给DeepSeek,仅18秒后,它就给出了一份明确的方案,张宏伟能想到的、文献上报道的都有,而且包括最新的临床实验。“对于脑肿瘤这类比较复杂的问题,DeepSeek的水平至少相当于省级三甲医院专家。” 张宏伟说。

  辅助医疗决策也是医院部署DeepSeek的主要目标之一。以陆军军医大学新桥医院推出的“新桥 DeepSeek”智能体为例,面对复杂的医学问题,在大模型的加持下,智能体可迅速、精准地提供专业解答;在病例辅助分析方面,可为医生的诊疗决策提供可靠的参考依据。此外,在DeepSeek与医院OA系统深度融合之后,湖南省人民医院也提出,未来,AI将深度参与临床决策支持、病历质控、影像分析等场景。

  “我们必须承认,在医疗场景下,人工智能发挥的作用以及其自身潜力越来越大,于此同时,人工智能介入医疗背后的高风险也必须纳入考量。” 对外经济贸易大学法学院教授、数字经济与法律创新研究中心主任张欣告诉界面新闻。

  能否对数据“守口如瓶”?

  事实上,这并不是AI医生首次登场。早在2019年1月,国家卫生健康委统计信息中心面向全国开展人工智能技术应用落地案例征集活动。3个月内,通过网上填报共收集案例245例,经筛选进入评选环节的案例190例,涉及137所医疗卫生机构和科研院所。

  2024年国家卫生健康委、国家中医药局、国家疾控局公布《卫生健康行业人工智能应用场景参考指引》,包括临床专病智能辅助决策、手术智能辅助规划等84个应用场景。2024年12月13日,工信部和国家卫健委联合公示了51个高端医疗装备推广应用项目,其中就包括人工智能辅助诊疗。

  卫生健康行业人工智能应用场景参考指引全景图。图片来源:卫健委

  在基层应用方面,医学人工智能辅助诊断技术也在持续布局。据国家卫生健康委基层司司长傅卫介绍,截至2023年底,27个试点县的基层机构通过辅助诊疗系统已经提供诊断建议2600余万次。

  与此前开发应用的医疗大模型相比,DeepSeek显得更为平易近人,普通民众也可以通过询问DeepSeek得到的答案。而这样的“开源”,让长期进行医疗行业观察的病毒学家常荣山产生担忧,DeepSeek接入医院系统,能否保证患者信息不被泄露?

  “由于医疗数据通常包含极其敏感的信息,比如患者的基因数据和病史记录,这些信息一旦泄露,可能会对个人隐私造成严重威胁。如果系统的架构设计存在缺陷,或者数据在传输过程中没有得到适当的加密保护,那么这些宝贵的数据就可能成为网络攻击者的攻击目标,从而被非法获取和滥用。” 中国政法大学教授、京都律师事务所兼职律师郑飞告诉界面新闻。

  “开源代码的不可控性是一个不容忽视的问题。” 郑飞介绍,由于开源项目允许来自全球各地的开发者参与代码的编写和修改,这虽然促进了技术的快速发展和创新,但同时也带来了潜在的安全风险。社区中的代码修改可能无意中引入了后门程序或者安全漏洞,这些漏洞可能会被恶意行为者利用,从而增加了数据泄露和系统被攻击的风险。因此,在将开源AI系统应用于医疗领域时,必须对这些风险进行仔细评估,并采取相应的安全措施来确保系统的安全性和数据的保密性。

  使用DeepSeek主要有三种方式:直接访问应用、调用云服务接口、本地化部署定制开发。为了保证安全性与专业化,目前医院使用DeepSeek的方式是本地化部署定制开发。长庚医院医学数据科学中心主任李栋接受经济观察网采访时介绍,一方面,医院数据不能离院;另一方面,要保证病人得到更专业的咨询,需要用医院专业的真实医疗数据去训练,同时保证数据不外泄。

  然而,如何在数据使用的同时保护患者的个人隐私,是一个长期存在的问题。作为率先完成DeepSeek本地化部署的医院,深圳大学附属华南医院院长吴松在其文章中介绍,传统的匿名化方法虽然能够降低数据泄露的风险,但往往会导致数据的部分丧失,因此需要开发更加精细化的脱敏算法,在保证隐私保护的同时最大限度地保留数据的有效性。

  此外,吴松表示,随着数据量的持续增加,如何在保证数据安全的前提下实现大规模数据的存储、传输和处理,也是当前医疗大模型本地化部署面临的一项重要挑战。分布式存储、边缘计算等技术的应用可能为这一问题提供解决方案,但如何平衡数据处理效率与安全性,依然需要进一步研究和探索。

  一旦发生个人信息泄露或不当处理的情况,郑飞介绍,根据《中华人民共和国民法典》以及《中华人民共和国个人信息保护法》等规则,作为数据控制者,如果医疗机构未能履行其应尽的安全管理义务,通常需要承担主要责任。此外,在特定情况下,责任的划分可能会牵涉到包括开发者与供应商、第三方开源贡献者、数据处理人员、网络服务提供商在内的多个相关方。

  AI医生必须服从人类医疗伦理框架

  “AI必须服从人类医疗伦理框架,关键是强调人类控制最后的按钮原则,明确要求守住医生终审权、患者知情权、技术可溯性三大底线。” 上海交通大学数据法律研究中心执行主任,上海交通大学法学院副教授何渊告诉界面新闻。

  事实上,医生终审原则早已明确。早在2009年,原卫生部印发的《人工智能辅助诊断技术管理规范(试行)》就明确,人工智能辅助诊断技术为辅助诊断和临床决策支持系统,不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。

  国家卫健委、国家中医药局2022年发布的《互联网诊疗监管细则(试行)》也遵循了这一原则,规定“医师接诊前需进行实名认证,确保由本人提供诊疗服务。其他人员、人工智能软件等不得冒用、替代医师本人提供诊疗服务”,此外“处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方”。地方政策层面,北京、湖南等多地也对人工智能辅助诊疗划下了“红线”,严禁使用人工智能等自动生成处方。

  在人类控制最后按钮的前提下,如何在医生与AI之间建立起和谐互动关系将成为关键问题。常荣山告诉界面新闻,斯坦福大学、哈佛医学院等机构的研究人员2024年10月发表的一项研究显示,AI作为强大的诊断辅助工具却并没有提高医生的表现,人与AI的结合实际上起到了“1+1=1”的效果。“AI的确很强大,但如果医生们并不能熟练掌握,其作用仍然有限。关键是如何通过完善教育培训制度、标准化工作程序、监管框架设计等,突破人对AI的信任危机,从而提高效率。” 常荣山说。

  “除了要确保‘人’在回路上,确保患者知情权也非常重要。如果在患者不知情的情况下使用了包括医疗辅助在内的人工智能系统,不符合医疗伦理。从透明度治理的角度来讲,也需要去让患者进行充分的知情、同意和告知,还有相应的授权。” 张欣说。

  然而,郑飞指出,相较于传统医疗行为中的知情同意,AI所包含的数据集交互和算法的复杂性问题,决定了人们难以就其个人数据的使用作出全面和可预测的决定,这使得与其相关的知情同意问题变得极为复杂。

  “在当前的监管环境中,存在一些灰色地带。” 郑飞介绍,一方面,技术的快速发展和迭代速度远远超过了相关法规的更新速度。特别是人工智能算法,由于其具备自主性和动态学习的能力,使得这些技术难以完全适应传统医疗器械所遵循的静态标准。另一方面,分类标准的模糊性也是一个不容忽视的问题。例如,在医疗文本处理领域中,生成式人工智能的应用是否应该被归类为“诊断辅助”工具,目前还没有一个明确的界定。这种不确定性给监管机构带来了挑战,同时也为相关技术的发展和应用带来了潜在的风险。

  AI参与诊疗,医疗损害责任如何厘清?

  根据《中华人民共和国民法典》第1218条的规定,患者在诊疗活动中受到损害,医疗机构或者其医务人员有过错的,由医疗机构承担赔偿责任。我国现阶段的人工智能辅助医疗的侵权案件,在司法实践中采用的仍是传统意义上的以过错责任原则为中心的医疗损害责任认定方式。

  “这意味着在发生医疗纠纷时,患者或其家属需要证明医疗机构或医务人员存在过错,例如未能合理地审核人工智能(AI)系统提供的诊断建议,或者在操作过程中出现了失误。而如果使用AI辅助诊断系统导致了误诊的情况发生,医疗机构必须证明他们已经采取了审慎的态度和措施来使用这项技术,比如对AI系统的建议进行了充分的审查和验证。” 郑飞说。

  “当涉及到AI自主决策时,会遇到归责的困境。”郑飞介绍,由于深度学习模型具有所谓的“黑箱”特性,即其决策过程不透明,这使得当出现错误或问题时,很难追溯到具体的错误原因。这种不透明性导致了医疗机构和AI系统的开发者之间经常发生互相推诿责任的情况。从义务的角度看,这不仅会影响医务人员向患者履行告知义务,也会影响医务人员履行再判断义务。

  此外,责任的划分还涉及到多方责任的交织问题,由于明确和统一的分担标准,使得责任的划分变得复杂和模糊。郑飞举例说,如果数据泄露事件是由于开源代码中存在漏洞以及医院在管理上的疏忽共同造成的,那么责任的分担就需要根据各方的过错比例来进行,但对于这个比例,尚无明确标准。

  另一种情况,如果人工智能辅助医疗工具被明确界定为医疗器械,那么在责任认定方面,就必须综合考虑《产品质量法》以及《医疗器械监督管理条例》等相关法规。

  “人工智能辅助医疗工具是否被正式归类为医疗器械,这主要取决于它所具备的具体功能以及它被应用在哪些场景中。”郑飞介绍,如果DeepSeek仅仅被用作提供决策支持的工具,它可能不会被明确地划归为医疗器械的范畴之内;然而,如果DeepSeek在实际应用中直接参与了诊断过程,或者在治疗过程中起到了关键作用(例如在手术导航、影像分析等方面),特别是对医疗器械数据进行分析,那么它就可能需要按照医疗器械的相关规定进行审批和监管。

  郑飞介绍,关于产品缺陷的无过错责任问题,根据《产品责任法》第41条,因产品存在缺陷造成人身、缺陷产品以外的其他财产损害的,生产者应当承担赔偿责任。生产者有义务对由于设计上的缺陷或者制造过程中的瑕疵所引起的损害承担无过错责任。这意味着,即使生产者在制造过程中没有过错,也必须对由此产生的损害进行赔偿。

  此外,根据《民法典》第1203条,因产品存在缺陷造成损害的,被侵权人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。如果医疗机构未能履行其合理使用义务,例如未能定期进行设备维护,那么在发生损害时,医疗机构可能需要根据其过错程度承担补充赔偿责任。

  “就目前而言,考虑到人工智能辅助医疗的辅助定位,意味着其背后的人机关系始终由医务人员主导。换言之,现有医患关系结构不会改变,医疗机构仍然是承担损害赔偿责任的主体,医务人员则继续代表医疗机构具体对患者负担注意义务。” 郑飞说。

(文章来源:界面新闻)

(原标题:【深度】守紧大模型时代医疗数据安全与伦理“闸口”)

(责任编辑:43)

 
 
 
 

网友点击排行

 
  • 基金
  • 财经
  • 股票
  • 基金吧
 
郑重声明:天天基金网发布此信息目的在于传播更多信息,与本网站立场无关。天天基金网不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资决策建议,据此操作,风险自担。数据来源:东方财富Choice数据。

将天天基金网设为上网首页吗?      将天天基金网添加到收藏夹吗?

关于我们|资质证明|研究中心|联系我们|安全指引|免责条款|隐私条款|风险提示函|意见建议|在线客服|诚聘英才

天天基金客服热线:95021 |客服邮箱:vip@1234567.com.cn|人工服务时间:工作日 7:30-21:30 双休日 9:00-21:30
郑重声明:天天基金系证监会批准的基金销售机构[000000303]。天天基金网所载文章、数据仅供参考,使用前请核实,风险自负。
中国证监会上海监管局网址:www.csrc.gov.cn/pub/shanghai
CopyRight  上海天天基金销售有限公司  2011-现在  沪ICP证:沪B2-20130026  网站备案号:沪ICP备11042629号-1

A
安联基金安信基金
B
博道基金渤海汇金北京京管泰富基金百嘉基金贝莱德基金管理博时基金宝盈基金博远基金
C
长安基金长城基金长城证券财达证券淳厚基金创金合信基金长江证券(上海)资管长盛基金财通基金财通资管诚通证券长信基金财信基金财信证券
D
德邦基金德邦证券资管大成基金东财基金达诚基金东方阿尔法基金东方红资产管理东方基金东莞证券东海基金东海证券东吴基金东吴证券东兴基金东兴证券第一创业东证融汇证券资产管理
F
富安达基金蜂巢基金富达基金(中国)富国基金富荣基金方正富邦基金方正证券
G
光大保德信基金国都证券广发基金广发资产管理国海富兰克林基金国海证券国金基金国联安基金国联基金格林基金国联民生国联证券资产管理国融基金国寿安保基金国泰海通资管国泰基金国投瑞银基金国投证券国投证券资产管理国新国证基金国信资管国信证券国新证券股份工银瑞信基金国元证券
H
华安基金汇安基金华安证券华安证券资产管理汇百川基金华宝基金华宸未来基金华创证券泓德基金华富基金汇丰晋信基金海富通基金宏利基金汇泉基金华润元大基金华商基金惠升基金恒生前海基金华泰柏瑞基金华泰保兴基金红土创新基金汇添富基金红塔红土华泰证券(上海)资产管理华夏基金华西基金华鑫证券合煦智远基金华银基金恒越基金弘毅远方基金
J
嘉合基金金融街证券景顺长城基金嘉实基金九泰基金建信基金江信基金金信基金金鹰基金金元顺安基金交银施罗德基金