基本信息
文件名称:DB4403T-医学人工智能治理综合评价指标体系编制说明.pdf
文件大小:183.49 KB
总页数:7 页
更新时间:2025-06-14
总字数:约4.24千字
文档摘要

《医学人工智能治理综合评价指标体系》

解读

一、编制背景

2017年7月8日,国务院印发了《新一代人工智能发展

规划》,要求初步建立人工智能法律法规、伦理规范和政策

体系,形成人工智能安全评估和管控能力。2018年10月,

习近平总书记在十九届中央政治局第九次集体学习时明确

指出:“要加强人工智能发展的潜在风险研判和防范,维护

人民利益和国家安全,确保人工智能安全、可靠、可控。”

2021年9月25日,《新一代人工智能伦理规范》发布,提

出了增进人类福祉、促进公平公正、保护隐私安全、确保可

控可信、强化责任担当、提升伦理素养等6项基本伦理要求,

并提出了人工智能管理、研发、供应、使用等特定活动的18

项具体伦理要求。2022年3月20日,国务院办公厅印发《关

于加强科技伦理治理的意见》,要求“进一步完善科技伦理

体系,提升科技伦理治理能力,有效防控科技伦理风险,不

断推动科技向善、造福人类”,将人工智能伦理纳入科技伦

理的综合治理中。2023年5月,国家网信办发布《生成式人

工智能服务管理暂行办法》,旨在促进生成式人工智能的健

康发展和规范应用,维护国家安全、社会公共利益及公民、

法人和其他组织的合法权益。2025年3月《人工智能示范法

3.0》发布,要构建起“动态适配、前瞻治理”的监管框架,

为人工智能产业高质量发展提供法治保障;鼓励支持中小企

业创新与开源,支持人工智能产业健康发展;新增内部吹哨

人制度,强化人工智能研发与应用的安全监督。同月29日

中国医学科学院医学信息研究所召集起草的《医疗机构部署

DeepSeek专家共识》在中关村论坛医学AI创新与发展论坛

上发布,该共识为全国医疗机构提供了可操作的AI部署指

南,旨在推动我国医疗机构部署人工智能规范化发展。

随着人工智能技术的应用普及,人工智能技术滥用等问

题不断出现,同时也带来了信息安全问题。2023年4月,美

国斯坦福大学以人为本人工智能研究所(StanfordHAI)发

布的《2023年人工智能指数报告》(ArtificialIntelligence

IndexReport2023)分析了人工智能的影响和年度趋势。报

告发现,关于人工智能滥用的事件数量正在迅速上升。通过

追踪人工智能道德滥用相关事件的人工智能算法和自动化

事件和争议(AIAAIC)数据库,2012年至2022年间人工智

能相关争议事件增加近26倍。针对各类人工智能问题,世

界主要国家和地区陆续从安全性审查、技术禁用等角度出台

相关监管措施以实现对人工智能的有效治理。

探索合理、有效的治理方案,实现人工智能健康有序发

展已经成为全球重要课题。在第三届“一带一路”国际合作

高峰论坛上,中国发布的《全球人工智能治理倡议》(下称

《倡议》)赢得国际社会广泛赞誉。《倡议》站在构建人类

命运共同体、维护全人类福祉的历史高度,就人工智能发展、

安全、治理三个方面公平公正地提出建设性解决措施,为全

球人工智能治理提供中国方案。2023年11月首届人工智能

安全峰会在英国布莱奇利园举行并发布了《布莱奇利宣言》,

美国、中国、日本、德国、印度等20多个国家的政府代表

以及联合国、经合组织、国际电信联盟等多个国际组织的代

表参会,28个国家和欧盟共同签署了《布莱奇利宣言》,同

意通过国际合作,建立人工智能(AI)监管方法。2024年7

月,欧盟发布全球第一部关于人工智能的综合性法律《人工

智能法》,确保AI系统的开发、部署和使用符合欧盟的价

值观和法律规定,同时保护健康、安全和基本权利。2024年

1月,WHO发布的《卫生领域人工智能的伦理与治理:多模态

大模型指南》提出六大伦理原则:保护自主权、促进人类福

祉、确保透明度、责任担当、包容公平、可持续性。

目前人工智能技术主要造成三类问题。一是信息安全问

题。人工智能需要实时更新海量数据用于模型训练。当前,

在个人隐私领域中,相关企业、平台尚未达成遵循知情同意

原则的共识,存在越权使用现象。因此,用户如果缺乏相关

意识,在使用人工智能技术时,很可能导致个人隐私数据泄

露。二是虚假信息问题。尽管技术中立,但人为投放不实消

息或片面事实可能会导致人工智能模型产出虚假信息,也就

是“深度伪造”。三是数字鸿沟问题。人工智能具备高效的

信息检索和整合能力,虽然为人们的工作和生活提供了极大

方便,但其产出的真实性和准确性并不牢靠。因此,信息甄

别、自主决策能力强的使