安全治理、标准化、伦理规范
国家关于人工智能(AI)安全的政策体系从顶层设计到具体实施,形成了多层次、多维度的保障机制,主要涵盖以下方面:
一、顶层设计与战略部署
-
《新一代人工智能发展规划》
提出到2030年建设世界级人工智能创新中心,强调数据安全、算法治理和伦理规范,要求构建人工智能发展的先发优势。
-
《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》
将人工智能纳入国家战略,提出加强网络安全关键技术研发,提升人工智能安全技术创新能力。
二、安全治理体系
-
《人工智能安全治理框架》1.0版
2024年发布,提出包容审慎、风险导向等治理原则,涵盖数据安全、算法伦理、责任担当等核心内容,为AI安全发展提供系统指导。
-
《生成式人工智能服务管理暂行办法》
2023年出台,对生成式AI服务实施分类分级监管,明确服务提供者的内容生产与信息安全责任。
-
《互联网信息服务深度合成管理规定》
2022年发布,规范深度合成技术应用,防范虚假信息传播风险。
三、技术标准与规范
-
国家标准与行业标准
计划到2026年新增50项以上标准,涵盖算法评估、医疗应用、数据安全等领域,构建全链条标准化体系。
-
专项技术标准
如《深度学习算法评估》《人工智能医疗器械质量要求》等,指导AI技术研发与应用落地。
四、伦理与责任要求
-
基本伦理准则
2022年发布的指导意见提出6项要求:尊重人权隐私、保护知识产权、确保可信透明等。
-
数据安全与隐私保护
强调数据是AI发展的基础,要求建立数据安全防护机制,防止敏感信息泄露。
五、风险防范与应急响应
-
国家安全层面
国家安全部等机构发布提示,防范AI技术被用于危害国家安全,如敏感信息泄露、网络间谍活动等。
-
行业风险监测
通过专项政策推动企业建立风险管理体系,提升AI系统全生命周期安全性。
六、国际合作与标准对接
-
参与国际标准制定
积极推动AI领域国际标准对接,提升我国在全球治理中的话语权。
-
跨境数据流动管理
完善跨境数据安全评估机制,平衡创新需求与数据主权保护。
以上政策体现了中国政府在AI安全领域的系统性布局,既注重技术创新与产业升级,又强调风险防控与伦理规范,形成政府引导、企业自律、社会共治的协同机制。