人工智能安全治理原则主要包括以下几个方面:
-
包容审慎、确保安全 :在鼓励人工智能创新发展的同时,坚守安全底线,防止技术被滥用,保护国家安全、社会公共利益和公众的合法权益不受侵害。
-
风险导向、敏捷治理 :以风险为导向,采取敏捷的治理方式,及时识别和应对人工智能带来的潜在风险,确保技术的可持续发展。
-
技管结合、协同应对 :技术与管理相结合,通过技术手段和管理措施共同应对人工智能带来的安全风险,形成多方参与的治理机制。
-
开放合作、共治共享 :鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,构建开放、包容、公正、非歧视的科技发展环境,共同应对人工智能带来的全球性挑战。
-
伦理先行 :确保人工智能技术的发展符合人类的价值观和伦理道德,避免技术成为“脱缰的野马”,逐步建立并完善人工智能伦理规范、法律法规和政策体系。
-
安全可控 :强化风险意识,建立有效的风险预警和应对机制,确保人工智能技术的安全可控,防止出现机器自主杀人等超出人类掌控的风险。
-
公平普惠 :促进发展中国家平等获取和利用人工智能技术、产品和服务,弥合南北技术鸿沟、数字鸿沟、发展鸿沟,反对科技霸权,推动全球共同发展。
-
和平利用 :重点挖掘人工智能在促进可持续发展、推动跨领域融合创新等方面的潜力,避免技术被用于军事或其他有害目的,确保人工智能技术的和平利用。
这些原则共同构成了一个全面而系统的治理框架,旨在促进人工智能技术的健康发展,同时确保其安全性和可持续性。