人工智能三大铁则是确保AI系统安全、可控且服务于人类福祉的核心准则,包括:1. 人类优先原则(不得伤害人类或坐视人类受伤害);2. 服从与可控性原则(服从人类指令且保持透明性);3. 责任与可持续原则(保护自身存在的同时承担伦理责任)。
-
人类优先原则
源自阿西莫夫的机器人三定律,强调AI必须将人类安全与利益置于首位。例如,自动驾驶车辆在紧急情况下需优先保护行人,而非单纯遵循算法效率。现代扩展版本(如欧盟《可信赖AI伦理准则》)进一步要求AI不得侵犯人权、尊严或隐私,确保技术发展始终以人类根本利益为边界。 -
服从与可控性原则
AI需在人类监督下运行,执行指令时需透明可解释。例如,医疗诊断AI需提供决策依据而非“黑箱”结论,以便医生审核。商汤科技提出的“平衡发展”观指出,AI的自主性需与人类控制权动态平衡,避免因过度自主导致失控风险。 -
责任与可持续原则
AI需具备自我保护的底层逻辑(如防止被恶意利用),同时承担伦理责任。例如,AlphaFold2通过数据增强提升蛋白质预测准确性,但其开发团队需确保技术不用于生物武器研发。中国科大陈小平教授提出的“机器智能另类性”强调,AI应通过可控性实现与人类文明的长期共生。
人工智能的治理需全球协作,将三大铁则融入技术研发与立法框架。用户可通过支持透明算法、监督AI应用参与推动伦理实践。