解决大模型幻觉问题需构建技术优化、法律规制与伦理调适的三维治理体系,并提升用户信息素养。
技术优化是首要路径。需通过提高训练数据质量、加强外部验证与事实检查、改进模型推理能力等手段提升大模型性能。例如优化数据清洗机制,剔除错误标注数据,增强模型对事实真实性的鉴别能力。鼓励哲学社会科学专家与人工智能专家合作,通过知识库优化、训练语料纠错、价值对齐监测等技术手段,帮助模型减少事实性幻觉风险。建立分级置信提示制度,对生成内容按“高可信、需核实、推测性结论”分类标注,加强透明度与可解释性。
法律规制是必要保障。需构建多层次适应性治理框架,通过立法明确大模型开发者的法律责任。例如参考中国《生成式人工智能服务管理暂行办法》及欧盟《人工智能法案》,要求开发者履行告知义务、确保技术方案稳健性、禁止传播虚假信息。推动行业建立数据使用、模型训练到服务输出的全流程合规标准,对恶意利用幻觉扩散虚假信息的责任主体实施问责。
伦理调适是价值引导。将负责任创新、可控创造性等伦理价值融入技术开发,倡导“争议性结论不生成、无法溯源信息不生成”等原则,从源头上遏制幻觉生成逻辑。推动大模型从追求生成流畅度转向内容可靠性,定期对模型进行价值对齐监测,确保输出符合社会公共利益。用户需提升媒介素养,通过人工智能交叉验证等技能培训,识别并反驳错误信息,避免过度依赖单一模型输出。
解决大模型幻觉需多方协同,技术优化、法律规制、伦理规范与用户素养共同构筑防护体系,方能最大化发挥人工智能价值的同时降低风险。