2025年4月25日,习近平总书记在主持二十届中共中央政治局第二十次集体学习时强调,“面对新一代人工智能技术快速演进的新形势,要充分发挥新型举国体制优势,坚持自立自强,突出应用导向,推动我国人工智能朝着有益、安全、公平方向健康有序发展”。这一重要论述,为人工智能发展指明前进方向。
坚持多维度统筹人工智能发展
随着人工智能技术的突破性进展,我国在顶层设计层面加速发展人工智能,构建了系统化的政策支持体系。特别是坚持以促进产业发展为基本导向,秉持发展与安全并重的原则,从法律、伦理、政策及技术等多维度统筹人工智能发展,引导其向上向善。
2017年国务院发布《新一代人工智能发展规划》,确立人工智能治理总体目标和规划。一是到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;二是到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。国家先后出台《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》三部基础性法律,从基础设施、数据要素、自动化决策等关键性要素方面构建了治理框架。《中华人民共和国民法典》《中华人民共和国电子商务法》《中华人民共和国反不正当竞争法》等共同构建数字经济时代的法律体系。2023年以来,我国人工智能监管明显提速,针对生成式人工智能和人脸识别等新兴技术出台专项规定,强化内容安全和隐私保护。在此基础上,各省市结合产业特点,出台系列法规和规章,为促进本地区人工智能技术创新提供坚实的制度保障。
随着科技快速发展,科技伦理挑战日益凸显。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出“发展负责任的人工智能”。2021年发布《新一代人工智能伦理规范》,细化伦理要求。2022年《中华人民共和国科学技术进步法》从法律层面确立科技伦理治理框架,明确“国家建立科技伦理委员会,完善科技伦理制度规范”。2023年,科技部等部门联合印发《科技伦理审查办法(试行)》,明确科技活动的伦理底线,要求生命科学、医学、人工智能等敏感领域科研单位设立伦理审查委员会。多地成立省级科技伦理审查委员会,设区市设立伦理委员会和区域审查中心,完善上下联动机制,基本形成了具有地方特色的“规范引领、分类监管、促进创新”治理模式。
人工智能安全治理面临诸多挑战
我国人工智能安全治理虽然取得积极成效,但随着技术快速迭代,仍面临政策法规滞后、数据安全与隐私保护、算法透明度不足、监管能力薄弱等诸多挑战。
司法治理敏捷度不足。人工智能的快速发展引发多领域的法律合规风险,现行法律体系在应对技术超前性、提升监管敏捷性方面存在不足,亟须构建动态适配的治理框架。算法设计理念缺陷、模型漏洞及安全保障不足等潜在风险,可能以难以察觉的方式对社会造成系统性损害。人工智能技术具有高度复杂性、快速创新性和跨国性特征,现有法律制度难以跟上技术迭代速度,司法治理的敏捷度亟待提升。
伦理治理效力有限。现行伦理治理主要依赖企业自律和行业指引等非强制性指引,缺乏有力约束。传统监管模式下人工智能伦理治理过于柔性,难以及时有效应对人工智能快速发展带来的技术风险。“伦理先行”原则实施较为空洞,甚至实践中流于形式,缺乏贯穿研发应用全周期的实质性伦理框架。伦理治理的软约束特征导致规范效力不足,亟须强化伦理规范的刚性约束,建立具有执行力的伦理治理体系。
技术治理机制不健全。算法治理虽已建立自评估与备案制度,但仍存在短板。当前“事前监管+事后追责”的治理模式难以有效应对AI技术的系统性风险,特别是在应用场景仍处探索阶段、治理思路尚不明晰的背景下,适应性表现出不足。同时,技术特性与责任认定存在机制冲突。AI决策的不可解释性、自主学习的不确定性,与传统法律责任认定机制难以匹配,导致事故责任界定困难、追责机制失效。
社会风险防范能力薄弱。人工智能引发的社会风险具有极强的不确定性、无边界性和规模化效应,绝非个体用户或者社交网络平台所能防范和处置,亟须构建全方位的风险防控体系。生成式人工智能通过数据“投喂”机制可能放大社会偏见,可能产生因训练数据偏差导致的价值偏见、数据缺失造成的文化偏见、“信息茧房”加剧引起的商业歧视。这些偏见通过算法决策渗透到就业、信贷、教育等领域,但相关部门尚未建立有效识别和干预机制。不容忽视的是,算法成为隐性价值观的传播载体,可能输出具有欺骗性的虚假内容。
推动治理能力与技术发展相适应
面对人工智能发展带来的机遇与挑战,必须站在维护国家安全、促进科技创新、保障民生福祉的战略高度,系统完善安全治理体系,推动治理能力与技术发展相适应。
坚持以人民为中心,确保政策落地见效。人工智能技术的根本价值在于为社会创造福祉、为人类增进幸福。当前,在鼓励技术创新和产业引领的同时,更需要确保技术发展始终遵循以人为本的价值准则,恪守服务人类的伦理原则。要坚持“科技向善、治理为民”的价值导向,需要构建多层次的价值转化机制。在制度层面,要通过法律法规将抽象的价值原则具象为管理规范,明确政府、企业、科研机构等主体责任。落实归责机制,探索建立算法安全主体责任清单制度。创新监管模式,实施过程性规制,平衡效率与安全。在技术层面,要将伦理原则嵌入产品全生命周期,形成可验证的技术标准和设计规范。健全算法审查制度和科技伦理审查制度,确保伦理委员会发挥实质作用。
提升风险鉴别能力,强化风险处置效能。风险鉴别是科学治理的基础。只有准确识别风险类型、层级和源头,才能制定针对性策略,实现精准治理。因此,必须构建覆盖风险识别、分类、评估的完整体系,明确不同类型风险的特征和影响范围,为分级分类治理提供科学依据。要探索安全技术研发创新工具,推进事前、事中、事后全流程监管。广泛发掘一批可推广复制的技术路线,不断丰富内容标识、红队测试、价值对齐等技术工具和治理经验,发布数据审查库、数据标注规范等评估指引,增强人工智能风险的动态感知、科学预警、留痕溯源能力。此外,还可探索风险补偿机制,构建保险补偿机制。
加快政务服务转型,推进政府治理创新。人工智能技术的快速发展深刻改变了政府治理环境和治理方式。应主动适应变革,创新治理模式,完善监管机制,以科技赋能提升政府治理效能和公共服务水平。一是创新多元治理模式。按照企业主导、政府引导原则,鼓励多主体协同治理,积极推进协同高效的数字化治理体系。二是完善监管体制机制。明确各类风险事件责任主体,建立跨部门联合监管机构和应急协同机制,确保快速响应、精准施策。三是强化治理支撑能力。建立类别化案例库,辅助风险治理决策,提升风险研判能力。开展全民数字素养提升工程,引导公众理性看待和使用技术,以正确和积极的方式使用人工智能。
(作者单位:苏州科技大学马克思主义学院)
责任编辑:苏胜利