卢卫
中国网络空间安全协会副理事长、人工智能安全治理专业委员会主任卢卫为南都“第九届啄木鸟数据治理论坛”致辞。他表示,AI治理应坚持“分类分级”,比如对自动驾驶、智慧医疗等高风险场景严格监管,对低风险应用则留出一定创新空间。
安全最终要靠技术来兜底
卢卫认为,建立健全面向未来的人工智能安全治理生态,需要依靠技术创新筑牢防线、依靠信任夯实凝聚共识、依靠制度完善保驾护航,让技术、信任、制度三者形成合力。
首先,技术是安全治理的基础支撑,为人工智能发展筑牢安全底线。卢卫表示,人工智能技术日新月异,发展离不开技术的创新和迭代,安全最终要靠技术来兜底,具体涉及两方面:
一是提升人工智能自身安全性,如通过对抗训练增强模型鲁棒性(指一个系统在面临着内部结构或外部环境的改变时也能够维持其功能稳定运行的能力),利用差分隐私保护数据安全;另一方面研究治理技术,如算法漏洞的智能检测,深度伪造检测、算法审计工具等。此外,要特别注重内生安全。“要在人工智能的研发初期就嵌入防护机制,并不断地迭代优化,不能事后‘打补丁’。”
卢卫分析,近年来发生的涉人工智能网络安全事件普遍呈现出两个特点:手段智能化,一些不法分子早早地就将人工智能技术作为违法犯罪工具;风险场景复杂化,具体表现为从数字空间渗透到了物理世界。
在他看来,人工智能的普及,本质上是技术获得社会信任的过程。算法推荐出现“信息茧房”、自动驾驶面临伦理困境、AI生成内容模糊虚实边界……都会侵蚀公众的信任根基。要构建信任,需要做到“透明可及”,包括提高算法决策过程透明度,避免技术异化对隐私、公平等价值的损害等等;同时要积极普及AI知识,提升全民数字素养。
“法律+标准+伦理”的治理体系
制度是安全治理的秩序保障,为人工智能发展全程保驾护航。卢卫建议,建立健全“法律+标准+伦理”的治理体系,既通过《网络安全法》《数据安全法》等法律划出“红线”,也要发挥行业标准、自律公约的柔性调节作用。AI治理中要坚持“分类分级”,比如对自动驾驶、智慧医疗等高风险场景严格监管,对低风险应用则留出一定创新空间。同时,要推动跨部门、跨区域协同治理;加强国际合作,应对人工智能安全的全球性挑战。
卢卫强调,随着人工智能技术的迅速迭代,治理还需保持“敏捷性”,制度建设需“与时俱进”。通过建立健全动态风险评估机制,为前沿技术和领域的治理提出方案,为创新留出试错空间。比如,近年来中国网络空间安全协会组织专业机构对人工智能模型进行了安全和能力的评测实践探索。
人工智能等新技术、新应用飞速发展,给现有国家治理体系带来极大挑战。“作为行业协会,(中国网空协会)非常愿意积极参与,共同做好人工智能安全治理方面的工作。”他说。
采写:南都记者 樊文扬