来源:金融时报
4月2日,工业和信息化部等十部门发布《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),该《办法》共37条。
《办法》提出,推进人工智能科技伦理服务体系建设,强化人工智能科技伦理风险监测预警、检测评估、认证、咨询等服务供给,提升企业技术研发和人工智能科技伦理风险防范能力,加大对中小微企业人工智能科技伦理审查的支持和服务力度,推进人工智能科技伦理国际交流合作。
《办法》明确,鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等开展人工智能科技伦理审查研究,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险;促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。
《办法》要求,从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理审查管理的责任主体,应按照《科技伦理审查办法(试行)》第四条有关要求,设立人工智能科技伦理委员会(以下简称“委员会”)。委员会应配备必要的工作人员、办公场所和经费等条件,采取有效措施保障委员会独立开展工作。鼓励有资质的相关单位开展人工智能科技伦理管理体系相关认证。
《办法》指出,开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信的人工智能科技伦理原则,遵守我国宪法、法律法规和有关规定。
上一篇:失踪美军飞行员已被找到