近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),提出建立和完善人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,以技术手段防范人工智能科技伦理风险。
《办法》对人工智能科技伦理审查的适用范围、实施主体、工作程序、监督管理等作出规定,并结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求。为推进人工智能科技伦理服务体系建设,《办法》从标准建设、服务体系、鼓励创新、宣传教育、人才培养五个方面制定支持举措,帮助企业切实提升科技伦理风险防控能力。
《办法》提出,开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等六个方面,包括人工智能科技活动是否具有科学价值、社会价值;训练数据的选择标准,算法、模型、系统的设计是否合理;是否合理披露算法、模型、系统的用途、运行逻辑等信息;是否采取充分措施确保隐私数据得到有效保护等。