微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈。
近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能科技伦理审查与服务工作提供明确指引。
《办法》提出,开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信的人工智能科技伦理原则,遵守我国宪法、法律法规和有关规定。
根据《办法》,从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理审查管理的责任主体,应按照有关要求,设立人工智能科技伦理委员会。委员会组成应包括人工智能技术、应用、伦理、法律等相应专业背景的专家。鼓励有资质的相关单位开展人工智能科技伦理管理体系相关认证。
《办法》明确,地方、相关主管部门可结合实际情况依托相关单位建立专业性人工智能科技伦理审查与服务中心。服务中心接受其他单位委托,提供人工智能科技活动伦理审查、复核、培训、咨询等服务。
《办法》提出,开展人工智能科技伦理审查要重点关注以下几个方面:在人类福祉方面,人工智能科技活动是否具有科学价值、社会价值;研究目标对增进人类福祉、实现社会可持续发展等是否具有积极作用;人工智能科技活动的风险是否受益合理。在公平公正方面,训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性。在可控可信方面,是否能够保障模型、系统的鲁棒性,以应对开放环境、极端情况和干扰性因素;是否能够保障使用者控制、指导和干预模型、系统的基本操作;是否制定持续监测方案、突发状况处理预案。在透明可解释方面,是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息;是否采用有效技术手段提升算法、模型和系统的可解释性。在责任可追溯方面,是否具有日志管理等措施清楚记录数据、算法、模型、系统各个环节的充分信息,保障全链路可追踪和管理;科技人员资质是否符合相关要求。在隐私保护方面,数据的收集、存储、加工、使用等处理活动以及研究开发数据新技术等,是否采取充分措施确保隐私数据得到有效保护。
此外,工业和信息化部、科技部会同有关部门制定发布了“需要开展科技伦理专家复核的人工智能科技活动清单”。目前这一清单包括三项:对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发,具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发,面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。该清单将根据工作需要动态调整。