《可解释AI体系架构指南》为行业提供构建、部署和管理机器学习模型的技术蓝图,同时通过采用各种可解释AI方法满足透明和可信赖AI的要求。
该标准定义了可解释AI的架构框架和应用指南,包括可解释AI的描述和定义、可解释AI方法的类型和每种类型适用的应用场景,以及可解释AI系统在准确性、隐私和安全方面的性《彩票的图片APP》能评估方法。
该标准也是“可信联邦学习”新范式研究与落地的重要里程碑,对于推动数据要素的安全流通具有关键性作用。
早在2020年,大数据国家工程研究中心就参与成立IEEE标准协会可解释AI标准工作小组,并委派人工智能领域资深技术专家深度参与这项标准的起草和研讨。
大数据国家工程研究中心作为中国国家技术标准创新基地(贵州大数据)秘书处承担单位,也是IEEE标准协会、中国信息技术标准化技术委员会人工智能分技术委员会等国际国内多家标准化组织成员单位。