“可解释性”相关研究及应用 | CCF数图焦点第18期
点击底部“阅读原文”可浏览《CCF数图焦点》第18期详细内容
编者寄语
近年来,以深度学习为代表的人工智能取得突破性进展,然而海量的参数与复杂的处理机制, 使得人类很难追溯与理解其推理过程,造成“知其然,不知其所以然” ,引发人们对算法可信性、公平性产生质疑,一定程度上影响了其在无人驾驶、精准医疗、智能交通等高风险决策工程中的大规模应用.因此探究深度学习的可解释性成为当前人工智能领域研究的新课题。
可解释性相关的研究及应用有所涌现,多个期刊不约而同发表了深度学习可解释性的相关综述,角度和侧重有所差异,本期专题将他们进行汇总,以便读者辨析阅读。利用可解释推理机制对知识图谱进行推断已受到广泛关注,本期专题包含了2位学者的报告视频。同时,专题中还包含AI的可解释探讨及其在安全领域中的应用介绍。
目录
本期主编:
侯丽珊
《计算机研究与发展》编辑部主任
往期回顾
<<< 上一篇
网络空间安全 | CCF数图焦点第19期
<<< 下一篇 群智协同计算 | CCF数图焦点第17期