期刊文章详细信息
文献类型:期刊文章
Chen Kerui;Meng Xiaofeng(School of Computer&Information Engineering,Henan University of Economics and Law,Zhengzhou 450002;School of Information,Renmin University of China,Beijing 100872)
机构地区:[1]河南财经政法大学计算机与信息工程学院,郑州450002 [2]中国人民大学信息学院,北京100872
基 金:国家自然科学基金项目(91646203,61941121,61532010,91846204,61532016,91746115);河南财经政法大学学术创新骨干支持计划项目。
年 份:2020
卷 号:57
期 号:9
起止页码:1971-1986
语 种:中文
收录情况:AJ、BDHX、BDHX2017、CSCD、CSCD2019_2020、EI、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊
摘 要:近年来,机器学习发展迅速,尤其是深度学习在图像、声音、自然语言处理等领域取得卓越成效.机器学习算法的表示能力大幅度提高,但是伴随着模型复杂度的增加,机器学习算法的可解释性越差,至今,机器学习的可解释性依旧是个难题.通过算法训练出的模型被看作成黑盒子,严重阻碍了机器学习在某些特定领域的使用,譬如医学、金融等领域.目前针对机器学习的可解释性综述性的工作极少,因此,将现有的可解释方法进行归类描述和分析比较,一方面对可解释性的定义、度量进行阐述,另一方面针对可解释对象的不同,从模型的解释、预测结果的解释和模仿者模型的解释3个方面,总结和分析各种机器学习可解释技术,并讨论了机器学习可解释方法面临的挑战和机遇以及未来的可能发展方向.
关 键 词:机器学习 可解释性 神经网络 黑盒子 模仿者模型
分 类 号:TP181]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...