登录    注册    忘记密码

期刊文章详细信息

机器学习模型可解释性方法、应用与安全研究综述  ( EI收录)  

Survey on Techniques, Applications and Security of Machine Learning Interpretability

  

文献类型:期刊文章

作  者:纪守领[1] 李进锋[1] 杜天宇[1] 李博[2]

Ji Shouling;Li Jinfeng;Du Tianyu;and Li Bo(Institute of Cyberspace Research and College of Computer Science and Technology,Zhejiang University,Hangzhou 310027;Department of Computer Science,University of Illinois at Urbana-Champaign,Urbana-Champaign,IL,USA 61822)

机构地区:[1]浙江大学计算机科学与技术学院网络空间安全研究中心,杭州310027 [2]伊利诺伊大学香槟分校计算机科学学院,美国伊利诸伊州厄巴纳香槟61822

出  处:《计算机研究与发展》

基  金:国家自然科学基金项目(61772466,U1836202);浙江省自然科学基金杰出青年项目(LR19F020003);浙江省科技计划项目(2017C01055)~~

年  份:2019

卷  号:56

期  号:10

起止页码:2071-2096

语  种:中文

收录情况:AJ、BDHX、BDHX2017、CSA-PROQEUST、CSCD、CSCD2019_2020、EI、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊

摘  要:尽管机器学习在许多领域取得了巨大的成功,但缺乏可解释性严重限制了其在现实任务尤其是安全敏感任务中的广泛应用.为了克服这一弱点,许多学者对如何提高机器学习模型可解释性进行了深入的研究,并提出了大量的解释方法以帮助用户理解模型内部的工作机制.然而,可解释性研究还处于初级阶段,依然还有大量的科学问题尚待解决.并且,不同的学者解决问题的角度不同,对可解释性赋予的含义也不同,所提出的解释方法也各有侧重.迄今为止,学术界对模型可解释性仍缺乏统一的认识,可解释性研究的体系结构尚不明确.在综述中,回顾了机器学习中的可解释性问题,并对现有的研究工作进行了系统的总结和科学的归类.同时,讨论了可解释性相关技术的潜在应用,分析了可解释性与可解释机器学习的安全性之间的关系,并且探讨了可解释性研究当前面临的挑战和未来潜在的研究方向,以期进一步推动可解释性研究的发展和应用.

关 键 词:机器学习  可解释性 解释方法  可解释机器学习  安全性

分 类 号:TP391]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心