期刊文章详细信息
基于BERT模型的图书表示学习与多标签分类研究
Representation Learning and Multi-label Classification of Books Based on BERT
文献类型:期刊文章
Jiang Yanting;Hu Renfen
机构地区:[1]北京师范大学中文信息处理研究所,北京海淀100875
基 金:国家社科基金青年项目“面向汉语国际教育的智能测试技术研究”(项目编号:18CYY029)研究成果之一。
年 份:2020
期 号:9
起止页码:38-44
语 种:中文
收录情况:CSSCI、CSSCI_E2019_2020、JST、NSSD、RWSKHX、普通刊
摘 要:中文图书细粒度多标签分类的自动化,有利于促进图书的检索与学科的沟通。文章充分发挥BERT语言模型的微调特性,提出一种通过21类粗粒度分类微调语言模型,学习到更好的图书表示,进而实现细粒度分类的新策略。结果显示,在单标签的分类任务上,BERT模型的正确率分别较LSTM与Fasttext模型提升约4.9%与2.0%。KNN-ML对257类的细粒度多标签分类证明了前期微调的有效性。最佳情况下,有75.82%的图书细粒度类别恰好全部预测正确,92.10%的图书至少被正确预测了一个细粒度类别。因此可以得出结论,该系统有助于实现图书自动的细粒度归类,并帮助图书标引者补充合理的分类号。
关 键 词:中文图书 BERT模型 深度学习 微调策略 多标签分类
分 类 号:G254.1[图书情报与档案管理类]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...