登录    注册    忘记密码

期刊文章详细信息

基于卷积神经网络和多信息融合的三维乳腺超声分类方法    

Classification of Breast Mass in 3D Ultrasound Images with Annotations Based on Convolutional Neural Networks

  

文献类型:期刊文章

作  者:孔小函[1] 檀韬[2] 包凌云[3] 王广志[1]

Kong Xiaohan;Tan Tao;Bao Lingyun;Wang Guangzhi(Department of Biomedical Engineering,School of Medicine,Tsinghua University,Beijing 100084,China;Department of Biomedical Engineering,Eindhoven University of Technology,Eindhoven 5612 wh,Netherlands;Department of Ultrasound Imaging,Hangzhou First People's Hospital,Hangzhou 310006,China)

机构地区:[1]清华大学医学院生物医学工程系,北京100084 [2]埃因霍温理工大学生物医学工程系 [3]杭州市第一人民医院超声影像科,杭州310006

出  处:《中国生物医学工程学报》

年  份:2018

卷  号:37

期  号:4

起止页码:414-422

语  种:中文

收录情况:BDHX、BDHX2017、CAS、CSCD、CSCD2017_2018、EMBASE、IC、INSPEC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊

摘  要:乳腺肿瘤超声图像的自动分类对于提高医生的工作效率和降低漏诊率具有十分重要的意义。新型的三维乳腺超声数据包含更多的可用于诊断的信息,但由于超声成像机理导致不同方向上的图像表现不同。针对该种乳腺超声数据,利用卷积神经网络结构的灵活性和自动学习的特性,提出3种改进的卷积神经网络模型,使其分别可以接受横截面图像输入、横截面和冠状面的双图像输入、图像和文本信息同时输入,并研究不同信息的融合对于提升乳腺肿瘤自动分类准确率的影响。在研究中,采用880幅图像(良性401幅,恶性479幅)及其标注信息进行5折交叉验证实验,得到各模型的准确率及AUC。实验结果表明,设计的模型可以适应图片与文本信息的输入,多信息融合的模型比只接受图像输入的模型准确率提升2.91%,达到75.11%的准确率和0.829 4的AUC。这些模型的提出,为多信息融合的卷积神经网络分类应用提供参考。

关 键 词:三维乳腺超声  医学图像分类 卷积神经网络 多信息融合  

分 类 号:R318[生物医学工程类]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心