期刊文章详细信息
问答ChatGPT之后:超大预训练模型的机遇和挑战 ( EI收录)
The ChatGPT After:Opportunities and Challenges of Very Large Scale Pre-trained Models
文献类型:期刊文章
LU Jing-Wei;GUO Chao;DAI Xing-Yuan;MIAO Qing-Hai;WANG Xing-Xia;YANG Jing;WANG Fei-Yue(The State Key Laboratory for Management and Control of Complex Systems,Institute of Automation,Chinese Academy of Sciences,Beijing 100190;Qingdao Academy of Intelligent Industries,Qingdao 266114;School of Artificial Intelligence,University of Chinese Academy of Sciences,Beijing 100049)
机构地区:[1]中国科学院自动化研究所复杂系统管理与控制国家重点实验室,北京100190 [2]青岛智能产业技术研究院,青岛266114 [3]中国科学院大学人工智能学院,北京100049
基 金:国家自然科学基金(U1811463);行动元联合研究项目:伺服驱动系统的基础建模和平行驱控研究资助。
年 份:2023
卷 号:49
期 号:4
起止页码:705-717
语 种:中文
收录情况:BDHX、BDHX2020、CAS、CSCD、CSCD2023_2024、EAPJ、EI、IC、JST、PUBMED、RCCSE、SCOPUS、ZGKJHX、ZMATH、核心刊
摘 要:超大预训练模型(Pre-trained model,PTM)是人工智能领域近年来迅速崛起的研究方向,在自然语言处理(Natural language processing,NLP)和计算机视觉等多种任务中达到了有史以来的最佳性能,促进了人工智能生成内容(Artificial intelligence-generated content,AIGC)的发展和落地.ChatGPT作为当下最火热的PTM,更是以优异的表现获得各界的广泛关注.本文围绕ChatGPT展开.首先概括PTM的基本思想并对其发展历程进行梳理;接着,详细探讨ChatGPT的技术细节,并以平行智能的视角阐述ChatGPT;最后,从技术、范式以及应用等多个方面对PTM的发展趋势进行展望.
关 键 词:预训练模型 ChatGPT TRANSFORMER 人工智能生成内容 平行智能 社会化大闭环
分 类 号:TP18] F49]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...