基本信息
文件名称:2023年GPT产业复盘:GPT问世.pdf
文件大小:1.45 MB
总页数:14 页
更新时间:2025-07-10
总字数:约2.88万字
文档摘要
正文目录
GPT发展之2017:Transformer架构为GPT奠定基础3
Transformer:GPT模型的基础3
自注意力机制是Transformer的核心理念4
GPT发展之2018:GPT-1诞生,开启NLP新发展热潮6
GPT-1:确定生成式预训练模型基本路线8
GPT-1:基于Transformer的预训练+微调半监督模型8
模型特点:无监督训练+有监督微调8
论文结论:在多个下游任务中取得优于整体的结果10
GPT-2vsELMo/ULMFiT