免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。
免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。
正文目录
前言:什么是PromptEngineering(提示词工程)? 3
原理:提示词是如何对大模型进行引导的? 7
方法:上下文学习、思维链与设计框架 8
进阶1.0:搭建多Agent协同的智能体系统 11
多Agent系统:什么是Agent协同? 11
如何设计一个可以实战的多Agent系统? 12
案例:几个关键子系统所需的Prompt 13
进阶2.0:RAG与本地知识库 15
什么是RAG(检索增强生成)? 15
怎样通过RAG技术构建本地知识库? 15
如何对接多Agent系统并集成? 16
实践:推荐使用lightRAG等工具 16
进阶3.0:Socratic-Prompt与Self-Check削弱模型幻觉 17
深度研究的最核心问题是:为什么大模型会产生幻觉? 17
可以显著改善幻觉问题的两种方法:Socratic-Prompt与Self-Check 18
不同技术路线的对比与优劣 19
债市深度研究实践案例 21
可转债研究:分析正股基本面 21
信用债研究:分析主体信用资质和偿债能力 23
风险提示 25
免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。前言:什么是PromptEngineering(提示词工程)?
免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。
大语言模型(LLM)的出现为二级市场投研工作带来了更高的效率。对二级市场投研工作者而言,大模型首先是作为“超级助手”存在,通过“类人推理”、多任务处理和聚焦私有知识库等手段,减少了很多低级和重复性的劳动;其次,它还可以扮演“数据侦探”的角色,为投资者找到更多微观信息,而且其学习与处理问题的速度很快,节省时间本身就是一种价值。
华泰研究图表1:大语言模型的基本原理
华泰研究
资料来源:但大模型的作用远不止于它本身!如何更好的使用大模型可能是更值得研究的问题。我们对大模型最简单的理解就是“提问+聊天互动”,以此替代传统的搜索引擎。当然,稍加扩展还可以进行翻译外文、总结提炼、助写文字等工作,但这都仍只浮于大模型应用的表层。因为在真实世界中,有很多人类工作非常复杂、甚至可能都难以描述,比如:
资料来源:
对宏观政策、经济增长路径的分析,即便是人也很容易输出“泛泛而谈”的内容;
股票基本面分析,尤其是上市时间不长、公开信息不多的公司,往往不知从何下手;
量化投资中的多因子挖掘,一般需要因子设计、回测、优化等几个工程顺次完成;
在生活中,还有心理调节或医学诊断等问题,显然也不是能一次性完成的任务……
那么如何完成这些相对复杂的人类工作?众多实践派高手和学者总结了大量的Prompt
(提示词),并汇聚成对PromptEngineering(提示词工程)的研究。本质上,提示词
(Prompt)就是经过逻辑思考后给出更有“含金量”的上下文而非简单的问答,让AI“听懂”并“执行”复杂任务,同时控制输出的质量与方向。好的Prompt的作用有三点:1、尽可能避免了“Garbagein,Garbageout”的问题,也就是优化了模型的输入;
2、从底层启发了大模型的“思维链”,激活了一些大模型的隐藏性能、优化输出;
3、一定程度上能控制幻觉问题。
图表2:MultilingualPromptingTechniques 图表3:MultimodalPromptingTechniques
ThePromptReport:ASystematicSurveyofPromptingTechniquesSanderSchulhoffetal.2024,
ThePromptReport:ASystematicSurveyofPromptingTechniquesSanderSchulhoffetal.2024,
免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。
免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。
资料来源:CohereAI官网(/docs/crafting-effective-prompts),华泰研究图表4:Prompt对大模型的引导作用
资料来源:
CohereAI官网(/docs/crafting-effective-prompts),华泰研究
资料来源:一个好的Prompt堪比大量训练数据。而OpenAI的官方博客(官网,OpenAI