Prompt原理详解

时间:2024-04-26 07:27:56

1、为什么使用框架的效果好

2、高质量的Prompt典型构成

3、什么是Prompt简单来说,其实是一套你和大模型交互的一种语言模板。通过这个模版,你可以输出你对于大模型响应的指令,用于大模型应该具体做什么指定,完成什么任务,如何处理具体的任务,并最终输出你期望的结果。虽然大模型具有基础的文字能力,能够理解你对于模型说的大部分话,但是为了达成大模型更好的回答效果,需要通过Prompt,来提升模型返回的准确性。如果说,过去的时代,人机交互的主要方式是通过代码,那么我认为在大模型时代,交互语言的主要方式其实是Prompt。

4、为什么Prompt可以减少幻觉在刚刚开始使用ChatGPT的时候,其实我们只是会把这个对话框理解问题的输入框。或者我们天然的认为这个是一个搜索框,所以就自动的输入了我们的问题。这个时候,大模型完全没有上下文,也没有任何例子可以去参考,所以他只能按照自己的模型的内容,随意的去发挥,看看碰到模型的那一部分,就返回对应的结果。这个就是大模型最被人诟病的地方,所谓的幻觉问题。其实这个不能怪大模型,就算两个人,面对面的沟通,可能由于知识、经历的差别,其实不可能完全的去理解另外一个的意思,何况这只是一个模型。所以,为了让大模型更好的理解我们的问题,我们需要给大模型更多的输入,更多的限定,更多的上下文,更加明确的结果输出,这样大模型才更有可能返回我们期望的结果。Prompt其实也就是用这个思路解决问题的,限定的上下文,更多的输入,更多的限定,从而输出得到更好的结果。

5、用数学的方式理解Prompt传统的机器学习是p(y|x;a)假设a是我们训练出来的模型。【训练】我们用大量人工标志,训练出来一个模型a。给了大量猫的照片,就返回cat。模型里面包含了大量猫照片的特征。【预测】给一个新的照片,根据模型特征按照一定概率返回猫或者其他动物。大模型是p(y|x;a)假设a我们训练出来的通用模型。这个模型没有经过人工的标注,但是他什么都可以学会。我们给出的Prompt其实就是x,然后让大模型基于这个x知道概率最大的y,这样就避免了人工的标注,但是依赖于x给入的信息,去更大概率找到合适的y。我们给一张照片,然后我们输入这是一个动物,这是什么,然后大模型根据这个输入,提取照片的特征和我们的提示作为输入,最终返回猫。

6、用更加专业的方式定义大模型的本质是一个基于语言的概率模型,他返回他觉得概率最大的内容。如果是直接问大模型,没有提供Prompt,相当于大模型随机给出他的答案。有了Prompt,其实是给了一个模板,这个模板包括了对于模型的要求,输入和输出的限制,大模型在这个限制之下,去得到概率最大的答案。