大型语言模型:解析文本的未来

大型语言模型如何工作

大型语言模型是将文本映射到文本的函数。给定一个输入文本字符串,大型语言模型会预测接下来应该出现的文本。

大型语言模型的神奇之处在于,通过训练以最小化大量文本的预测误差,模型最终会学习对这些预测有用的概念。例如,他们学习:

这些能力都不是明确编程的——它们都是训练的结果。

GPT-3 为数百种软件产品提供支持,包括生产力应用程序、教育应用程序、游戏等。

如何控制大型语言模型

在大型语言模型的所有输入中,迄今为止影响最大的是文本提示。

可以通过几种方式提示大型语言模型产生输出:

下面显示了每个的示例。

指令提示

遵循指令的模型(例如,text-davinci-003或任何以 开头的模型text-)是专门为遵循指令而设计的。将您的指令写在提示的顶部(或底部,或两者),模型将尽力遵循指令,然后停止。说明可以很详细,因此不要害怕写一段明确详细说明您想要的输出。

指令提示示例:

从下面的引文中提取作者姓名。
“一些人类认为,智慧物种在扩展到外太空之前就已经灭绝了。 如果他们是对的,那么夜空的寂静就是墓地的寂静。”
——特德·蒋,《呼气》

输出:

特德·蒋


完成提示示例

完成式提示利用了大型语言模型尝试编写它们认为接下来最有可能出现的文本的大小。要引导模型,请尝试开始一个模式或句子,该模式或句子将由您想要看到的输出完成。相对于直接指令,这种引导大型语言模型的模式可以更加谨慎和实验。此外,模型不一定知道在哪里停止,因此您通常需要停止序列或后处理来截断生成的超出所需输出的文本。

完成提示示例:

“一些人类认为,智慧物种在扩展到外太空之前就已经灭绝了。 如果他们是对的,那么夜空的寂静就是墓地的寂静。”
——特德·蒋,《呼气》
这句话的作者是

输出:

 特德·蒋


演示提示示例(few-shot学习)

与完成式提示类似,演示可以向模型展示您希望它执行的操作。这种方法有时称为小样本学习,因为模型从提示中提供的几个示例中学习。

示例演示提示:

引用:
“当推理思维被迫一次又一次地面对不可能的事情时,它别无选择,只能适应。”
——N.K. 杰米辛,第五季
作者:N.K. 杰米辛

引用:
“一些人类认为,智慧物种在扩展到外太空之前就已经灭绝了。 如果他们是对的,那么夜空的寂静就是墓地的寂静。”
——特德·蒋,《呼气》
作者:

输出:

特德·蒋


微调提示示例

有了足够的训练示例,您就可以微调自定义模型。在这种情况下,指令就变得不必要了,因为模型可以从提供的训练数据中学习任务。但是,包含分隔符序列(例如,->或###或任何通常不会出现在输入中的字符串)来告诉模型提示词何时结束,并且输出会很有帮助。如果没有分隔符序列,模型可能会继续详细说明输入文本,而不是从您想要看到的答案开始。

微调提示示例(对于已在类似提示-完成对上进行自定义训练的模型):

“一些人类认为,智慧物种在扩展到外太空之前就已经灭绝了。 如果他们是对的,那么夜空的寂静就是墓地的寂静。”
——特德·蒋,《呼气》
###

输出:

特德·蒋

更多的建议

一般来说,输入提示是改进模型输出的最佳杠杆。您可以尝试以下技巧:


本文由“公众号文章抓取器”生成,请忽略上文所有联系方式或指引式信息。有问题可以联系:五人工作室,官网:www.Wuren.Work,QQ微信同号1976.424.585