CMU 10423 生成式人工智能:LEC10(新鲜出炉、提示工程、情境学习)-1 概述
最编程
2024-09-30 19:06:52
...
该文件主要内容涵盖了**In-context Learning(ICL)**的概念,讲解了零样本学习(Zero-shot Learning)、少样本学习(Few-shot Learning)、提示工程(Prompt Engineering)等主题。以下是对主要部分的概述:
- 零样本学习与少样本学习(Zero-shot and Few-shot Learning):
-
零样本学习:训练数据中没有任何包含测试数据标签的样本,模型需要从未见过的标签中进行推断。
-
少样本学习:训练数据中包含每个标签的少量样本(如2-4个),模型需要通过这些少量的样本进行学习。
-
提示(Prompting):
- 语言模型通常会根据前面给定的上下文生成下一个词语。
- 关键思想是通过提供一个前缀(prompt),让模型根据提示的上下文生成期望的答案。
- 给出了许多不同类型的提示范例,包括文本补全、翻译、问答、摘要等。
-
大语言模型(LLM)的能力:
- 通过提示,可以将LLM应用于各种自然语言处理任务。
- 零样本LLM模型如GPT-2和GPT-3在无监督预测任务中表现出色。
-
指令微调模型(Instruction Fine-tuned Models):
- 像ChatGPT和Llama-2 Chat等模型通过微调,针对特定的提示模板被训练成聊天助手,并遵循系统/用户/助手的分段格式。
-
Few-shot In-context Learning:
- 通过提示的方式让模型利用训练数据中的少量样本,在推理过程中获取规律并进行预测。介绍了few-shot in-context learning对样本顺序、标签平衡等的敏感性。
-
提示工程(Prompt Engineering):
- 强调了不同的提示会影响模型的输出结果,提出了通过选择模型在给定提示下最小的困惑度来优化提示的方法。
-
连锁式思维提示(Chain-of-Thought Prompting):
- 提出让模型进行逐步推理可以提高few-shot in-context learning的性能。
-
学习提示(Learning to Prompt):
- 提到通过不同方式学习更好的提示,如提示改写、基于梯度搜索的提示优化以及提示调优等方法。
整体内容聚焦于如何有效利用提示与大语言模型进行少样本与零样本学习,并探讨了提示工程的相关技巧与方法。
上一篇: 设计模式 - 观察者模式