LLM最全「怪癖」首曝光!马里兰OpenAI等30+学者祭出75页提示报告
新智元
共 7825字,需浏览 16分钟
·
2024-06-17 13:19
新智元报道
新智元报道
【新智元导读】大语言模型提示中,竟有不少「怪癖」:重复某些内容,准确性就大大提高;人名变匿名,准确性就大大下降。最近,马里兰OpenAI等机构的30多位研究者,首次对LLM的提示技术进行了大规模系统研究,并发布75页详尽报告。
提示,是指向GenAI提供提示,然后生成响应的过程。
提示技术,是一个蓝图,描述如何构造一个提示或多个提示的动态排序。它可以结合条件或分支逻辑、并行性或涉及多提示的架构。
提示工程,是指通过修改或更改正在使用的提示技术,来开发提示的迭代过程。
奇奇怪怪的大语言模型
三大提示技术
文本提示
-
角色提示:指定AI一个角色,作家、数学老师等。 -
风格提示:在提示中指定所需的风格、语气或体裁。 -
情感提示:将与人类心理相关的短语纳入提示,如「这对我的职业生涯非常重要」。 -
系统2 Attention(S2A):要求LLM重写提示语,并删除其中与问题无关的任何信息,然后,自动将新的提示传递给 LLM,以获取最终响应。 -
SimToM:涉及多人或多物的复杂问题时,LLM试图确定一个人所知道的一系列事实,然根据这些事实回答问题。这是一个双提示过程,有助于消除提示中无关信息的影响。 -
重述和回答(RaR):指示LLM在生成最终答案之前,重述和扩展问题。 -
重读(RE2):在提示语中加上「再次阅读问题」提示,可显著提高大模型在复杂推理问题性能。 自我追问(Self-Ask):让LLM先决定是否需要针对给定的提示提出后续问题。若需要,LLM会生成这些问题,然后回答这些问题,最后回答原始问题。
-
从少到多提示法:提示LLM将给定的问题分解成子问题,但不求解这些子问题。分解完成后,再依次解决这些子问题,每次都将模型响应附加到提示中,直到得出最终结果。 -
分解提示(DECOMP):少量样本会提示LLM如何使用某些函数,比如包括字符串分割或互联网搜索等(单独作为工具调用)。鉴于此,LLM将其原始问题分解为子问题,并将其发送给不同的函数。 -
「计划-解决」提示:包括一个改进的零样本CoT提示——让我们先了解问题,并制定一个解决问题的计划。然后,让我们执行计划,逐步解决问题。 -
思维树(ToT):从初始问题开始,然后以思维的形式生成多个可能的步骤,从而创建一个树状搜索问题。并评估每一步在解决该问题上所取得的进展。 Skeleton-of-Though:将一个复杂问题分解成多个子问题,并行地让LLM分别回答,最后将结果合并就能得到整体回答。
多语种提示
多模态提示
图像
案例研究:自杀危机综合症(SCS)的标注
PRISMA审查过程
评论