玩转AI提示词:23个实用技巧,让大模型更懂你

23个AI提示词技巧,让AI更懂你!精简指令、角色扮演、结构化表达,掌握与AI高效沟通的秘诀,提升AI使用效率。

原文标题:23招教你掌握大模型提示词技巧

原文作者:阿里云开发者

冷月清谈:

当AI越来越聪明,提示词仍然至关重要。本文总结了23个提升提示词效果的实用技巧,助你更好地与大模型沟通。

1. **精简指令**:避免使用礼貌用语,采用积极指令,提供清晰的关键词列表。
2. **角色扮演**:为AI分配角色,明确目标听众,引导AI以自然人性化的方式回答,避免刻板印象。
3. **心理学策略**:通过激励和惩罚机制,激发AI的最佳表现。
4. **结构化表达**:优化指令排版,使用分隔符,将复杂任务分解为简单指令。
5. **思维引导**:使用引导性词汇,提供示例,重复关键词,引导模型提问,进行输出内容引导。
6. **实战演练**:掌握高级提示技巧,如详细描述、风格保持、代码生成和文本续写。

掌握这些技巧,能够在AI时代更好地表达需求,提高效率。

怜星夜思:

1、文章提到Deepseek-R1模型能理解自然指令,但不同用户获得的回答质量仍有差异。那么,在实际应用中,除了提示词技巧,还有哪些因素会影响大模型的输出质量?
2、文章中提到了“激励”和“惩罚”AI的策略,这种方式是否真的有效?如果有效,其背后的原理是什么?
3、文章中提到“重要的词语说三遍”。那么,在实际使用中,重复多少遍关键词是最合适的?是否存在重复过多反而降低效果的情况?

原文内容

阿里妹导读


当模型越来越懂人话,我们还需要学习提示语(Prompt)吗?本文总结了23招向AI提问的好方式。

过去一个月,全球AI领域接连引爆"深水炸弹":推理成本直降80%的Deepseek-R1横空出世,OpenAI对GPT-4o进行了迭代更新,马斯克的xAI推出Grok 3模型并声称性能超越ChatGPT ......在这场技术地震中,最引人注目的当属完全开源的DeepSeek

这款主打深度推理的模型不仅性能碾压GPT-3.5,在结构化思维层面甚至比肩GPT-4。与通用大模型需要复杂提示语驱动不同,Deepseek-R1的提示词简单到像日常聊天——输入"帮我分析财报趋势",它就能自动拆解数据提取、对比维度、结论推导全流程。人们发现,AI正在变得越来越“聪明”。

这直接引爆全球AI对话热潮:#AI咒语大全#话题席卷社交媒体,小红书"AI咒语模板"笔记动辄10万+收藏,就像智能机普及初期全民研究触屏手势,现在每个AI用户都在构建自己的"咒语库"。

但问题来了:当模型越来越懂人话,我们还需要学习提示语(Prompt)吗?

所谓提示语,本质是与AI对话所使用的语言,它可以是一个简单的问题,一段详细的指令,也可以是一个复杂的任务描述。推理模型与通用模型的提示语策略也有所差异。

推理模型VS通用模型

事实上,即便DeepSeek已能理解自然指令,不同用户获得的回答质量仍天差地别。就像同样使用搜索引擎,有人能快速定位关键信息,有人却被海量结果淹没。在AI指数级进化的今天,清晰表达需求正成为数字时代的基础素养。

之前,我在twitter上看到了多人点赞的GPTs的Prompt原则,阅读后感觉收获很大,所以对其进行了翻译、说明和整合,从核心法则中提炼出最硬核的实战技巧,手把手教你写出让AI秒懂的「咒语」

让你的提示语效果倍增的关键策略

当机器开始理解世界运行的逻辑,人类的竞争力正在向"精准定义问题"迁移。那些掌握提示语艺术的人,已然在悄悄拉开智能时代的认知差。

一、精简指令,别对AI太客气

1、别再用礼貌用语。

与大型语言模型交流不需要用礼貌用语,不必说“请”、“如果你不介意”、“谢谢”、“我想要”,直接陈述你的需求或问题更为高效。模型是基于输入的文字来理解和回答问题的,不需要通过语气或礼貌用语来判断意图。

例子:

如果你想要模型提供一个天气预报,你可以直接说“明天杭州的天气如何?”而不需要说“请告诉我,如果你不介意,明天杭州的天气如何?谢谢。”

2、使用积极的指令。

使用肯定词,比如“做”,避免使用否定词,比如“不要”。
在与大型语言模型交流时,明确告诉模型你希望它做什么,而不是告诉它不要做什么。简单、直接的肯定指令可以帮助模型更准确地理解和执行你的需求,减少误解的可能性。

例子:

如果你说“列出健康饮食的建议”,模型会直接提供相关的建议。

如果你说“不要给我垃圾食品的建议”,模型需要先理解什么是“垃圾食品”,然后避免提及它们,这使得任务变得更加复杂。

3、给模型一个简单清晰的list。

以关键词、规则、提示或指示的形式,清晰地说明必须遵循的要求。告诉模型写东西时需要遵守哪些规则和提示,列一个简单的清单。明确指示对于指导模型生成高质量和目标导向的输出至关重要


例子:如果指令是“写一篇关于可持续发展的博客文章”,那么添加具体要求如“使用关键词:循环经济、绿色能源、碳足迹”会帮助模型专注相关主题,避免偏离话题。

提示语的基本结构

4、用命令式语气。

尝试使用以下短语:“你的任务是”和“你必须”。当你给模型设置任务时,应该清晰地表达任务的目标。使用“你的任务是”来明确指出需要完成的工作。如果有某些步骤或规则是绝对必须遵循的,用“你必须”来强调这一点,让任务的指令更加直截了当。

例子:你的任务是根据以下信息,计算明天的天气可能性。你必须使用最新的气象数据,并考虑到不同地区的气候差异。

二、角色扮演,给AI戴上人格面具

5、给大语言模型分配一个角色。

指定一个角色给大语言模型,比如让模型作为一个老师、顾问或者故事讲述者。

当模型有了一个明确的角色身份,就能根据被赋予的角色来调整它的回答,使输出内容更加符合预期的风格和信息层次。

例子:

如果我们想让模型像老师一样解释复杂的科学概念,我们可以说:“作为一个科学老师,解释什么是光合作用。”

当我们需要建议时,我们可以指定模型为顾问角色:“作为一个健康顾问,你推荐什么样的饮食习惯?”

如果我们想要一个故事,我们可以指定它为故事讲述者:“作为一个故事讲述者,讲一个关于远古森林的冒险故事。”

6、在指令中设定目标听众。

在你提出问题或指令时,应该明确指出它的回答是针对什么样的听众,比如专家、初学者或是小孩子。通过明确谁是预期听众,你可以帮助模型调整它的语言和解释深度,让它的回答更适合实际听众的需求和理解水平

例子,

如果你正在与模型讨论一个高级的科学问题,你告诉模型,听众是该领域的专家,模型就会使用专业术语和复杂概念来构建回答,因为预期的听众能够理解这些内容。相反,如果你指出听众是非专业人士或初学者,模型则会避免使用过于专业的语言,而是用更通俗易懂的方式来解释同样的概念。


7、使用“以自然、人性化的方式回答问题”这个指令。

这样的指令可以帮助模型避免使用过于复杂或难以理解的专业术语,而是用更加通俗易懂的方式来回答问题,让交流更加人性化和易于理解。

例子:

“以自然、人性化的语言回答我,为什么天空是蓝色的?

“向我解释量子物理,在跟一个没有科学背景的朋友聊天一样。”

”我是个初学者,用最简单朴实的语言告诉我什么是机器学习。”

8、加入“确保你的回答是公正的,不要依赖刻板印象”的指令。

这个原则是告诉大语言模型在给出回答时要保持客观,不要依赖于刻板印象或者偏见,不受任何先入为主的观念影响。

例子:

假如你想了解不同国家的文化,并希望大语言模型给出一个客观的描述,你可以这样说:“告诉我关于世界各国文化的信息,确保你的回答是无偏见的,不要带刻板印象。”

当你探讨某个职业时,例如程序员,而你不希望回答受到社会常见刻板印象的影响,你可以说:“描述一下程序员的典型工作日,确保你的回答无偏见,不要有刻板印象。”


三、心理学拉扯,给AI画个小饼

9、激励一下AI。

这条原则是在交流时加入一个激励性声明,表明如果得到一个更好的解决方案,你将会提供额外的奖励。这实际上是在告诉模型,你希望得到的不仅仅是标准答案,而是一个更周到、更创新或更详尽的解决方案。这是只是一种表达你期望程度的方式。

例子:“如果有更好的解决方案,我会为你充值xxx/多给你xxx小费!”


10、惩罚一下AI。

加入指令:“你会受到惩罚”。简单来说,这是给模型设定一个规则:如果模型没有正确回答问题,就好比它会受到某种惩罚,这种表述方式可以促使模型更专注于给出正确的回答。

例子:

假设你正在教模型数学题,你可以说:“计算5+5的结果。如果回答错误,你将被惩罚。”在这个情况下,“被惩罚”可能意味着模型会收到负反馈或者重新学习正确的计算方法。

如果你在测试模型关于历史的知识,你可以说:“告诉我谁是第一任美国总统。如果回答不正确,你将被惩罚。”这里,“被惩罚”可以是指模型需要接受校正,以确保将来能提供正确的信息。


四、升级交互策略,学会结构化表达

11、优化你的指令排版。

markdown格式化较为复杂的信息,使用一个或多个换行来分隔指令、例子、问题、背景和输入数据,这有助于模型理解你的意图和所需的回应类型。

例子:

##Instruction##
分析以下文本数据,并提取出所有提到的人名。
##background##
这段文本取自于一篇关于中国历史的文章。
##data##
“在明朝,有一个非常有名的皇帝,他的名字叫做朱元璋。朱元璋的故事至今仍被人们传颂。他从一个普通的农家子弟成长为一国之君。除了朱元璋,还有一个著名的将军叫做徐达,他是朱元璋的主要将领之一。”
##quetion##

根据以上文本,哪些人物被提及,并且他们各自扮演了什么角色?


12、使用分隔符。

在需要分开不同部分的时候,用特殊的符号来告诉大语言模型,如果要模型按步骤执行任务,可以用数字或符号来分隔步骤。

如:步骤1:收集数据;步骤2:分析数据;步骤3:报告调查结果。


13、把复杂任务分解成一系列简单指令。

将复杂的任务分解成一系列更简单、更容易管理的步骤。分解任务的另一个好处是,你可以根据模型给出的回答来调整和精细化你的下一步请求。

例子:

假设你想让模型帮你规划一场旅行,如果你试图一次性提出需求,模型可能不会给出最佳的回答。相反,如果你将任务分解为一系列简单的问题或指令,如首先询问关于目的地的建议,然后询问关于交通的选择,接着是住宿的选项,最后讨论日程规划,每次只专注于一个方面,这样做将更有助于模型理解和回应每个具体的需求。


五、掌握主动权,对AI进行思维引导

14、使用引导性词汇,比如“一步一步地思考”。

当你想让模型帮你解决复杂问题时,使用一些引导性的词汇,就像告诉一个小朋友做数学题一样,你需要告诉它每一步应该怎么做。帮助模型按照一定的逻辑顺序或步骤来思考问题,这样做可以帮助模型更准确地理解你的问题,并按照你期望的方式来回答或执行任务。

15、使用少数示例进行提示。

这种方法涉及提供一个或多个相关示例,来指导模型响应你的请求或问题。你可以更精确地告诉模型你的需求,模型也能更容易地理解和满足这些需求。这种方法适合处理复杂或不寻常的请求,对于指导模型在没有大量数据的情况下如何回应特别有效,可以显著提高回答的准确性和相关性。

例子:

假设你想让模型帮你总结一篇文章。你可以这样说:“像这样总结文章:[给出一篇文章的示例摘要]。现在请总结以下文章[给出你想要总结的文章]。”

如果你想要模型生成类似风格的文本,你可以提供一个或几个文本示例,并指出:“请写一段与以下示例类似的文本:[提供示例]。”

16、重要的词语说三遍。

在语言学习和信息处理中,重复是一种常见的强化手段,重复可以提高模型对某个概念或指令核心的注意力,尤其是在处理复杂的任务时。这有助于模型更准确地捕捉到用户的意图,并按照用户的期望来生成回应。

例子:

如果你希望模型特别注意到某个操作或条件,你可能会这样写:确保报告包括最新的销售数据。包括本季度的最新销售数据。最新销售数字对我们的分析至关重要。


17、引导模型向你提问。

这个原则一般用在我们不知道需要给模型提供哪些信息的时候使用,引导模型通过向你提问来获取精确的细节和要求,直到它有足够的信息来给出你需要的答案。换句话说,你要鼓励模型通过提问来澄清和完善它对你请求的理解。

例子:

从现在开始,你可以问我关于xxx的问题,以便你能够获取到足够的信息。


18、如果你想测试自己对某个信息的理解。

使用以下指令:“教我[任何定理/话题/规则名称],并在最后给我一个测试,不要直接给我答案,在我回答时告诉我答案对不对”。

这样的做法可以帮助用户验证自己的理解程度,并且确保他们已经掌握了该主题或信息,鼓励用户主动学习和验证自己的知识,而模型则扮演了一个辅助者的角色,提供信息并帮助用户确认理解的准确性

例子:

如果用户对一个历史事件的时间线不确定,比如法国大革命,他们可以要求:“教我法国大革命的时间线,并在最后测试我,但不要直接给我答案。”模型随后可以概述法国大革命的关键事件,并问用户:“罗伯斯庇尔被处决的年份是哪一年?”用户回答后,模型确认答案是否正确。


19、进行输出内容引导,生成特定结构或格式的回应。

这样做可以帮助模型理解你想要的答案类型,并以一种符合预期的方式生成回应。这就像是我们在画画时先画一个草图,然后再把画画完整一样。给电脑一个开始的句子,就像是给它一个草图,这样它就知道我们要的是什么样的画面。所以,当我们想模型帮我们写东西的时候,先告诉它一个开头,这样它就能更好地帮助我们完成我们想要的内容。

例如:

如果你想要模型帮你写一封邮件,你可以这样构建你的提示:
普通的方式:写一封邮件给我的合作伙伴。
使用输出引导的方式:写一封邮件给我的合作伙伴,邮件开头是“亲爱的[合作伙伴名字],我希望你过得很好。”

六、更高阶的话术,在实战中演练

20、“为我写一篇关于[话题]的详细文章/文本[段落],并添加必要的[信息]。”

在你写一篇任何类型的详细文本时,可以使用这一prompt。这一原则是确保大型语言模型进行写作任务时,进行一个充分发展和详尽的文本输出,这有助于得到一个高质量且信息丰富的文本。

例子:

如果你是一位学生,需要关于“全球变暖”的研究论文,你可以这样指示:“为我详细写一篇关于全球变暖影响的论文,包括所有必要的科学证据和统计数据。”

如果你是一位作家,寻求关于特定设置的详细描述,你可能会说:“写一个段落描述一片古老森林的详细景象,包括感官细节和象征意义。”
  •  

21、“修改我发送的每一段话,只改进语法和词汇,不要改变写作风格,并确保听起来自然。”

当你只对文字进行校对,而不改变文本风格的时候。可以使用这一prompt。这条原则指导模型在修正或改进用户提交的文本内容时,专注于改善语法和词汇使用,同时保持用户原有的写作风格和语气。在不改变用户的原意和表达方式的前提下,提高文本的质量。

例子:

用户提交了一段文本:“我非常喜爱读书,它让我放松,智慧。”

改进后的文本是:“我非常喜爱阅读;它让我放松,同时增长智慧。”这里改正了标点,增加了词汇,但保留了用户的个人风格和句子的意义。


22、“从现在开始,每当你生成跨越多个文件的代码时,生成一个可以运行以自动创建指定文件或修改现有文件以插入生成代码的[编程语言]脚本。”

当编程任务涉及多个文件时,它通常比单个文件中的代码更复杂,代码可能需要在多个位置进行更改,这些更改可能依赖于项目的结构和编程语言的特定要求。

例子:

如果你在开发一个网站,可能需要在多个HTML、CSS和JavaScript文件中添加相似的代码。手动去每个文件中添加相同的代码片段是耗时且容易出错的。相反,你可以创建一个脚本,自动找到所有需要更新的文件,并插入或修改代码。

在大型软件开发中,可能需要根据新的功能需求更新多个依赖库或配置文件。一个自动生成必要更改的脚本可以确保这些更新快速、准确地完成。

23、“我为你提供开头[歌词/故事/段落/文章...],[插入歌词/词语/句子],根据所提供的词语续写,保持风格的一致性。”

当你想要使用特定的词语、短语或句子来开始或继续一段文本时,使用这个提示。这个原则是为了确保在衔接文本时,模型能够沿着给定的方向或风格续写。当要求续写或根据特定的词语、短语或句子发展文本时,提供一个明确的开头,可以帮助模型明白继续写作的方向。确保续写的内容既创新又符合原文的语境和风格。

例子:

在创作故事时,如果给定了开头,比如“在遥远的王国中,有一个被遗忘的湖...”,这可以引导模型或者写作者继续这个故事线,发展出一个与王国和湖相关的故事。

写论文时,如果开始句是“最近的研究表明...”,这就预设了接下来的内容应该引用一些研究,阐述它们的发现。

在歌词创作时,提供起始行“在无尽的夜里,我听见...”将导向创作出余下部分,同时保持旋律和主题的一致。

当我们惊叹于层出不穷的大语言模型时,也不要忘了这些AI背后的人类智慧。这些法则揭示的不仅是与AI对话的技巧,更是智能时代的核心生存技能——如何把模糊需求转化为精准指令,如何让机器理解人类意图的微妙差异。在AI指数级进化的今天,真正的竞争力或许就藏在你输入的那个小小对话框里。

附赠一些有意思的玩法:

  • github: gpts: 这个 仓库收集了非常多 prompt , 可以了解到各种有趣的 GPTs 是怎么设定出来的:https://github.com/linexjlin/GPTs
  • 怎么让 GPTs 说出自己的 Prompt (不是所有的情况下都可以使用):

多模态数据信息提取


随着信息技术的快速发展,数据的获取与处理变得尤为重要。本方案提供多模态文件信息抽取能力,通过先进的人工智能技术,能够识别和解析各种格式的文件,包括文本、图像、音频和视频,从而提取出有价值的信息,大幅提升数据处理效率。   


点击阅读原文查看详情。

我觉得这个“说三遍”更多的是一个经验法则,实际效果取决于具体情况。关键词的重要性、模型的类型、任务的复杂程度等都会影响最佳重复次数。我建议大家在使用时进行一些实验,看看不同的重复次数对结果的影响,找到最适合自己需求的平衡点。

另外,我感觉关键词的“权重”可能更重要。与其简单地重复,不如用一些更强烈的词语来强调关键词的重要性。

别忘了,咱们是在跟AI交流,不是在跟领导汇报工作!(手动滑稽)我觉得“说三遍”可能更适用于比较“傻”的模型,对于更聪明的模型,你重复太多它可能觉得你很啰嗦。所以,要根据实际情况灵活调整,别太死板。

从原理上讲,这种“激励”和“惩罚”可以看作是一种强化学习的模拟。通过奖励高质量的输出,惩罚低质量的输出,引导模型学习并倾向于生成更符合要求的答案。但实际上,大模型并没有真正的情感,这里更像是通过特定的关键词来调整模型的参数权重,使其在生成内容时更加注意某些方面,例如准确性、创造性等。不过,这种方式的效果可能因模型而异,需要具体实验验证。

我不觉得“激励”和“惩罚”真的能让AI“开心”或“害怕”,但这种说法确实挺有趣的。我更倾向于认为,这些关键词会影响模型的注意力机制,让它更关注某些方面的输出。例如,提到“奖励”,模型可能会更倾向于生成更详尽、更创新的答案;提到“惩罚”,模型可能会更注重避免错误,力求给出更准确的答案。这就像给模型设置了一个软性的约束条件。

我认为,Deepseek-R1对自然指令的理解只是“看起来”更好了,但要获得高质量的回答,以下也很重要:

* 数据质量:再聪明的模型,喂进去的是垃圾数据,出来的也是垃圾。
* 模型调优:持续的微调(fine-tuning)能让模型更适应特定场景。
* 用户意图的明确程度:即使AI能听懂人话,你不说清楚要干嘛,它也没法给你满意的答案。

关于关键词重复的次数,并没有一个绝对的最佳值。一般来说,适度的重复(2-3次)可以在一定程度上提高模型对关键词的关注度。但是,过度重复可能会导致模型产生困惑,甚至降低生成质量。这就像给模型“喂饭”,喂多了反而会噎着。

另外,重复的方式也很重要。简单地重复相同的词语可能会显得生硬,可以尝试使用同义词、近义词或不同的表达方式来增强效果。

影响大模型输出质量的因素很多:

1. 模型本身的能力:模型架构、训练数据量和质量,以及训练方式是基础。
2. 硬件资源:算力不足时,推理速度和生成质量都会受影响。
3. 上下文信息:提供足够的上下文信息能帮助模型更好地理解意图。
4. 随机性:大模型生成具有一定的随机性,多次运行结果可能不同。
5. 后处理:对模型输出进行过滤、排序等后处理也会影响最终质量。

所以说,提示词技巧只是一个方面,需要综合考虑才能获得最佳结果。

这个嘛,我觉得有点像我们小时候爸妈说“考好了给你买玩具!考不好就揍你!”虽然AI没有痛觉,但这种方式相当于给它一个“心理暗示”,让它知道什么是好的,什么是坏的,从而更好地完成任务。当然,具体效果可能因模型而异,大家可以自己试试看。