首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏微言码道

    高效的ChatGPT Prompt (三) 持续优化Prompt

    当然, 参考下这些好的Prompt是非常有价值的. 但写出好的Prompt的一个关键的方式不在于去抄那些好的Prompts, 而是自己持续去改进微调你的Prompts. 根据你的期望,提出一个Prompt, 向ChatGPT提问 获得ChatGPT的响应,比对结果与你的期望的差距, 调整Prompt,弥补ChatGPT忽略的地方 再次获得ChatGPT的响应,检查是否满足你的需求 这才是好的Prompt的生成的最佳方式. 不存在一个放之四海皆标准的好Prompt, 你需要持续的与ChatGPT互动,去微调你的Prompt,才有可能让它更满足你的需求. 这篇文章是我从我过往的文章中随便选出来的 -- JMeter与LoadRunner的简要对比 第一版Prompt 我希望ChatGPT帮助我总结这篇文章说了什么, 所以我的第一版的Prompt是这样的 所以意识到这一点后,我改进了我的Prompt 第二版Prompt 我提供了一段文章,以---开始并结束. --- .... 文章内容过长,忽略.

    1K10编辑于 2023-08-31
  • 来自专栏DeepHub IMBA

    7个有用的Prompt参数

    当涉及到生成式AI时,"prompt"通常指的是作为输入给模型的初始提示或指示。它是一个短语、问题、句子或段落,用来引导模型生成相关的响应或文本。 在使用生成式AI模型时,提供一个清晰、具体的prompt非常重要,因为它会直接影响到模型生成的内容和质量。 一个好的prompt应该明确指定所需的任务、主题或预期的回答,并且提供足够的上下文来引导模型的生成过程。 7、频率惩罚 频率惩罚(Frequency Penalty)是另一个可用于控制生成的输出中单词或短语重复的参数。通过设置更高的频率惩罚值,比如1.5,可以惩罚模型过度出现重复相同的单词或短语。 总结 理解和利用Prompt参数对于从ChatGPT等生成式人工智能模型中获得所需的输出至关重要。通过调整这些参数,可以微调模型的行为并引导模型生成与需求一致的响应。

    89920编辑于 2023-08-30
  • 来自专栏GLM 技术文章

    BPO:灵活的 Prompt 对齐优化技术

    于是有了 「Prompt工程师」这一岗位,专门撰写适配 LLM 的 Prompt,从而让模型能够更好地生成内容。而另一种更为有效的方案则是,让模型向人对齐。 因此,我们提出另外的一种方案,即黑盒提示对齐优化技术(Black-box Prompt Optimization),通过优化用户指令,从输入角度对模型进行对齐。 二、效    果我们基于英文部分开源反馈数据集和 llama2-chat-7b 构建了 BPO 优化模型。 BPO 能够助力 llama2-13b 大幅超过 llama2-70b 版本的模型效果,并让 llama2-7b 版本的模型逼近比它大 10 倍的模型。 在 vicuna-7b 和 vicuna-13b 上,使用 BPO 对齐的模型超过了常用的反馈学习方法—— PPO(Proximal Policy Optimization) 和 DPO(Direct

    66810编辑于 2023-12-22
  • 来自专栏自然语言处理(NLP)论文速递

    Auto-Prompt | 大模型提示(Prompt)优化新方法IPC:可根据用户意图进行定向优化

    为了能够让LLMs发挥出最佳性能,自动提示(Auto-Prompt)工程至关重要。 今天给大家分享的这篇文章,提出了一种名为Intent-based Prompt Calibration (IPC) 的系统,旨在通过使用合成案例样本来优化大型语言模型(LLMs)的提示(prompt)工程 「该方法核心思想是根据用户意图迭代地细化提示」, 在优化过程中,系统生成相关案例样本数据集,并根据生成的数据集优化提示。 为了解决大模型的提示敏感性问题,有人提出使用软提示(soft-prompt)的方法,但此类方法需要对LLM本身做相应的改变才可进行优化。然而最近的研究表明,可以通过大模型本身来优化提示。 优化过程中,首先通过提供一个元提示(meta-prompt)来迭代执行,这个元提示结合最近几次的提示分数,最后引导模型选出分数更高的提示。

    1.6K10编辑于 2024-03-02
  • 来自专栏小七的各种胡思乱想

    解密Prompt系列36. Prompt结构化编写和最优化算法UNIPROMPT

    上一章我们聊了标准化的Prompt生成方案DSPy,但DSPy还是更多依赖few-shot的Prompt编写范式,在纯任务描述型指令上的优化效果有限。这一章我们就重点关注描述性指令优化。 我们先简单介绍下结构化Prompt编写,再聊聊从结构化多角度进行Prompt优化迭代的算法方案UniPrompt1. 相比上一章DSPy里面提到的大模型反思直接优化,以及随机搜索的方案要更加有系统针对性~Prompt Optimization?论文前面很有意思,作者先尝试论证定向Prompt优化这个事它靠不靠谱。 然后再在batch(5-7个样本)粒度上对各个minibach上的feedback进行共性抽取,并直接生成针对section的增,删,改的具体操作建议。 这里两阶段的设计和梯度累计的思路相似,其实还是想要降低个别样本,甚至个别mini-batch在prompt迭代时陷入个性而非共性优化的问题(其实你只要试试用大模型去做过prompt优化就会发现模型非常容易被带偏

    1.3K22编辑于 2024-08-14
  • 来自专栏CSDNToQQCode

    【千帆大模型4】——Prompt优化——游戏对话语句优化

    优化目标: 用于一个学习对话类的游戏。可以让大学生,特别是男孩子学会如何与女孩子对话。 此对话应用于对话小游戏: 【寻找游戏大模王】利用千帆大模型4制作小游戏 优化操作指引 优化指引在新手引导里面,右上角,直接点就行,描述的很直接,有动作指引。 7、对话中不能有不文明用语。 生成结果: 信息1:渣女的问句: “你为什么会对我这么好,是不是真的爱我呢?” 优化效果还是不错的,这里有一些参数我们来看着调整。 这样又生成了个模板: 总结 这只是一个简单的游戏对话的优化,虽然可以在结果中看到想要解析出来我们需要的接口还是比较麻烦的,如果要能根据结果再做反推就好了,期待这个功能。

    44310编辑于 2023-11-22
  • 来自专栏小二十七

    使用 ChatGPT 的 7 个技巧 | Prompt Engineering 学习笔记

    概述 前段时间在 DeepLearning 学了一门 Prompt 的课程,吴恩达本人授课,讲的通俗易懂,感觉受益匪浅,因此在这里总结分享一下我的学习笔记。 为什么要学习 Prompt ? ,因为不存在完美的 Prompt 了解 AI 的能力:目前大模型的能力局限在:摘要,推理,转换,扩展等能力上,目前的 AI 并非无所不能,不要过分神话,也不要过分贬低它 总而言之,学习 Prompt 提示词可以帮助您更好地与 但是,通过优化你的问题或提示(prompt),你可以降低这种情况的可能性。方法如下: 要求引用来源:在询问事实性信息时,要求模型引用其信息来源。 这也是开始说的 不要迷信完美的 Prompt 的原因所在了。 总结 Conslusion 吴恩达的这门 Prompt Engineering 课程,主要讲解了使用 Prompt 的基本原则,还有 LLM 大模型在各个场景下的使用方式。

    97010编辑于 2023-08-28
  • 来自专栏Java帮帮-微信公众号-技术文章全总结

    Tomcat7优化

    用了很久的Tomcat,没怎么看过它的优化,今天抽出时间研究了下,将内容记录下。 示的参数来优化tomcat。    二、优化 1. 禁用AJP协议   (1)通过禁用AJP协议,达到在集群的时候提高处理请求的时间。 将BIO通讯模式修改为NIO通讯模式   (1)tomcat通讯协议支持http1.0和1.1,tomcat默认走的是BIO通讯模式,tomcat7和tomcat8之所以默认的都是效率低下的BIO通讯模式 优化连接器   最佳实践:   5.

    2K100发布于 2018-03-15
  • AI提示词(Prompt)设计优化方案 _ 高效使用AI工具

    AI 提示词(Prompt)设计优化方案 | 高效使用 AI 工具嘿,各位技术探索家们!在这个 AI 横行的时代,你是不是常常感觉自己和 AI 之间隔着一层 “神秘面纱”? 迭代优化机制建立设计提示词不是一蹴而就的,需要不断打磨、优化 。建立提示词优化闭环,包含测试、评估、改进三个阶段。 如果查询到航班取消,AI 客服接着说:“非常抱歉,您的航班已取消,系统已自动为您触发改签建议流程,我这边为您推荐几个合适的改签航班……”AI提示词(Prompt)设计优化方案 | 高效使用AI工具六、代码实现 请举例说明提示词的迭代优化过程优化案例:初始提示:"写一篇关于新能源汽车的文章"1st优化:"写一篇2000字的行业分析文章,重点对比比亚迪和特斯拉的技术路线"2nd优化:"补充2024年最新电池技术参数 自动化优化系统# 提示词自动优化算法框架def auto_optimize(prompt): while True: response = call_llm(prompt)

    3.5K10编辑于 2025-03-29
  • 来自专栏NLP/KG

    Prompt工程师指南应用篇:Prompt应用、ChatGPT|Midjouney Prompt Engineering

    Prompt工程师指南应用篇:Prompt应用、ChatGPT|Midjouney Prompt Engineering 1.ChatGPT Prompt Engineering 主题: 与 ChatGPT A Comparative Study on ChatGPT and Fine-tuned BERT (Feb 2023) A Prompt Pattern Catalog to Enhance Prompt 3.Prompt 应用 在这个指南中,将介绍一些高级和有趣的方式,通过 prompt engineering 来执行有用的更高级别的任务。 请注意,本节正在积极开发中。 例如,我们可以使用它来生成情感分类器的快速样本,如下所示: Prompt: 生成10个情感分析的例子。这些例子被分类为正面或负面。生成2个负面例子和8个正面例子。 DATE_UNDERSTANDING_PROMPT = """ # Q: 2015 is coming in 36 hours.

    2K30编辑于 2023-05-15
  • 来自专栏AI

    Prompt工程

    评估程序(或“评估”)对于优化系统设计很有用。

    66310编辑于 2024-05-09
  • 来自专栏数据社

    Prompt Engineering

    Shopping in Toronto 7. Travel tips for Toronto 8. Sightseeing in Toronto 9. What to do in Toronto

    38120编辑于 2023-10-22
  • 来自专栏ClearSeve

    Windows7 系统优化

    Diagostic policy server 检测网络 禁用 print Spooler 打印机 禁用 Superfetch 加速了固态硬盘的寿命损耗禁用, 机械键盘自动 Windows Defender 禁用 Windows Update 禁用 Windows Search 文件索引

    3.2K50编辑于 2022-02-11
  • 来自专栏数据社

    Prompt Engineering

    Shopping in Toronto 7. Travel tips for Toronto 8. Sightseeing in Toronto 9. What to do in Toronto

    41610编辑于 2023-10-22
  • 来自专栏圆圆的算法笔记

    NLP Prompt系列——Prompt Engineering方法详细梳理

    这篇文章详细汇总了近2年10篇论文中3种Prompt Engineering方法,主要包括人工构造prompt、自动生成prompt、隐空间prompt3种类型,看看顶会论文中都是如何构造prompt模板并以此提升 1 人工构造prompt 最基础的方法就是基于人工知识来定义prompt模板。Prompt模板可以分为prefix prompt和cloze prompt两类。 prompt模板的效果选择最优的prompt模板,或对多个prompt模板结果进行融合。 3 隐空间中的prompt 上面介绍prompt模板都是具体文本的prompt,另一种类型的prompt是在隐空间的prompt。 GPT Understands, Too(2021)采用的思路是将人工定义的prompt的token对应的embedding从预训练模型输出的改为一个可学习的hidden向量,让模型去优化

    4.7K31编辑于 2022-09-22
  • 来自专栏【腾讯云开发者】

    一文掌握Prompt:万能框架+优化技巧+常用指标

    我们利用一套统一的模版,解决最困难的初始 Prompt 书写的问题,并结合实际应用一步步的进行优化,从而体系化的完成 “Prompt 工程” 的工作。 02、Prompt 万能框架 在编写 Prompt 时,从0到1的编写出第一版 Prompt 往往是最难的,而基于已有 Prompt 利用各种技巧进行优化则相对简单。 而真的要让 RAG 变得准确好用,还是有很多值得优化的地方,RAG 框架也已经有了多种优化版本。 6.2 让大模型帮你优化 Prompt 我们可以使用各种技巧优化我们的 Prompt,那大模型可不可以帮我们自动优化我们的 Prompt 呢? 利用更多技巧不断优化。 我们认为在一个大模型工程中,“Prompt”应该起到基石般的作用,有效稳定可扩展。

    12.3K109编辑于 2024-07-30
  • 来自专栏NLP/KG

    Prompt进阶系列4:LangGPT(构建高性能Prompt实践指南)--结构化Prompt

    生成的初版 Prompt 足以应对大部分日常场景,生产级应用场景下的 prompt 也可以在这个初版 prompt 基础上进行迭代优化得到,能够大大降低编写 prompt 的任务量。 - 迭代优化能力强,能通过不断调整和测试Prompt的表现,持续改进Prompt质量。 - 能结合具体业务需求设计Prompt,使LLM生成的内容符合业务要求。 可考虑从不同角度给建议,如从Prompt的语法、语义、逻辑等不同方面进行建议。 7. 在给建议时采用积极的语气和表达,让用户感受到我们是在帮助而不是批评。 8. Prompt,慢慢思考并一步一步进行输出,直到最终输出优化Prompt。 公文笔杆子模板 来源:https://m.okjike.com/originalPosts/64c09eb738acc7bb511e4291 # Role:公文笔杆子 ## Background

    1.6K11编辑于 2024-03-23
  • 来自专栏小七的各种胡思乱想

    解密prompt系列39. RAG之借助LLM优化精排环节

    精排模型的训练目标常用的有几种,有全局优化的ListWise,有每个item独立拟合ctr等直接目标的pointwise,还有对比优化的pairwise。 UPR论文直接使用大模型,基于以下的prompt模版,计算query每个字的解码概率取平均作为P(query|content)的近似,因为可以并行解码,所以这个方案虽然用大模型但是也不算慢。 github.com/sunnweiwei/RankGPT RankGPT提出了基于permutation的大模型排序方案,模型会输入多个content上文,并使用指令要求LLM根据内容的关联性按顺序输出内容序号, prompt 论文使用以下prompt让模型对两个内容进行对比,输出A/B的结果,这里论文也是使用了prob 概率,不过相对于pointwise使用所有内容的prob概率直接进行排序,pairwise会两两进行对比,

    97521编辑于 2024-09-26
  • 来自专栏Alan的blog

    chatgpt prompt指南

    - 使用分隔符清楚的指示输入的不同部分 (分隔符可以是任何的符号,将特定文本与提示的其余部分分隔开)

    61400编辑于 2023-05-04
  • 来自专栏博文视点Broadview

    PHP 7 CSS与JavaScript优化

    本文我们将讨论两种针对CSS、JavaScript文件的优化手段——合并和缩小。本文选自《高性能PHP 7》。 性能在Web应用程序中起着至关重要的作用,甚至谷歌也很在意其查询性能。 最好能优化、压缩和缓存一切。 合并 在合并过程中,我们可以将所有CSS文件合并为一个文件,并且使用同样的方法对JavaScript文件进行合并,从而为CSS和JavaScript创建一个单独的文件。 grunt cssmin 之后,通过下面这行命令优化JavaScript文件。

    3.5K20发布于 2020-06-11
领券