首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏coder

    LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts

    LLM 中什么是Prompts?如何使用LangChain 快速实现Prompts 一 Prompt是一种基于自然语言处理的交互方式,它通过机器对自然语言的解析,实现用户与机器之间的沟通。 from langchain.prompts import FewShotPromptTemplate, PromptTemplate from langchain.prompts.example_selector 看个例子: from langchain.prompts import FewShotPromptTemplate, PromptTemplate from langchain.prompts.example_selector from langchain.prompts import FewShotPromptTemplate, PromptTemplate from langchain.prompts.example_selector.ngram_overlap from langchain.prompts import FewShotPromptTemplate, PromptTemplate from langchain.prompts.example_selector

    69610编辑于 2024-09-06
  • 来自专栏linyimin的专栏

    chatgpt-prompts

    chatgpt-prompts 油猴扩展脚本,在 ChatGPT 输入框中输入 '/' 时列出提示词,支持按照语言进行过滤。 Chrome、Firefox、Edge,其他主流浏览器都是主动兼容这3个浏览器的; 安装Tampermonkey浏览器拓展,可以从 Tampermonkey官网 安装; 从GreasyFork安装chagpt-prompts

    32810编辑于 2023-06-19
  • 来自专栏Michael阿明学习之路

    LangChain学习:models,prompts,parsers

    文章目录 1. model 2. prompts 执行方法1 执行方法2 3. parsers learn from https://learn.deeplearning.ai/langchain /lesson/2/models,-prompts-and-parsers 1. model 这里使用的是 AzureChatOpenAI from config import api_type, api_key AzureChatOpenAI from langchain import OpenAI, ConversationChain, LLMChain, PromptTemplate from langchain.prompts deployment_name` in the constructor to refer to the "Model deployment name" in the Azure portal. 2. prompts

    62630编辑于 2023-07-21
  • 来自专栏JavaEdge

    Go get报错:terminal prompts disabled

    go get disable “terminal prompt” by default(Go get 命令默认禁用terminal prompt,即终端提示)

    2.6K10发布于 2021-02-23
  • 来自专栏从流域到海域

    LangChain手记 Models,Prompts and Parsers

    整理并翻译自DeepLearning.AI×LangChain的官方课程:Models,Prompts and Parsers(源码可见) 模型,提示词和解析器(Models, Prompts and

    37940编辑于 2023-10-12
  • 来自专栏架构驿站

    一文搞懂 AI Prompts (提示)词

    — 01 — 什么是 AI Prompts 词 ? AI Prompt 是一种“输入方式”,通常为一段文本或信息,用于指导 AI 模型生成所需的输出。 — 02 — 为什么在 AI 内容创作中需要 Prompts 词 ? AI 彻底改变了内容创作的方式,但输出的质量取决于 Prompt 词的质量。 — 03 — AI Prompts 是如何工作的 ? AI Prompt 使用自然语言处理(NLP)算法根据特定提示或输入生成响应。 通常来说,AI Prompt 的实现流程涉及如下环节,具体:‍‍‍‍‍‍ 1、需求录入 AI Prompts 通过 NLU (自然语言理解)进行分析。 这样,AI Prompts 可以更准确地理解用户的意图和需求,为后续的生成响应任务提供有价值的输入。

    6.6K52编辑于 2023-12-19
  • 来自专栏趣学前端

    勤学苦练“prompts“,如沐春风“CodeArts Snap“

    CodeArts Snap 上手一段时间了,对编程很有帮助。但是,感觉代码编写的不尽人意。

    16910编辑于 2025-05-25
  • 来自专栏Postgresql源码分析

    go get报错:fatal: could not read Username ... terminal prompts disabled

    问题terminal prompts disabled go get 报错 terminal prompts disabled go get xxx.com/xxx/xxx # cd .; git clone xxx.com/xxx/xxx.git Cloning into 'xxx'... fatal: could not read Username for 'https://xxx.com: terminal prompts

    2.6K30编辑于 2022-05-12
  • LangChain 核心组件剖析:Models、Prompts、Chains 详解

    LangChain的核心思想是将AI应用开发抽象为三个基本组件:Models、Prompts和Chains。 Prompts组件则专注于设计和管理提示词(prompts),通过模板化和动态生成的方式,确保模型接收的指令清晰、有效,从而提高响应的准确性和相关性。 在后续章节中,我们将探讨如何与Prompts组件结合,进一步优化输入设计以提升模型表现。 Prompts 组件详解与应用技巧 在LangChain框架中,Prompts组件是连接用户意图与AI模型输出的关键桥梁。 与传统的直接输入不同,Prompts通过模板化和参数化的方式,使得提示词的设计更加灵活、可复用,同时能够适应多样化的应用场景。 Prompts的核心作用在于标准化和优化与模型的交互过程。

    70310编辑于 2025-11-28
  • 来自专栏醉程序

    fatal could not read Username for https:github.com terminal prompts disabled

    今天就踩坑了 ➜ ~ brew update fatal: could not read Username for 'https://github.com': terminal prompts disabled

    4.2K00发布于 2019-12-29
  • 来自专栏网络安全技术点滴分享

    Awesome ChatGPT Prompts - 提升AI对话体验的精选提示库

    项目标题与描述Awesome ChatGPT Prompts 是一个高质量的ChatGPT提示集合库,旨在为用户提供各种专业场景和角色扮演的对话模板。 便于维护和扩展变量提取功能:自动识别提示中的变量占位符安装指南该项目主要作为Web应用运行,无需复杂安装:克隆仓库:git clone https://github.com/f/awesome-chatgpt-prompts.git

    38910编辑于 2025-08-09
  • 来自专栏AgenticAI

    谷歌 Gemini-CLI Prompts 分享!开源一周斩获 51K Star!

    </压缩逻辑> 最后 Prompt 地址: https://github.com/google-gemini/gemini-cli/blob/main/packages/core/src/core/prompts.ts

    61800编辑于 2025-07-08
  • 来自专栏Soul Joy Hub

    【简单、高效、性能好】SetFit:无需Prompts的高效小样本学习

    SetFit 在 3k 个样本的完整训练集上与微调 RoBERTa Large 相比,如图1-1所示,具有竞争力表现: 与其他小样本学习方法相比,SetFit 有几个独特的特点: 没有提示(prompts )或语言器(verbalisers):当前的小样本微调技术需要手工制作的提示(prompts )或语言器(verbalisers)将样本转换为适合底层语言模型的格式。 SetFit 通过直接从少量带标签的文本示例生成丰富的embeddings 来完全免除prompts 。 训练速度快:SetFit 不需要像 T0 或 GPT-3 这样的大型模型来实现高精度。

    91420编辑于 2022-12-02
  • 来自专栏code秘密花园

    50+ 可以帮助提高前端开发效率的 ChatGPT Prompts

    ://mp.weixin.qq.com/s/X8W5lVW3-NkBBWcW14nSVQ 作者:@VISHWAS GOPINATH 原文:https://www.builder.io/blog/ai-prompts-for-web-developers-chatgpt

    2K21编辑于 2023-08-23
  • 来自专栏phodal

    AutoDev 1.4 规模化 AI 研发辅助:团队 Prompts、自定义活文档、代码检视

    AutoDev GitHub:https://github.com/unit-mesh/auto-dev 团队 Prompts:代码化 Prompt,以在团队扩散 为了响应我同事们对于 TDD (测试驱动开发 )的热情,即 #49 issue 中对于《支持TDD开发模式,根据指定测试生成对应实现》,我们构建了 Team Prompts 的功能。 Team Prompts 示例 让我们来看一个简单的示例,首先你需要在你的代码库里创建(或者配置) Prompt 文件夹,然后使用编写你的一系列 Prompt,诸如于 TDD 里可以是: Tasking.vm Team Prompts vs Custom Prompt 在 AutoDev 1.1 中,我们提供了 Custom Prompt 的功能,它的主要意图是为个人提供一些个性化的配置,而 Team Prompts 通过 Team Prompts 这样的方式,我们可以编写一系列适用于不同场景的 AI 指令,并快速分享给团队的所有人。 我们将持续演进 Team Prompts,以更方便地让大家使用。

    85620编辑于 2023-10-25
  • 来自专栏JavaEdge

    AI 大模型企业应用实战(08)-LangChain用prompts模板调教LLM的输入输出

    超越chatGPT:学习使用prompts模板来调教LLM的输入输出,打造自己版本的"贾维斯" 1 Model I/O:LLM的交互接口 任何语言模型应用程序的核心要素都是......模型。 即 Prompts -> Language models -> Output parsers。 2 基于prompts模板的输入工程 prompts模板:更加高级和灵活的提示词工程。 AIMessagePromptTemplate from langchain.prompts import SystemMessagePromptTemplate from langchain.prompts langchain.prompts import ChatMessagePromptTemplate prompt = "愿{subject}与你同在!" :组成提示词管道的模板 from langchain.prompts.pipeline import PipelinePromptTemplate from langchain.prompts.prompt

    56810编辑于 2025-06-01
  • 来自专栏人工智能前沿讲习

    【源头活水】ICCV23|基于box prompts分割一切!OpenSeeD:简单有效的开放词表图像分割框架

    我们既可以做经典的instance, semantic, panoptic segmentation,又可以分割出从未见过的物体类别,还可以基于检测框分割出从未见过的物体并给出正确的类别,这种基于box prompts

    63330编辑于 2023-08-29
  • 来自专栏个人总结系列

    开源AIGC学习—AIGC模型异步服务

    print(f"task prompts is {text_info.prompts}, task id is {str(text_info.tracking_id)}.") print(f"task prompts is {text_info.prompts}, task id is {str(text_info.tracking_id)}") , tracking_id): print(f"task prompts is {prompts}, task id is {tracking_id}.") prompts is {text_info.prompts}, task id is {str(text_info.tracking_id)}") video_frames ) print(f"Received task, prompt is {prompts}, task id is {tracking_id}.")

    56610编辑于 2025-03-24
  • 来自专栏集智书童

    SAM增强技术 | SAMAug提出Point Prompt增强,让SAM模型天天向上

    它是一个通用的、可 prompts 的模型,旨在适应特定的任务,很像自然语言处理模型中使用的 prompts 系统。 该技术围绕优化Token序列(离散 prompts )或向量序列(连续 prompts ),具体取决于应用。 解码器采用基于 prompts 的自注意力和交叉注意力,允许注意力从编码 prompts 流到图像,反之亦然,以更新编码图像和 prompts 特征。 如果 prompts 是文本,SAM将使用CLIP模型对 prompts 进行编码。如果 prompts 是密集的,例如 Mask ,则它们将直接与图像嵌入进行卷积,并按元素求和。 第三,如SAM中所指出的,单个 prompts (如仅一个 point prompts )将导致分段模糊问题,其中 prompts 可以对应于多个有效 Mask ,并且SAM模型无法区分 prompts

    1.8K30编辑于 2023-09-04
  • 来自专栏DeepHub IMBA

    使用Accelerate库在多GPU上进行LLM推理

    Source: https://www.penguin.co.uk/articles/2022/04/best-first-lines-in-books prompts_all=[ "The ) as prompts: # store output of generations in dict results=dict(outputs=[], num_tokens=0) {len(prompts_all)}") 使用多个gpu会导致一些通信开销:性能在4个gpu时呈线性增长,然后在这种特定设置中趋于稳定。 (prompts, tokenizer, batch_size=16): batches=[prompts[i:i + batch_size] for i in range(0, len(prompts prompt_batches=prepare_prompts(prompts, tokenizer, batch_size=16) for prompts_tokenized

    2.4K10编辑于 2023-11-29
领券