首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏PHP技术分享

    提示是什么?如何高效的使用提示模版,解锁AI提示隐藏玩法

    一、什么是提示(Meta-Prompt)?定义:提示是“用来生成提示的提示”。换句话说,它是一条指令,让AI帮你写出另一条更具体、更高质量的提示。 ——用提示+黄金圈结构你可以设计一条提示,专门用来生成符合黄金圈结构的文案框架:“请使用黄金圈法则(Why-How-What)为我的[产品/理念]生成一个文章框架。 总结对比表:概念作用关键特点应用场景提示生成/优化提示自指性、模板化、参数化提示新手、批量生产黄金圈结构构建有感染力的内容逻辑Why→How→What(顺序关键)文案润色、品牌故事、演讲要更高效地设计提示模板 现在,请基于以下用户输入生成提示模板:{{用户输入}}使用方式:四、高效设计提示的4大原则1.角色+任务+约束=完整指令任何高质量提示都应包含这三个要素,提示也不例外。 2.参数化变量:让模板可复用用占位符(如[产品]、[目标人群]、[场景])代替具体内容,实现“一次设计,多次使用”。请为【[产品/服务]】设计一条用于生成【[内容类型]】的提示

    1.1K10编辑于 2025-11-16
  • 来自专栏机器学习入门与实战

    嵌入Word2Vec

    2.4 n-gram模型 n-gram模型为了保持的顺序,做了一个滑窗的操作,这里的n表示的就是滑窗的大小,例如2-gram模型,也就是把2当做一组来处理,然后向后移动一个的长度,再次组成另一组 4.2 Word2Vec 谷歌2013年提出的Word2Vec是目前最常用的嵌入模型之一。 对多义无法很好的表示和处理,因为使用了唯一的向量 4.3 sense2vec word2vec模型的问题在于词语的多义性。 由于任何两个不同的one-hot向量的余弦相似度都为0,多个不同之间的相似度难以通过one-hot向量准确地体现出来。 word2vec⼯具的提出正是为了解决上⾯这个问题。 它将每个词表⽰成⼀个定⻓的向量,并使得这些向量能较好地表达不同之间的相似和类⽐关系。 6. Word2Vec代码实现 ?

    1.2K10发布于 2019-11-20
  • 来自专栏AI科技评论

    ACL 2019 | 使用改进自然语言生成

    与隐变量方法不同的是,本文使用(meta-word)来明确地表示消息与响应之间的关系。给定一条消息,我们可以通过控制来控制生成的响应。 ? 使用辅助响应生成有以下几个优点:1.使生成模型具有可解释性,用户可以在生成响应前就知道生成的响应类型;2.生成的过程是可以控制的,的接口允许用户定制响应;3.生成的方法是可泛用的,可以将行为、人物角色 利用meta-word进行响应生成需要解决两个问题:1.如何确保回复和输入相关;2.如何确保回复能够如实地表达预先定义的。 在生成响应前,编码器通过一个双向GRU将输入信息表示为一个序列,目标跟踪记忆网络由初始化得到。然后在响应解码时,状态记忆板跟踪的表达并由状态控制器更新。 不仅如此,本文还提出了一个预测方案,从而使得整个架构可以在实际中使用。 2.

    94930发布于 2019-09-10
  • 来自专栏人工智能

    从“”到“符”:Token 中文名背后的 AI 底层认知之争

    近日,全国科学技术名词审定委员会发布公告,推荐将人工智能领域中的“Token”译为“”,并面向社会试用。 “”一在语言学与自然语言处理(NLP)领域早已“名花有主”,在经典语言学中,其长期对应的英文概念为Lemma,即的规范原形(例如is/am/are的为be)。 例如,在描述“NLP中的词形还原操作(lemmatizeatoken)”时,中文表述将出现“对‘’进行‘化’”的结构。 具体而言,“”在回译过程中缺乏清晰、唯一的对应路径。 因此,在跨语言体系中,“”所面临的主要问题在于映射路径的不稳定,而“符”则在语义对应与概念一致性方面表现出更高的确定性。

    19910编辑于 2026-04-09
  • 来自专栏AI星球

    向量(2)--从ELMo到Bert

    前言 上一篇文章,我们介绍向量(1)--从word2vec到ELMo,关注的角度是从静态的向量到动态的向量(该篇属于旧闻新写,构思的时候还没出现Bert等跨时代的思想)... 从2013年出现的word2vec到如今的Bert,一个显著的转变是:从仅仅预训练向量来初始化NLP模型的第一层发展到预训练整个NLP模型,预训练关注的不再仅仅是单个词汇信息,而是还有句子级别的信息, 代表: ELMo GPT1/2 缺点: 不同同时利用上下文信息 自编码语言模型 可以同时利用上下文信息进行训练语言模型,一种双向的语言模型。 ,从word2vec到Bert基本上覆盖了所有的主流方法。 历史文章推荐 AI极客-机器学习|逻辑回归(LR) AI极客-NLP|向量(1)--从Word2Vec到ELMo

    1.7K20发布于 2020-04-24
  • 来自专栏腾讯云 DNSPod 团队

    【火爆】1注册.icu 域名,批量注册低至4.3(内含溢价域名)

    超值活动区-.icu域名特惠 DNSPod域名特惠包活动上线,批量购买.icu域名 ,低至4.3。 戳图跳转链接,建议pc端打开页面 现在前往DNSPod注册.icu,原价66,首年仅9。 戳图跳转链接,建议pc端打开页面 腾讯云官网活动,新用户秒杀专区,仅需1(限购1个) 戳图跳转链接,建议pc端打开页面 超级福利区-溢价域名 以下.icu域名前缀可注册,手快有、手慢无!

    2.6K30编辑于 2022-08-26
  • 告别“令牌”与“智”之争,“”定名背后的140万亿经济账

    至此,一场关于“”的经济大幕,正式拉开。一、为什么是“”,而非“令牌”或“智”过去一年多,Token译名争议不断:腾讯研究院提出“模”,百川智能王小川等力推“智”,均获高关注。 官方最终选定“”,并非偶然:•“”:AI理解语言的最小单位(字、、标点)•“”:强调其最小计算单元的技术本质•核心考量:术语规范化是产业标准化前提。 :•第三方OpenRouter数据:中国大模型周调用量连续4周超美国•全球前五占四席(Minimax、Kimi、DeepSeek等),纯海外用户占比超90%•中国正从“商品出海”迈向“智能出海”2. 云计算与运营商:打破“管道化”宿命是破局关键:•过去:靠流量套餐•现在:卖“包”,构建“算力—平台—数据”全链条服务3.企业与个人:成本透明,精打细算•B端:采购从按年/账号→按月度消耗量计费 •C端/职场:优化Prompt、减少浪费成新技能•正像“千瓦时”,成为人人需懂的新计量单位四、未来:建设全国统一“”大市场定名只是开始。

    20110编辑于 2026-04-08
  • 来自专栏磐创AI技术团队的专栏

    基于word2vec训练向量(二)

    w_0,若neg别的w_i,i=1,2,3...neg(一般neg值很小,不超过10),和他周围上下文共有2c个,记为context(W)。 利用这一个正例和neg个负例进行二逻辑回归,每次迭代都更新了θ_i(i=0,1,2...neg)和context(w)就可以得到每个对应的θ_i向量和每个向量。 Word2vec训练出来的向量效果挺好,其训练出来的向量可以衡量不同之间的相近程度。 ,当然一般我们可能不需要精准表达的向量,所以用word2vec来训练出向量,也是一种可选择的快速效率的方法。 Word2vec训练向量相关的内容就说完了,如有有什么疑问的地方,欢迎大家留言互相探讨。

    1.6K90发布于 2018-04-24
  • 来自专栏grain先森

    一周网红2

    本期网红 1、Shelchier 2、PV、UV、PR 3、POI 哈哈,看到这些词儿,有没有见过或者似曾听过呢?如果没有听过?那就喝口茶,就跟着小编一起往下看吧?   温馨提示 这一周的网红又要告一段落了,喜欢的朋友可以关注一下,分享一下,咋们下周见~ 上一期: 《一周网红

    93530发布于 2019-03-29
  • 来自专栏深度学习

    基于Gensim获取Word2Vec向量

    Gensim 官网:Documentation — gensim使用公开向量获取Word2Vec向量这个 GitHub 仓库(Embedding/Chinese-Word-Vectors)是一个专门提供中文词向量的开源项目 <词汇总数> <向量维度>word1 val11 val12 ... val1Nword2 val21 val22 ... val2N该项目提供的向量覆盖多种语料,包括百度百科、维基百科、新闻数据、微博 vector_size=100,      # 向量维度    window=5,             # 上下文窗口大小    min_count=2,          # 最小词频(低于将被忽略 model.wv.save_word2vec_format('my_vectors.kv')加载向量from gensim.models import KeyedVectorsmy_model = KeyedVectors.load_word2vec_format = ''] for review in df["review"]]model = Word2Vec( sentences, # 已分词的句子序列 vector_size=100, # 向量维度 window

    34810编辑于 2026-01-17
  • 来自专栏johnhuster

    select2搜索内容显示搜索

    在使用select2的搜索功能时,搜索结果会显示搜索关键,这不是我想要的,我只想让用户选择列表框实际存在的数据,再一次还是select2 3.5版本(点击打开链接)的官方文档,官方解释 first choice which is what the user has typed into the search box so far 简单概述就是:如果使用了select2的 tags标签,那么搜索结果就会显示搜索关键 解决方案: 所以在初始化select2时不使用tags标签,这样在搜索结果中就不会出现搜索关键

    1.4K40编辑于 2022-03-28
  • 来自专栏机器学习养成记

    关键提取Part2(A Deeper Discussion)

    在关键提取任务中,可以通过制定关键性指标,对词汇进行排序,然后抽取指标较高的词汇输出,作为最终的结果。有人会问,基于“关键性”指标的定义提取关键,是不是不属于机器学习的方法? (对于TF-IDF,特征向量是一个2维向量,分别是TF值和IDF值,对于TextRank指标,特征向量是一个N维向量,N是被分析文档包含的词汇个数,每个维度表示该词汇与其他词汇之间的“共现”权重)。 于是,便导致几乎没有学者沿着这个思路继续研究,从而形成了“关键提取”任务研究的理论盲区。 我们可以在给定的文档中,看到每一个词汇是否为关键,然后基于观察,反推这些看不到的“指标”,然后再去学习这种映射关系。 例如: 1. 2. 可以指定多个人对同一个文档进行关键标注,词汇被选为关键的概率(被选为关键的次数除以进行标注的总人次)作为其关键性指标,用于机器学习。 3. ....

    51220发布于 2020-02-26
  • 来自专栏Hsinyan写字的地方

    Word2vec理论基础——向量

    NLP 处理方法 传统:基于规则 现代:基于统计机器学习 HMM、CRF、SVM、LDA、CNN … “规则”隐含在模型参数里 我们希望编码能够做到什么 编码需要保证词的相似性 我们希望类似青蛙、蟾蜍这些编码之后保持相似性 按照这个语料库可以构建出一个词典 {"John": 1, "likes": 2, "to": 3, "watch": 4, "movies'": 5, "also":6, "football": 7, Mary likes too.可表示为 [1,2,1,1,1,0,0,0,1,1] 权重 TF-IDF(Term Frequency - Inverse Document Frequency) t的 依旧以上面两句作为语料库,为了能够考虑到顺序的影响因素,为2-gram建立索引,得到词典如下 word index John likes 1 likes to 2 to watch 3 watch movies 与其他深度学习模型框架差异过大 NNLM(Neural Network Language model) NNLM是word2vec的前身,直接从语言模型出发,将模型最优化过程转化为求向量表示的过程。

    72420编辑于 2022-06-19
  • 来自专栏磐创AI技术团队的专栏

    基于word2vec训练向量(一)

    1.回顾DNN训练向量 上次说到了通过DNN模型训练获得向量,这次来讲解下如何用word2vec训练获取词向量。 更重要的一个缺点是在输出层中用softmax时,需要对输出层中每个位置求其概率,sotfmax函数如下图: 这里u_0是W’的一个神经的参数向量,v_c对应的是训练样本与隐藏层参数W相乘激活后得到的向量 2. Word2vec 2.1 前瞻 针对DNN模型训练向量的缺点,2013年,Google开源了一款用于向量计算的工具--word2vec,引起了工业界和学术界的关注。 2)投影层: 将输入层2c个向量累加后求平均作为X_w。 在word2vec中使用了二逻辑回归的方法,这时候从根节点到叶子节点的过程是一个二分类问题,规定当前节点走到下一个节点,沿着左右子树走的概率分别为: 公式(1) 使用了sigmoid函数来计算选取当前节点的概率

    1.7K50发布于 2018-04-24
  • 来自专栏JiahuiZhu1998_技术笔记

    NLP: Word Embedding 嵌入(Part2: fastText)

    1. word2vec 和 fastText 对比 概述: word2vec, n-gram 等 word-embedding 方法选择用vector表示single word 而不考虑词根词缀之间的关系 word 比如 单词 book 会被表示成: ["bo", "boo", "ook", "ok"] 这样当我们有两段文本 "肚子 饿了 我 要 吃饭" 和 "肚子 饿了 我 要 吃东西"; 用word2vec 和 fastText的不同点: Word2Vec fastText 输入: one-hot形式的单词的向量 输入: embedding过的单词的向量和n-gram向量 输出: 对应的是每一个term word2Vec 和 fastText 在 softmax 的使用上也不同 word2Vec 通过 h-softmax 生成的vectors不会被使用; fastText通过 h-softmax遍历分类树所有 和 CBOW(连续袋模型)非常像 图片 fastText 和 CBOW 一样都是简单的神经网络结构: Input Layer, Hidden Layer, Output Layer fastText

    93900编辑于 2023-06-19
  • 来自专栏DeepHub IMBA

    论文推荐:用多预测法提高模型效率与速度

    理论贡献和技术创新 这篇论文的主要创新点在于提出了一种新的多预测框架,用于训练大型语言模型(LLMs),并通过一系列实验验证了其有效性 多预测架构:与传统的单词预测模型相比,该研究提出的多预测方法要求模型在训练过程中一次预测接下来的多个 ,而非仅预测下一个。 实验结果显示,多预测方法在多个编程和自然语言处理基准上优于现有的单词预测模型。 优势: 提高样本效率和推理速度:作者强调,多预测方法通过同时预测未来的多个,相较于传统的单词预测,显著提高了模型的样本效率和推理速度。 优化词汇大小和计算成本:作者提出,多预测的最优词汇大小可能与单词预测不同,调整这一点可能会进一步提高效率和性能。

    44710编辑于 2024-05-10
  • 来自专栏叶子的开发者社区

    向量2(友及拷贝构造)

    题目描述 在题目向量1的代码上添加类CVector的友函数Add,计算两个向量的和(对应分量相加)。 主函数输入数据,生成两个向量对象V1,V2,调用Add(V1,V2).print()输出向量V1+V2的计算结果。(假设print()为CVector类中的输出函数。) 输入 第一行,输入测试次数t 每组测试数据格式如下: 向量维数n 第一个n维向量值 第二个n维向量值 输出 对每组测试数据,输出两个n维向量与它们的和 输入样例1 2 3 1 2 3 4 5 6 5 1 2 3 4 5 -1 2 4 6 10 输出样例1 1 2 3 4 5 6 5 7 9 1 2 3 4 5 -1 2 4 6 10 0 4 7 10 15 AC代码 #include n,p); V2.print(); Add(V1,V2).print(); if(p) delete[] p; p=NULL; } }

    21420编辑于 2023-07-30
  • 来自专栏新智元

    我们不用「宇宙」这个!苹果CEO库克:我们称其为AR

    ---- 新智报道 来源:Time 编辑:好困 【新智导读】近日,在登上时代周刊的百大人物之后,苹果CEO库克再次接受了杂志的采访。 虽然内容千篇一律,但是最有趣的莫过于拒绝「宇宙」这个说法了。 「这就是所谓的宇宙吗?」Time的记者问道。 「不,我们只是叫它AR」库克回答。 不要讲什么「宇宙」,就是「增强现实」 「对此显然有不同的说法,但我会远离那些流行语。」 814.34亿美元(约合5300亿人民币)。 这是苹果在第三财季的总营收额,同比增长高达36%。 而其净利润更是高达217.44亿美元(约合1415亿人民币),同比增长93%,几乎翻倍。

    46020发布于 2021-10-12
  • 来自专栏大数据文摘

    秒懂向量Word2vec的本质

    来斯惟的博士论文『基于神经网络的和文档语义向量表示方法研究』以及他的博客(网名:licstar) 可以作为更深入全面的扩展阅读,这里不仅仅有 word2vec,而是把嵌入的所有主流方法通通梳理了一遍 正文 你会在本文看到: 提纲挈领地讲解 word2vec 的理论精髓 学会用gensim训练向量,寻找相似,并对模型调优 你不会在本文看到 神经网络训练过程的推导 hierarchical softmax 我们来看个例子,如何用 Word2vec 寻找相似: 对于一句话:『她们 夸 吴彦祖 帅 到 没朋友』,如果输入 x 是『吴彦祖』,那么 y 可以是『她们』、『夸』、『帅』、『没朋友』这些 现有另一句话 我举个例子,假设全世界所有的词语总共有 V 个,这 V 个词语有自己的先后顺序,假设『吴彦祖』这个是第1个,『我』这个单词是第2,那么『吴彦祖』就可以表示为一个 V 维全零向量、把第1个位置的0 ,除了 Word2vec之外,还有基于共现矩阵分解的 GloVe 等等嵌入方法。

    1.8K60发布于 2018-05-25
  • 来自专栏人工智能LeadAI

    向量技术 | 从word2vec到ELMo

    N-gram 2、代表技术之一word2vec 2013年,Google团队发表了word2vec工具 [1]。 值得一提的是,word2vec的向量可以较好地表达不同之间的相似和类比关系。 word2vec自提出后被广泛应用在自然语言处理任务中。它的模型和训练方法也启发了很多后续的嵌入模型。 在这个例子中,“you”叫中心,“I”、“love”、“very”和“much”叫背景。 由于“you”只生成与它距离不超过2的背景,该时间窗口的大小为2[与N-gram类似]。 设中心wc在词典中索引为c,背景wo1、wo2、...wo2m在词典中索引为o1、o2、....o2m-1、o2m,损失函数中的给定背景生成中心的概率可以通过softmax函数定义为 ? (比如句法和语义) (2)这些用法在不同的语言上下文中如何变化(比如为的多义性建模) ELMo与word2vec最大的不同: Contextual: The representation for each

    2.8K41发布于 2018-08-17
领券