首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器之心

    思维思维树?华为诺亚:现在到了思维森林时刻!

    图 1 思维森林 FoT 稀疏激活策略 在 FoT 的推理过程中,并不是所有的推理树或树中的每个节点都会被计算,而是只选择最相关的推理树或节点进行计算。 图 2 动态自校正策略 共识引导决策策略 为了解决复杂的数学问题,FoT 设计了共识引导专家决策(CGED)策略,以确保最终答案的高准确性和可靠性。 表 1 中的实验结果表明,当推理树的数量从 2 增加到 4 时,FoT 的准确率提高了 14%,显示出显著的推理性能提升。 表 2 FoT 在 MATH 数据集上的性能 FoT 的广泛应用前景 FoT 框架不仅在理论上具有创新性,而且在实际应用中也具有广泛的前景。 结语 思维森林 Forest-of-Thought 框架的提出,为 LLM 的推理能力提升提供了一条新的路径。

    24300编辑于 2025-02-03
  • 来自专栏自然语言处理

    检索增强生成 和思维 结合: 如何创建检索增强思维 (RAT)?

    思路提示使大型语言模型能够解决复杂的算术、常识和符号推理任务。图中突出显示了思路推理过程。 少量提示会给出一些示例来帮助语言模型理解它应该做什么,而思维提示则会从头到尾展示逐步推理。 它最适合较大的模型,而较小的模型可能会产生奇怪的思维并且不太精确。在某些情况下,您可以使用零次思维提示而不显示中间步骤。 RAT:知识与思维的结合 检索增强思维 (RAT) 是一种简单但有效的提示方法,它将思路 (CoT) 提示与检索增强生成 (RAG) 相结合,以处理长窗口推理和生成问题。 检索增强思维 (RAT) 的管道。给定一个任务提示(在图中表示为 I),RAT 从 LLM 在零样本(“让我们一步一步思考”)中产生的初始分步思维(1、2、· · ·、)开始。 修订: LLM 通过整合检索到的信息来修订其思维 (T1)。 重复:重复步骤 2-4,直到 LLM 得到满意的解决方案 (Tn)。

    85710编辑于 2025-01-05
  • 来自专栏自然语言处理

    怎么构造思维数据?思维提示工程的五大原则

    我来为您翻译这篇关于思维提示工程的文章,采用通俗易懂的中文表达: 思维(CoT)提示工程是生成式AI(GenAI)中一种强大的方法,它能让模型通过逐步推理来解决复杂任务。 通过构建引导模型思考过程的提示,思维能提高输出的准确性、连贯性和可靠性。本白皮书探讨了思维提示工程的核心设计原则,提供实用案例,并概述了在各种应用中有效实施思维的策略。 思维提示工程通过让AI系统模拟逐步推理来解决这一问题,从而产生更有结构性和可靠性的输出。 思维提示工程在制造业、教育、金融和医疗保健等多个领域都有应用。 思维提示工程的应用 1. 制造业和自动化 场景:优化生产流程。 例子:一家制造厂由于装配线上的设备瓶颈而经常出现生产延迟。使用思维提示工程,AI的引导如下: 第1步:识别瓶颈。 实施:使用思维提示AI逐步解释解决方案,如推导公式或解方程。 成果:通过详细和逻辑的解释增强学习体验。

    1.1K20编辑于 2025-04-11
  • 来自专栏石云升

    提示词的高阶用法:思维

    我今天要给大家分享一个高阶使用技巧,这也是很多优秀的GPTs里可以看到的一种提示技巧,那就是思维。 什么是思维思维就是逻辑思考过程,就是一步一步把一个大问题拆解成各个小问题的过程。 而这个过程,在学术界的专业名词就叫思维(Chain of Thought)。 在谷歌和OpenAI的一系列论文中已经验证,当你把一个问题,按照思维的方式,一步步Prompt大型语言模型时,往往能够得到正确的答案。 而用思维的话,我们可以发现,其实翻译也可以多个角色共同合作。我给大家看个实例,是网上很有名的宝玉老师做的翻译提示词,如下: 现在你要帮忙解释一篇专业的技术文章成简体中文给大学生阅读。 按步骤来翻译这篇文章,每一步都必须遵守以上规则,打印每一步的输出结果: Step 1:现在你是英语老师,精通英文,对原文按照字面意思直译,务必遵守原意,翻译时保持原始英文的段落结构,不要合并分段 Step 2

    1.1K10编辑于 2024-04-12
  • 来自专栏自然语言处理(NLP)论文速递

    思维(CoT),到思维树(ToT),再到思维图(GoT):用LLMs解决复杂问题!

    引言  为进一步提升大型语言模型(LLM)解决复杂问题的能力,今天给大家分享的这篇文章,作者提出了思维图(GoT),其性能超过了思维(CoT)、思维树(ToT)。 Paper:https://arxiv.org/pdf/2308.09687v2.pdf Code:https://github.com/spcl/graph-of-thoughts 背景介绍  近年来 例如,人们可以探索某个推理,回溯并开始一个新的推理,然后意识到前一个推理中的某个想法可以与当前探索的想法相结合,并将它们合并成一个新的解决方案,利用优点并消除缺点。 这使得能够使用 GoT 快速构建新颖的Prompt原型,并尝试不同的LLMs模型,例如 GPT-3.5、GPT-4 或 Llama-2。 如下图所示: 2、GoT提示同样存在一个缺点:其导出解决方案的总成本高于Few-shot、CoT等更直接的方法。如下图所示: 「作者结论」:GoT 提示对文档合并任务提供了不太明显的改进。

    4.7K40编辑于 2023-09-14
  • 动态剪枝思维构建高效推理系统

    在本教程中,我们实现了一个智能思维剪枝框架,该框架并行生成多个推理路径,并使用共识信号和早停机制动态缩减路径。 len(completions) <= 1: return [0.0] * len(completions) vec = TfidfVectorizer(ngram_range=(1,2) answers, "strengths": strengths, "best_i": best_i}def pruned_agent_answer( question, batch_size=2, , "a": "36"}, {"q": "If you buy 5 apples at $2 each, how much do you pay?" 40"}, {"q": "Compute: (25 - 9) * 3", "a": "48"}, {"q": "What is the next number in the pattern: 2,

    10210编辑于 2026-02-17
  • 来自专栏程序员分享

    Prompt工程进阶:少样本与思维

    本篇文章将通过一个动态权限菜单的实战案例,带领我们掌握两个强大的Prompt技巧:少样本与思维:少样本提示(Few-shot Prompting) :给AI举例子,让它学会模仿思维(Chain of 适用场景需要特定输出格式的任务有明确模式匹配的逻辑希望AI模仿某种风格或规范思维:让AI“说出解题思路”什么是思维思维的核心思想是:引导AI展示中间推理步骤,而不是直接给出答案。 第一步:请参考以下示例理解需求(少样本):示例1:输入A -> 输出X示例2:输入B -> 输出Y第二步:请按照以下步骤思考(思维):1. 分析...2. 设计...3. 实现...4. 处理边界...第三步:生成完整的代码如何写出高质量的思维Prompt技巧1:引导AI分步思考text 体验AI代码助手 代码解读复制代码请按以下步骤思考:1. 先分析数据结构设计2. 技巧4:要求对比不同方案text 体验AI代码助手 代码解读复制代码请对比两种权限合并策略(并集vs交集)的优缺点,然后选择最优方案结语你在实际工作中遇到过哪些适合用思维解决的复杂问题?

    23410编辑于 2026-03-18
  • 来自专栏deepseek

    推理强化模型中思维的本质

    这一切都要感谢推理强化的 CoT(思维)。CoT 为什么这么有效,这么神奇,文理通吃,在强化中最大化了其赋能作用呢? DeepSeek的训练如此有效: 不是教会模型更"聪明"的推理,这在文科类任务中根本就无法定义 而是优化了它构建这种低熵通道的能力 本质上是优化了信息流的路径规划 这个观点为理解CoT提供了一个新的视角,把表面上的思维

    910100编辑于 2025-02-08
  • 向DeepSeek学习深度思考-CoT思维

    今天准备再谈下CoT思维方面的话题。经过最近1~2个月我对的DeepSeek的使用,我发现跟我原来用GPT或者是Kimi最大的一个差异点,就是它提供了深度思考的能力。 而且它的整个CoT思维完全是公开的,是可以给你参考和学习的。 所以说每一次和DeepSeek的沟通和交互,我都会去详细的看它实际提供的CoT思维详细的思考过程和内容,包括我也会问他,就是你个人的思维思考方式和模式究竟是怎么样的? 所以说经过我最近对的使用,我越发的感觉到和我原来用GPT最大最大的一个差异反而是它提供的公开的CoT思维的价值,这个思维实际反而是值得我们每个人去学习的。 包括很多时候你不清楚怎么样学习,你不清楚怎么样思考的时候,你仍然可以优先问AI我究竟应该怎么样思考,它其实是可以给出详细的思维过程的。 好了,今天关于思维简单的思考就跟大家分享到这里。

    33200编辑于 2025-06-24
  • 来自专栏数据森麟

    100种分析思维模型(2

    上次我介绍了第 001 号分析思维模型: 福格行为模型(点我) 下面开始介绍第 002 号分析思维模型: 杜邦分析模型 1. 应用杜邦分析模型的步骤: (1)从核心指标开始,逐层分解各个指标; (2)制作杜邦分析图,填入相关指标数据; (3)对比前后期数据,或者横向进行对比。 2. 应用举例 杜邦分析模型在财务分析、销售管理等领域都有着广泛的应用。 比如说,我用 Excel 做了一个杜邦分析模型,它体现了数据分析的对比思维和细分思维,就是把一些重要的财务指标,按月份进行对比,并层层进行分解。 ? 小结 杜邦分析模型带给我们的启示,是在日常工作和生活中,要有对比思维、细分思维和上游思维,深度参与和服务自己的上一个环节,争取在问题发生之前,就把问题解决掉。

    57620发布于 2021-03-12
  • 来自专栏CSDN社区搬运

    思维为线索推理隐含情感

    在思想(CoT)思想的启发,本文引入了一个三跳推理(THOR)CoT框架来模拟ISA的模拟人类推理的过程。THOR设计了一个三步提示原则,逐步诱导隐含的方面、观点,最后是情绪的极性。 Three-hop Reasoning with CoT Prompting,则是本文提出基于大模型思维(CoT)的方法,提出的三段式提问框架。 总结 这篇文章使用大模型思维的思路优化了隐式情感分析中,隐含观点等难以挖掘的难题,使得ISA任务能够有较大性能的提升。

    30710编辑于 2024-12-02
  • 来自专栏deepseek

    思维是大模型的符号神助攻

    然而,2024年春节,DeepSeek发布的推理大模型R1揭示了一个令人惊叹的技术突破——思维(Chain of Thought, CoT)的自主生成,其展现出的语言序列仿佛在模拟人类的符号逻辑。 符号逻辑的回归DeepSeek推理模型的发布引发全球关注,其强化学习框架下自主生成的思维展现出惊人的问题解决能力与创作能力。 尽管其核心机制仍是GPT风格的自回归下一词元预测 (next token prediction, NTP),但模型生成的中间结果——思维,却呈现出令人惊讶的符号逻辑特征,有效模拟了人类的推理过程。 下一词元预测的GPT生成方式,使得内部的“思维过程”可以在输出端外化为符号CoT,从而利用符号推理的形态,一步步模拟人类思维过程。 然而,目前思维生成采用自然语言,而不是形式语言。偶然也夹杂了一些数学符号,但思维整体还是压倒性的使用英语或中文。R1论文中还提到他们的CoT连计算机代码都排斥在外。

    63010编辑于 2025-03-05
  • 来自专栏机器之心

    思维CoT进化成思维图GoT,比思维树更优秀的提示工程技术诞生了

    思维(CoT)便是一种用于设计 prompt 的方法,即 prompt 中除了有任务的输入和输出外,还包含推理的中间步骤(中间思维)。 在进行思考时,人类不会像 CoT 那样仅遵循一条思维,也不是像 ToT 那样尝试多种不同途径,而是会形成一个更加复杂的思维网。 举个例子,一个人可能会先探索一条思维,然后回溯再探索另一条,然后可能会意识到之前那条的某个想法可以和当前链结合起来,取长补短,得到一个新的解决方案。 有向边 (t_1, t_2) 表示思维 t_2 的构建方式是将 t_1 用作「直接输入」,即通过明确指示 LLM 使用 t_1 来生成 t_2。 在某些用例中,图节点属于不同类别。 使用图模型,可以轻松实现聚合变换:通过添加来自建模了几条中最后思维的顶点 v_1, ..., v_k 的传出边,使之指向组合这些的单个思维 v^+。

    1K30编辑于 2023-09-08
  • 论文解读 - 潜在思维推理的全面综述

    二、研究背景大型语言模型(LLMs)通过思维(CoT)推理方法在复杂推理任务中展现了卓越的能力,该方法鼓励模型以自然语言形式逐步进行推理。 首先,它导致了计算效率低下,因为并非所有表达思维过程的词语都包含有价值的信息。其次,人类思维往往超越语言的界限。认知的其他方面,如抽象见解、直觉跳跃或高度组合性的思维,难以完全或精确地用语言表达。 自然语言和显式推理的固有限制直接推动了向潜在思维推理的转变。如图1所示,模型不再通过语言符号进行推理,而是在潜在空间中进行推理,提供了一种更为抽象和高效的思维过程媒介。 在每个类别中,论文将代表性研究组织成一个连贯的框架,以阐明其方法论假设和创新点(如图2所示);(2)深度分析:基于这一分类体系,论文对每个类别的代表性作品进行了全面分析,比较了训练策略、设计范式、监督信号及效率权衡 在训练过程中,通过中间监督来指导推理过程,生成的推理用于微调自回归模型,从而在超出训练序列长度的任务中提升性能。

    35810编辑于 2025-12-19
  • 来自专栏奇妙的算法世界

    codeforces 1213D2(贪心+思维

    题意 可以对每个数进行除2的操作,求最少需要操作多少次,使得数组中有k个相同的数 思路 题目中说答案始终存在,因为每个数都可以变成0,但很明显,让数字变成0的情况是不存在的,每个数字不停的除2肯定可以变成 0 5 2* 10^5 2∗105,每个数字除2不超过20次就可以变成1,我们遍历一遍数组即可得到答案。 int> PII; typedef pair<long,long> PLL; typedef pair<char,char> PCC; typedef long long ll; const int N=2* =1){ f/=2; cnt[f]++; tot[f]+=res; if(

    36030发布于 2020-10-23
  • 来自专栏瓴犀学院

    思维领先,打通产业,SAAS助力供应新突破!

    现代企业间的竞争,实际上主要的是供应与供应的竞争。企业要在竞争中赢得胜利,需要整套供应的顺利运作。 SaaS版的供应在软件供给上采用向多个用户同时租赁使用的模式;在运营方式上则由第三方运营,提供给多条供应同时使用,形成并支持供应链群和供应网。 2)部门间的信息沟通更通畅 目前,信息缺少、信息混乱、信息管理困难以及信息缺乏统计分析等,让企业高层的许多重要决策与管理,得不到部门与部门间的协同信息支持,数据不能及时更新,还容易出错甚至遗漏。 SaaS实现供应系统的升级和组合,将传统供应系统部件更换为功能全面、灵活敏捷、伸缩自如,是可与其它系统兼容的的供应系统。 2)采用向供应中多个企业同时租赁使用的模式 该模式将提高整条供应的协同效率的同时将大幅降低信息化成本及供应总体拥有成本,具有功能全面、成本低、应用快速等优势。

    70030编辑于 2022-03-17
  • 来自专栏Python项目实战

    从漏洞到攻击:一次看懂黑客的思维

    从漏洞到攻击:一次看懂黑客的思维路——ByEcho_Wish,一个喜欢拆技术“心脏”的人很多同学学安全,总感觉知识太分散:SQL注入一块、RCE一块、提权一块、横向移动又是一块。 所以今天我们换个方式:不讲漏洞本身,而讲黑客的“串联思维”,也就是攻击AttackChain。看懂这个,你就能从“漏洞学习者”升级到“体系化安全思维拥有者”。一、攻击是什么? 攻击者最怕的是“丢失入口”,所以持久化是攻击里非常关键的一步。八、最终目的:窃取、加密勒索、破坏、植入后门到这一步,攻击才真正进入“业务损害阶段”。 但攻击给了我们一个角度:我们不需要堵住所有门,只需要让攻击在某一步“成本过高”,黑客就会放弃。 从今天开始,把漏洞放进攻击的上下文里看。你会发现:你不只是学安全,而是在学黑客思维的全路逻辑。懂这个,你就能在任何场景里快速判断攻击意图,并提前布防。

    33110编辑于 2025-12-02
  • 来自专栏小樱的经验随笔

    Codeforces Round #416 (Div. 2)(A,思维题,暴力,B,思维题,暴力)

    Vladik and Courtesy time limit per test:2 seconds memory limit per test:256 megabytes input:standard After that Valera gave Vladik 2 his candies, so that no one thought that he was less generous. Examples Input 5 5 5 4 3 2 1 1 5 3 1 3 1 2 4 3 4 4 4 2 5 3 Output Yes No Yes Yes No Input 6 5 1 4 3 2 5 6 2 4 3 1 6 2 4 5 4 1 3 3 2 6 3 Output Yes No Yes No Yes Note Explanation of first test case: [1,  2, 3, 4, 5] — permutation after sorting, 3-rd element hasn’t changed, so answer is "Yes"

    1K80发布于 2018-04-09
  • 来自专栏新智元

    142页长文揭秘DeepSeek-R1「思维大脑」!开启全新「思维学」研究

    不论是Gemini 2.5Pro,还是o3,o4-mini,以及所有人都在期待的DeepSeek-R2,都是推理模型。 R1的出现带火了推理模型外,也催生了一个新的研究领域:思维学(Thoughtology)。 魁北克人工智能研究所联合麦吉尔大学和哥本哈根大学最近发布了这一研究领域的详细研究,这份长达142页的报告深入探讨了R1的思维。 研究团队称「DeepSeek-R1思维的透明访问权」是一种独特的研究机会! 研究人员借此可以系统性地分析其推理行为,最终形成「思维学」(Thoughtology)。 思维长度的影响和可控性 LLM推理能力的进步带来了范式上的重大转变:推理时扩展思维的长度,即在模型推理阶段生成更长的推理过程,从而提升性能。

    41310编辑于 2025-04-23
  • 思维推理自动化检测大模型幻觉

    自动化幻觉检测与思维推理当大型语言模型(LLM)被提示诸如"圣约翰草可能与哪些药物发生相互作用?" 在最近一次自然语言处理实证方法会议(EMNLP)上发表的论文中,描述了一种名为HalluMeasure的幻觉测量方法,该方法采用了三种技术的新颖组合:声明级评估、思维推理和幻觉的语言错误类型分类。 因此转向思维(CoT)推理,其中要求LLM不仅执行任务还要证明其采取的每个行动。这已被证明不仅可以提高LLM性能,还可以提高模型可解释性。 结果清楚地显示了少样本CoT提示带来的性能改进(从0.78提高到0.8,提高了2个百分点),使我们更接近大规模自动识别LLM幻觉。

    23910编辑于 2025-09-05
领券