首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CreateAMind

    复杂情感推理模型

    Sophisticated Affective Inference: Simulating Anticipatory Affective Dynamics of Imagining Future Events

    51020编辑于 2022-11-22
  • 来自专栏CreateAMind

    复杂推理模型,信念的信念

    主动推理提供了感知行为的第一原理描述,从中可以导出特殊和重要的案例,例如强化学习、主动学习、贝叶斯最优推理、贝叶斯最优设计等。主动推理通过将信息获得置于与奖励或价值相同的基础上,解决了与先前偏好相关的开发-探索困境。简而言之,主动推理以预期(变分)自由能的形式,用(贝叶斯)信念的泛函代替了价值函数。在本文中,我们考虑一种复杂的主动推理,使用预期自由能的递归形式。复杂性描述了一个代理对信念的信任程度。我们考虑对事态的行动的反事实后果有信念的代理人和对那些潜在状态有信念的代理人。换句话说,我们从简单地考虑“如果我做了那件事会发生什么”转变为“如果我做了那件事,我会相信发生什么”。自由能泛函的递归形式有效地实现了对未来行动和结果的深树搜索。至关重要的是,这种搜索是基于信念状态的序列,而不是状态本身。我们用深层决策问题的数值模拟来说明这种方案的能力。

    53020编辑于 2022-11-22
  • 来自专栏CreateAMind

    层次推理模型 Hierarchical Reasoning Model

    层次推理模型 Hierarchical Reasoning Model https://arxiv.org/abs/2506.21734 论文: https://arxiv.org/abs/2506.21734 受人脑中分层和多时间尺度处理的启发,我们提出了分层推理模型(HRM),这是一种新颖的递归架构,能够在保持训练稳定性和效率的同时实现显著的计算深度。 受这种分层且多时间尺度的生物结构启发,我们提出了分层推理模型(Hierarchical Reasoning Model, HRM)。HRM旨在显著提升有效计算深度。 2 分层推理模型 我们提出分层推理模型(HRM),其设计灵感来源于大脑中观察到的神经计算的三个基本原理: • 分层处理:大脑在皮层区域的层级结构中处理信息。 我们的研究结果挑战了这一既定范式,表明分层推理模型可作为当前主流的思维链推理方法的一种可行替代方案,朝着具备图灵完备通用计算能力的基础性框架迈出了重要一步。

    13710编辑于 2026-03-11
  • 来自专栏CreateAMind

    概率性推理模型:综述

    Possibilistic inferential models: a review 概率性推理模型:综述 https://arxiv.org/pdf/2507.09007 摘要 推断模型(IM)是一种用于构建可证明可靠的

    11410编辑于 2026-03-11
  • 来自专栏CreateAMind

    可能性推理模型:综述

    可能性推理模型:综述 Possibilistic inferential models: a review https://arxiv.org/pdf/2507.09007 摘要 推断模型(Inferential

    12710编辑于 2026-03-11
  • 来自专栏CreateAMind

    视觉意识的主动推理模型

    在这里,我们旨在通过推进全球神经元工作区的扩展(预测性全球神经元工作区(PGNW))来克服这些限制,该工作区将 GNW 的基本方面与更近期的(贝叶斯)主动推理方法相结合,以理解大脑功能。具体来说,我们提出了一个基于主动推理的视觉意识的层次化、部分可观察的马尔可夫决策过程(POMDP)模型。重要的是,我们利用与主动推理相关的神经过程理论,在神经生物学和模型提供的模拟之间建立明确的联系。

    83420编辑于 2022-04-15
  • winform部署PaddleOCRV3推理模型

    https://github.com/PaddlePaddle/PaddleOCR.git 【算法介绍】

    42910编辑于 2025-07-17
  • 使用xgboost的c接口推理模型

    官方c api tutorial和文档,非常恶心的一点是,tutorial和文档问题很多。

    67110编辑于 2024-02-27
  • 来自专栏CreateAMind

    海马体what where记忆推理模型

    Generalisation of structural knowledge in the Hippocampal-Entorhinal system https://www.groundai.com

    99720发布于 2018-07-20
  • 来自专栏学习成长指南

    Claude 3.7使用体验:全球首个混合推理模型

    1.工具介绍 claude大模型是由Anthropic研发的,它的殊荣很多,比如全球首个混合推理模型:一个模型,两个大脑。对于一般任务,它可以快速响应;对于困难任务,它可以先思考(推理),再回答。

    67910编辑于 2025-04-09
  • 来自专栏Dify

    Dify 配置系统推理模型和 Embedding 模型

    本文将详细介绍如何在 Dify中配置 LLM 系统推理模型模型和 Embedding 模型。准备好了吗?准备一杯你最喜欢的咖啡或茶,随着本文一探究竟吧。 系统推理模型系统推理模型即 LLM 大模型,用于对话,推理等场景。配置步骤进入 设置-模型供应商 页面。 小结本文详细介绍了如何在 Dify中配置 LLM 系统推理模型模型和 Embedding 模型。

    7.9K75编辑于 2025-03-23
  • 来自专栏R语言交流中心

    R语言实现模糊逻辑推理模型

    install.packages("FuzzyR") install.packages("shiny") 然后我们看下此包中推理模型所提供的隶属函数: ?

    1.6K10发布于 2020-03-19
  • 来自专栏TechLead

    重磅发布:OpenAI o1全新推理模型系列

    2024年9月12日,OpenAI正式推出全新的推理模型系列——OpenAI o1。 在国际数学奥林匹克竞赛(IMO)中,GPT-4o模型只能正确解决13%的问题,而o1推理模型解决了83%的问题。在Codeforces编程竞赛中,其编程能力表现更是位列89百分位。 立即体验: 在ChatGPT Plus中试用o1-preview 通过API试用o1-mini OpenAI最新的o1系列推理模型,其先进的推理能力和广泛的应用场景为科研人员和开发者提供了更高效的解决方案

    56410编辑于 2024-09-17
  • 来自专栏AIGC新知

    理解什么是推理模型,看懂这篇就够了

    使用非推理模型时,它通常只会输出答案并跳过任何“推理”步骤: 然而,推理模型会通过一个系统的“ 思考 ”过程使用更多的令牌来推导出答案: 想法是,LLM 必须花费资源(例如 VRAM 计算能力)来生成答案 测试时的计算类别 类似 DeepSeek R-1 和 OpenAI o1 这样的推理模型取得了令人难以置信的成功,这表明除了“思考更长时间”之外,还有其他更多技术手段。 DeepSeek-R1 深度求索-R1 是一个重要的推理模型,这是一个开源模型,其权重可以下载。它直接与 OpenAI 的 o1 推理模型竞争,并对该领域产生了重大影响。

    2K10编辑于 2025-03-21
  • 来自专栏机器之心

    OpenAI的推理模型有时用中文「思考」

    但他们先针对推理模型提出了几种推测。 训练数据的锅? 我怀疑这是否是原因,但节省这些冗长的内部推理模型的成本是明智之举。」 解起数学题来尤为直观,比如小 A 还在卷子上拼「Quotient」,而旁边的中国同学的「商」字已经写完了。 选择了最顺手的语言? Hugging Face 的工程师 Tiezhen Wang 认同 Guzdial 的看法,认为推理模型语言的不一致性可能是训练期间建立了某种特殊的关联。

    28800编辑于 2025-02-03
  • 来自专栏IT技术订阅

    推理模型解决组合爆炸问题的关键方法与实践

    然而,强随着推理模型的不断发展,这一难题正在逐步攻克被。本文将从多个角度探讨强推理模型如何应对组合爆炸问题,并分析其在实际应用中的表现与前景。 尽管强推理模型在解决组合爆炸问题方面取得了显著进展,但仍面临一些挑战。例如,在处理大规模问题时,计算资源和时间消耗仍然较高。 未来的研究可能会集中在以下几个方面: 1 结合大语言模型:通过结合大语言模型的强大表达能力,进一步提升强推理模型的推理能力。 2. 结论 强推理模型通过优化知识表示与推理机制、层次化推理、经验驱动方法、启发式搜索以及混合推理方法等途径,有效地解决了组合问题爆炸。这些方法不仅提高了计算效率,还为实际应用提供了更多的可能性。 未来的研究将进一步提升强推理模型的能力,使其在更多领域得到广泛应用。

    53910编辑于 2025-02-25
  • 来自专栏算法一只狗

    实测一手Qwen版本o1推理模型QWQ

    目前QWQ放出来的版本,参数量只有32B,这个模型在本地也能够运行,也就是人人都能够自己搭建一个o1水平的推理模型再来给他测试一下2024年的高考题看看效果怎么样:编号为1,2,3,4,5,6的六个小球

    60120编辑于 2024-12-07
  • 来自专栏机器之心

    只用2700万参数,这个推理模型超越了DeepSeek和Claude

    近日,受到人脑分层和多时间尺度处理机制启发,来自 Sapient Intelligence 的研究者提出了分层推理模型(HRM),这是一种全新循环架构,能够在保持训练稳定性和效率的同时,实现高计算深度。 分层推理模型 复杂推理中深度的必要性如下图所示。

    26100编辑于 2025-07-02
  • 来自专栏CreateAMind

    大型推理模型的强化学习综述(1-4章)

    我们希望本综述能促进未来关于 RL 在更广泛推理模型中应用的研究。 2.2 前沿模型 在本小节中,我们概述了当前最先进的、采用类强化学习方法训练的大规模推理模型,大致按时间顺序沿三个主要方向组织:LRMs(大推理模型)、智能体型 LRMs 和多模态 LRMs。 在过去一年中,RL 逐步拓展了推理模型及其应用的前沿边界。 近期,OpenAI 推出了其首个开源推理模型 gpt-oss-120b [Agarwal 等,2025a],随后发布了迄今为止最强大的 AI 系统 GPT-5 [OpenAI, 2025a],该系统可在高效模型与深度推理模型 近期,在大规模 RL 训练大推理模型(LRMs)时,主要采用基于规则的可验证奖励。

    60920编辑于 2026-03-11
  • 来自专栏新智元

    多模态推理模型的「幻觉悖论」

    新智元报道   编辑:LRST 【新智元导读】多模态推理模型真的「越想越明白」吗? 在多模态大模型的飞速发展中,R1 系列多模态推理模型凭借显式的长链推理机制,在复杂任务中屡屡突破传统「快思考」范式的性能瓶颈。 这一「推理增强—感知削弱」的悖论,凸显了当前多模态推理模型在推理能力与感知准确性之间面临的平衡挑战。 综上,推理链的增强并非无代价,「更聪明」的推理模型在感知类任务上反而可能「看得更少」。 越「聪明」越容易出错? 具体来说,相较于非推理模型,R1类推理模型在生成过程中显著减少了对视觉token的关注,取而代之的是将大量注意力分配给指令token与语言上下文(图a)。

    33410编辑于 2025-06-26
领券