体验链接:https://longcat.ai 模型地址:https://huggingface.co/meituan-longcat/LongCat-Flash-Thinking-2601 GitHub :https://github.com/meituan-longcat/LongCat-Flash-Thinking-2601 不仅如此,该模型的智能体能力还获得了重大提升:在智能体工具调用、智能体搜索和工具集成推理等基准测试中达到顶尖性能 整体而言,LongCat 在处理工具依赖关系的响应节奏上展现出了更强的稳定性。 LongCat ZigZag Attention:实现超长上下文 LongCat ZigZag Attention,顾名思义,是一种注意力机制,根据其官方推文描述,其一大核心亮点是能「实现 100 万 据悉,LongCat ZigZag Attention 已被成功用于训练当前 LongCat-Flash-Thinking 模型的一个分支,我们也将很快见证这个分支版本面世。
这个模型来自美团的 LongCat-Flash 系列,官网可以直接使用(https://longcat.ai)。 技术报告:LongCat-Flash Technical Report 报告链接:https://github.com/meituan-longcat/LongCat-Flash-Chat/blob/main 跑起来又快又便宜 LongCat-Flash 是怎么做到的? 我们刚提出要求,刚点开录屏,LongCat-Flash 就把答案写出来了,录屏都没来得及第一时间关。 细细观察你会发现,LongCat-Flash 的首个 token 输出速度特别快。 接下来,我们打开「联网搜索」,看看 LongCat-Flash 这项能力够不够快。我们让 LongCat-Flash 推荐望京附近好吃的餐厅。
作者: HOS(安全风信子) 日期: 2026-02-03 主要来源平台: ModelScope 摘要: 本文深入解析美团LongCat团队开源的LongCat-Flash-Lite无思考MoE大语言模型 LongCat-Flash-Lite的出现为解决这一问题提供了新的思路,通过MoE(混合专家)架构实现了参数量与计算效率的最佳平衡。 技术深度拆解与实现分析 3.1 核心架构设计 LongCat-Flash-Lite采用了模块化的MoE架构,主要包括以下组件 3.2 MoE架构实现 LongCat-Flash-Lite的MoE架构是其核心创新之一 参考链接: 主要来源:LongCat-Flash-Lite模型页 - LongCat-Flash-Lite模型详情 主要来源:美团LongCat团队官网 - 团队技术介绍 辅助:MoE模型研究综述 - = pipeline( Tasks.text_generation, model='meituan-longcat/LongCat-Flash-Lite' ) # 处理函数 def
美团 LongCat 团队正式发布当前高度贴近真实生活场景、面向复杂问题的大模型智能体评测基准——VitaBench(Versatile Interactive Tasks Benchmark)。 美团 LongCat 团队首次基于深度推理、工具使用与用户交互三大维度对智能体任务进行了量化拆解,以可控地构建复杂问题。 美团 LongCat 团队发现,即便是当前先进的推理模型,在主榜(复杂跨场景任务)中的成功率也仅有 30%,揭示了现有智能体与复杂真实生活场景应用需求之间的显著差距。 数据统计结果如下表所示:针对长轨迹评估的复杂性,美团 LongCat 团队还提出了基于 Rubric 的滑动窗口评估器。 04.实验结果与分析美团 LongCat 团队在 VitaBench 上评测了包括 GPT-5、Claude-4.1-Opus、Gemini-2.5-Pro、Kimi-K2、GLM-4.5、LongCat-Flash
居然,发布并直接开源了560B参数的MoE模型LongCat-Flash-Chat。 好家伙,WAIMAI里有两个AI,这次成真的了,美团真发大模型了。 开源地址:https://github.com/meituan-longcat/LongCat-Flash-Chat 也有线上体验地址:https://longcat.ai 我自己去体验了一下,整体模型能力 再来看LongCat,这刷新率不用多说了吧。 像机关枪一样哒哒哒的五六秒就输出完了。 这是LongCat和DeepSeek的另一个case,DeepSeek思考的功夫,LongCat答案快写完了。 很多人都在说LongCat快,确实,它的速度极快,但是,他们的Agent能力,也极强。 直接登顶了。 我自己一直在说,AI现在很多时候,离我们普通大众太远了。 LongCat的输出成本5元/百万 token。换句话说,它不希望用户花几百块的成本全网比价,而是只做几块钱的生意。
出手即王炸 最近,美团发布了千亿大模型LongCat,总参数量560B,根据上下文需求激活 186 亿至 313 亿个参数(平均约 270 亿)。 LongCat非推理模型,在官网看到“深度思考”按钮显示敬请期待。 相信后面也会上推理。 官网体验:https://longcat.chat/ ModelScope: https://www.modelscope.cn/models/meituan-longcat/LongCat-Flash-Chat
在此背景下,美团 LongCat 团队发布了 AMO-Bench,这是一套包含 50 道原创高难度数学问题的评测集。该基准旨在通过更高的难度和严格的数据隔离,重新评估当前模型的推理能力上限。 模型评测AMO-Bench 的评测榜单将保持更新,欢迎持续关注:项目主页:http://amo-bench.github.io/Github地址:https://github.com/meituan-longcat /AMO-BenchHugging Face地址:https://huggingface.co/datasets/meituan-longcat/AMO-Bench本文将结合美团 LongCat 团队的论文与最新数据
4️⃣ 美团LongCat大模型App正式上线,支持语音通话与联网搜索时间:2025年11月3日涉及企业:美团事件概述:美团正式发布LongCat大模型官方App,安卓和iOS用户均可下载。 关联问题:LongCat App与其他AI助手相比有何特色?其特色在于支持语音通话且未来将添加视频通话,同时具备联网搜索能力,结合了美团的本地生活服务背景。文件上传功能目前有何限制? LongCat大模型对美团的战略意义是什么?这是美团在AI领域的重要布局,可能为其核心业务(如外卖、本地服务)提供技术支持,提升用户体验。美团在AI领域还有哪些其他布局? 美团还发布了LongCat-Flash-Omni模型,采用Shortcut-connected MoE技术,集成多模态感知模块和语音重建模块。LongCat如何实现“全模态实时交互”? LongCat-Flash-Omni模型基于高效架构设计,采用ScMoE技术,总参数达5600亿,提供低延迟实时音视频交互能力。
钱主要花在两块:自研大模型LongCat,还有挖AI人才。王兴说,除了那些做云计算的公司,美团在中国企业里对AI的投入算多的。三年时间,资产负债表和现金流都受到了影响。 但王兴的态度很明确:还得继续搞LongCat。为什么非要自研?王兴说,只有自研,美团才能用海量数据更精准地理解现实世界。当然,美团也和第三方模型合作。但自研,是根本。 三年砸钱,现在有了小团,有了LongCat大模型。能不能成功,还要看时间。但至少,王兴和美团,已经在路上了。
四、技术底层创新:DeepSeek记忆模块、美团LongCat提速 在应用层热闹的同时,AI底层技术也在悄然突破,为行业发展筑牢根基。 美团LongCat LoZA:10倍提速+1M长文本处理 美团LongCat系列发布全新稀疏注意力机制LoZA,通过“筛选+替换”策略,将50%低性能MLA模块替换为流式稀疏注意力SSA,形成ZigZag 更值得关注的是,LongCat-Flash-Exp解锁了1M上下文窗口,能轻松处理百万字长文档,性能超越同类模型Qwen-3,为律师、研究员等需要处理长文本的人群提供了高效工具。
AICompass前沿速览:Cursor2.0、FireflyImage5、AgentHQ、LongCat-Video、Kimi-k2ThinkingAI-Compass致力于构建最全面、最实用、最前沿的 AI视频生成模型LongCat-Video是美团LongCat团队开源的136亿参数视频生成基础模型。 核心功能LongCat-Video的核心功能包括:文本到视频生成(Text-to-VideoGeneration):根据输入的文字描述生成相应的视频内容。 技术原理LongCat-Video采用136亿参数的Transformer架构作为其基础模型。 项目官网:https://meituan-longcat.github.io/LongCat-Video/Github仓库:https://github.com/meituan-longcat/LongCat-Video3
LongCat-Flash-Thinking-2601 Technical Report [LongCat-Flash-Thinking-2601 技术报告](https://arxiv.org/abs /2601.16725) 我们介绍了 LongCat-Flash-Thinking-2601,这是一个拥有 5600 亿参数的开源混合专家 (Mixture-of-Experts, MoE) 推理模型, 在广泛的智能体基准测试(包括智能体搜索、智能体工具使用和工具集成推理)中,LongCat-Flash-Thinking-2601 在开源模型中实现了最先进的性能。 基于这些见解,我们推出了 LongCat-Flash-Lite 模型,这是一个拥有 685 亿参数、激活参数约 30 亿、从头开始训练的模型。 尽管将超过 300 亿参数分配给了嵌入,LongCat-Flash-Lite 不仅超越了参数等效的 MoE 基线模型,而且在智能体和编码领域,与现有同等规模的模型相比,展现出了卓越的竞争力。
新增模型 • 美团 LongCat • Kimi 系列:kimi-k2-turbo-preview、kimi-k2-0905-preview • Qwen:qwen3-max-preview • SiliconFlow • 新增 LongCat-Flash-Chat。 • 为数据管道新增 ParserForm 组件。 • 修复正则替换错误。 • 修复 retrieval_test API 相关权重调整无效的问题。
https://github.com/ADoublLEN/MeeseeksHuggingFace模型库:https://huggingface.co/datasets/meituan/Meeseeks美团 LongCat-Flash-Chat 美团正式发布并开源 LongCat - Flash - Chat。 Hugging Face:https://huggingface.co/meituan-longcat/LongCat-Flash-ChatGithub:https://github.com/meituan-longcat /LongCat-Flash-Chat阶跃发布端到端语音大模型Step-Audio 2 mini阶跃星辰发布端到端语音大模型 Step - Audio 2 mini,在多个国际基准测试集获 SOTA 成绩
github.com/baidubce/Qianfan-VL/blob/main/docs/qianfan_vl_report_comp.pdfLongCat-Flash-Thinking – 美团推理模型LongCat-Flash-Thinking 技术原理LongCat-Flash-Thinking采用混合专家(MoE)架构,总参数量达5600亿。 GitHub仓库:https://github.com/meituan-longcat/LongCat-Flash-Thinking技术论文:https://github.com/meituan-longcat /LongCat-Flash-Thinking/blob/main/tech_report.pdfDeepSeek-R1-Safe – 浙大联合华为推出的安全大模型DeepSeek R1 Safe是DeepSeek
• 美团 LongCat-Flash-Thinking。 • Zhipu GLM-ASR 模型。 • TokenPony 模型提供方。 • Firecrawl 集成。
适用场景:科研机构评估AI辅助研究能力高校评价学术AI工具的实用性企业研发部门衡量AI在创新项目中的价值2.2美团VitaBench:真实生活场景的复杂性挑战美团LongCat团队于2025年11月发布 表:主流AIAgent评测基准对比分析评测基准发布机构核心特点适用场景技术门槛开源程度PaperBenchOpenAI学术论文复现能力评估科研机构、高校高开源VitaBench美团LongCat真实生活场景交互评测生活服务
GitHub仓库:https://github.com/zai-org/Open-AutoGLMLongCat-Image:美团开源6B参数文生图与图像编辑模型LongCat-Image是美团开源的高性能图像生成模型 技术原理LongCat-Image的核心扩散架构采用混合MM-DiT和Single-DiT结构,并利用Qwen2.5VL-7B作为其文本编码器,为生成和编辑任务提供统一且强大的条件空间。 GitHub仓库:https://github.com/meituan-longcat/LongCat-ImageGLM-4.6V:智谱AI开源128K长上下文多模态视觉理解模型GLM-4.6V是智谱AI
春节期间,已有过亿人次通过“小团”规划吃喝玩乐,其依托自研LongCat(龙猫)大模型,校验了数十亿次商家信息和用户评价,帮助用户避开歇业商户、踩坑雷区,用AI降低决策成本。