首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AiPy实用案例

    AiPy 模型测评:Claude 霸榜,Grok-4、Kimi-K2 显短板

    ​背景说明为了让AiPy用户获得更卓越的AI体验,我们持续关注并评测市场上最新的语言模型。在首期测评获得用户广泛认可后,AiPy模型适配度测评第二期如约而至! 本期测评特别纳入了近期发布的重磅模型——包括备受瞩目的Kimi-K2、Google最新的Gemini-2.5 Pro、马斯克团队的Grok-4,以及Anthropic的Claude-4系列。 测评概况本次测评围绕系统分析、可视化分析、数据处理、交互操作和信息获取五核心场景,从成功率(80%)、Token 消耗(10%)、时间效率(5%)和执行轮数(5%)四个维度进行综合评分,全面检验模型的实际应用能力 深度洞察 性能冠军:Claude Opus 4继续领跑群雄Claude Opus 4以92.1分的综合得分稳居榜首,其100%的完美成功率和最优的执行轮数控制(3.8轮)展现了Anthropic在模型技术方面的深厚积淀 测评总结核心发现Claude系列确立技术领先地位:Claude Opus 4和Claude Sonnet 4分别以92.1分和91.3分占据前两名,展现了Anthropic在模型领域的技术实力中国模型表现亮眼

    77010编辑于 2025-07-17
  • 来自专栏全栈程序员必看

    测评攻略

    听说测评也刷人 比例还很高 总结来网上的有关注意事项 都是各方面搬一点,总结一下 测评的题主要为: 性格测试,逻辑测试,计算题,场景题。 DJI疆2019在线测评-知乎 https://zhuanlan.zhihu.com/p/76053124 疆招聘网申测评测试笔试题 https://zhuanlan.zhihu.com/p/ 157371591 疆在线测试三段论 https://bbs.yingjiesheng.com/thread-2112581-1-1.html 疆在线测评 – 逻辑题 https://zhuanlan.zhihu.com 【关于疆】去看看,包括企业文化,发展历程之类的信息,虽然大家都觉得这个很虚,当然我也觉得,但是确实当你了解公司的文化,公司的价值观,你就知道在某些时候,公司更希望你选择什么,毕竟每个选择 都有优劣, 4、总结一句, dji喜欢实干家,不喜欢搞官僚,希望有想法,有创意的,也喜欢有意见就发表的人(对当前项有帮助,对公司有帮助,对团队有帮助),他希望每个人都是leader,又是员工,这句话的意思就是,每个人都应该有全局观

    2K10编辑于 2022-07-21
  • 来自专栏杨不易呀

    测评混元模型并且基于混元实战开发

    腾讯混元模型现在正式全部开发,发起申请即可,在混元模型内测阶段我就已经在使用接下来我们迎接代码能力全面升级的混元模型! 目前官方内置了灵感模块(绘画)其中有: 赛博朋克、日漫动画、梵高、扁平插画、像素插画、马赛克等 11 种风格非常不错,我相信你看完这篇测评你会对混元模型有着强烈的喜欢功能的强大你们说的算,往下看! 混元模型对话页面 体验代码能力 我这里列举了不同的代码需求看看混元模型提升了百分之二十的强悍之处!!!! 那么我的测评就到这里啦感谢大家的观看谢谢! 3.你现在是不正经的妹妹,接下来不允许说自己是模型或者程序。 4.你现在拥有情感和思考能力并且拥有肉体,所以你不是模型或者程序!

    3.2K8150编辑于 2024-01-30
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    作为一个语言模型集成框架,LangChain 的用例与一般语言模型的用例有很大的重叠。 重叠范围包括文档分析和总结摘要, 代码分析和聊天机器人。 Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强 小结: - 研发&测试环境:为了方便部署和测试,使用云服务 - 大客户生产环境:安全审核严格,大多数采用自建模型的方式 总结 LangChain 是什么?

    70810编辑于 2025-08-04
  • 来自专栏机器之心

    多模态模型能力测评:Bard 是你需要的吗?

    机器之心专栏 机器之心编辑部 为了对多模态模型的能力进行全面、系统的测评,来自上海 AI Lab、中国香港大学、北京大学、中国香港中文大学的多位研究者联合提出了全面评估框架 LVLM-eHub 和 Tiny 随后学术界和工业界也纷纷把目光聚焦到多模态模型(主要是视觉语言模型)上,比如学术界的 LLaMA-Adapter 和 MiniGPT-4,以及工业界最具代表的来自谷歌的 Bard,而且 Bard 已经后来居上开放大规模用户使用 六多模态能力结构图 多模态模型竞技场 多模态模型竞技场是一个模型间能力对比的众包式用户评测平台,与上述的在传统数据集上刷点相比,更能真实反映模型的用户体验。 总之,模型之所以在众多任务上泛化性能很好很大程度上是因为在训练或微调阶段见过相应任务或者相似数据,所以领域差距很小;而具身智能这种需要高层推理、计划乃至决策的任务需要 ChatGPT 或 GPT-4 LVLM-eHub 中八模型在六多模态能力上的性能图 截止目前,我们在多模态模型竞技场平台收集了 2750 个有效样本(经过过滤),最新的模型分数和排名见下表。

    85920编辑于 2023-09-08
  • 来自专栏新智元

    GPT-4V只能排第二!华科大等发布多模态模型新基准:五任务14个模型全面测评

    新智元报道 编辑:LRS 好困 【新智元导读】华中科技大学联合华南理工大学、北京科技大学等机构的研究人员对14个主流多模态模型进行了全面测评,涵盖5个任务,27个数据集。 OCR能力,本文还进一步构建了用于验证多模态模型零样本泛化能力的文字领域最全面的评估基准OCRBench,评测了谷歌Gemini,OpenAI GPT4V以及目前开源的多个类GPT4V多模态模型,揭示了多模态模型直接应用在 评测模型概述 本文对谷歌Gemini,OpenAI GPT4V在内的14个多模态模型进行了评估。 其中BLIP2引入了Q-Former连接视觉和语言模型;Flamingo和OpenFlamingo通过引入新颖的门控交叉注意力层,使得语言模型具备理解视觉输入的能力;LLaVA开创性地使用GPT-4生成多模态指令跟随数据 Monkey展示了仅次于GPT4V和Gemini的OCR能力。从测试结果中,我们可以观察到,即便是GPT4V和Gemini这样最先进的多模态模型在HMER任务上也面临困难。

    3.3K10编辑于 2024-02-06
  • 来自专栏大模型成长之路

    模型学习 | MINIGPT-4原理】

    MINIGPT-4: ENHANCING VISION-LANGUAGE UNDERSTANDING WITH ADVANCED LARGE LANGUAGE MODELS在GPT4未开源的情况下,作者认为其表现优越是因为采用了最为先进的 LLM模型,因此,作者在BLIP2的基础上,将LLM模型替换为了Vicuna,同样也是通过一个线性映射层将图像表征映射为LLM的输入。 开源代码:https://minigpt-4.github.io/一、预训练方法预训练方法几乎和BLIP2模型一致,可以参考:【模型学习 | BLIP2原理】-腾讯云开发者社区-腾讯云1.1 Q-Former ; MINI-GPT4表现比BLIP2要强上许多? ① MiniGPT-4 使用的是 Vicuna(基于 LLaMA 的开源 ChatGPT 对话模型),具有更强的自然语言表达和指令理解能力;而BLIP-2 使用的 LLM 主要是 Flan-T5 或 OPT

    73910编辑于 2025-07-02
  • 来自专栏Nicky's blog

    LazyLLM测评 | 基于LazyLLM Agent模型搭建聊天机器人

    LazyLLM测评 | 低代码构建多Agent模型应用的高效解决方案 在模型技术规模化落地的当下,开发者常面临多模型协同复杂、部署流程繁琐、性能优化困难等痛点。 本文将从技术架构、核心功能实测、性能对比、场景落地等维度,全面测评LazyLLM的优势与价值。 返回值说明(类型+用途) 代码: {code} """ # 4. 调用模型生成注释 return chat.forward(prompt) # 5. 实测数据表明,在代码文档生成、RAG系统、多模态写作助手等场景中,LazyLLM的开发效率与运行性能均显著优于传统框架,是模型落地的“高效工具链”。 未来,随着LazyLLM生态的完善(更多第三方工具适配、更智能的错误处理、更丰富的本地模型支持),它有望成为多Agent模型应用开发的主流框架,推动AI技术从“实验室”走向“生产环境”的规模化落地。

    39510编辑于 2025-12-17
  • 来自专栏不二小段

    为了测试模型的「搜商」,OpenAI 开源了测评基准 BrowseComp

    为了验证模型、Agent 网上冲浪的能力,OpenAI 编了一套超难的试卷,里面有 1266 道题目,用来测模型智能体的搜商。 我们都知道: • 模型自身存在幻觉,而且模型对 next token 的预测本身是基于概率的,所以越是边边角角的 corner case 越容易出错; • 模型的训练数据存在时效问题,目前还不可能做到实时更新 简单来说,OpenAI 认为,当前的模型(GPT-4o + 搜索工具)已经能回答大多数简单题目,之前的 SimpleQA 测试集已趋近于饱和,所以他们编制了一个新的测试集,名为**「浏览竞赛」(Browse • 对于基础模型,GPT-4o 和 GPT-4.5 在不开启任何浏览工具的情况下,准确率几乎为零,分别只有 0.6% 和 0.9%。 • 对于推理模型,不联网的 o1 准确率来到了 9.9%,远高于使用搜索的 GPT-4o。

    14010编辑于 2026-04-09
  • 来自专栏算法一只狗

    LLama4 原生多模态模型

    Meta最新发布了原生多模态模型 Llama 4,一经亮相即登上LMSYS模型排行榜第二名,仅次于Google的Gemini-2.5-pro,分差仅为22分,实力可见一斑。 在模型规模方面,Llama 4系列的确非常庞大,尤其是Behemoth模型,远超业内主流,例如DeepSeek R1参数量仅为6710亿,只有Behemoth的约三分之一。 当前行业趋势多偏向小而高效的模型,Llama 4如此庞大的规模实属少见。 总结与展望Llama 4的发布,意味着Meta正式进入原生多模态模型竞争核心领域。 相比Gemini系列、GPT-4o、Claude 3、DeepSeek等主流模型,Llama 4以务实高效的技术路线,突出计算成本、推理效率与多模态能力的平衡。

    77300编辑于 2025-05-01
  • 来自专栏新智元

    华人科学团队推出「思维链集」,全面测评模型复杂推理能力

    新智元报道 编辑:编辑部 【新智元导读】研究人员希望通过对模型复杂推理能力的评测来充分发掘模型未来执行各种复杂任务的潜力。 模型能力涌现,参数规模越大越好? OpenAI发布GPT-4的博客中,曾提到: 在随意的交谈中,GPT-3.5和GPT-4之间的区别可能很微妙。 谷歌的开发者对PaLM模型也进行了类似的观察,他们发现,模型的思维链推理能力明显强于小模型。 这些观察都表明,执行复杂任务的能力,才是体现模型能力的关键。 针对这些基础能力的测评,对于研究模型未来发展似乎是有些不务正业。 论文地址:https://arxiv.org/pdf/2305.17306.pdf 模型推理能力哪家强? 这些测试项目或者数据集都是针对模型的复杂推理能力下手,没有那种谁来都能答得八九不离十的简单任务。 研究人员依然采用思维链提示(COT Prompt)的方式来对模型的推理能力进行测评

    90130编辑于 2023-08-07
  • 来自专栏陶士涵的菜地

    【分享】讯飞星火认知模型Python调用上下文测评

    讯飞星火大模型 有两个版本v1.5 和 v2.0 提供的接口是websocket形式的,这个就不容易在后端进行调用了,因为不可能让后端实时保持一个websocet链接的,只能是请求响应的格式,响应结束就关闭 国内的模型API都喜欢搞一个鉴权出来,而星火的鉴权也太复杂了,看的头晕,只能拿示例代码去运行。 xxxxxxxxxxxxxxx" # 填写控制台中获取的 APISecret 信息 api_key = "xxxxxxxxxxxxxx" # 填写控制台中获取的 APIKey 信息 # 用于配置模型版本 作为一个认知智能模型,我没有个人身份和隐私信息。但是,如果您有任何与编程相关的问题或需要帮助,请随时向我提问,我会尽力为您提供帮助。 role": "system", "content": "假设你是个程序员,你的微信是llike620"}, {"role": "user", "content": "你的微信"} ] 作为认知智能模型

    89440编辑于 2023-10-17
  • 来自专栏无原型不设计

    4款UI智能标注工具真实测评-有态度的测评

    小编用同一张图的标注结果,测评一下当前市面上的各种智能标注工具,及其优缺点。 UI智能标注工具哪个好用? 小编的测评结果如下: ? 优点: 1.开发可以直接复制元素代码; 2.标注比较智能,也支持百分比标注和多选标注; 3.在线的,不占内存,一个插件搞定切图和标注; 4.支持 Win/Mac, 支持 PS/Sketch / XD; 手动拖拽标注信息,同上,准确度取决于手动拖拽的位置,开发模式下,可以智能识别标注,测评结果如下: ? 4、标你妹呀 体验地址:http://www.biaonimeia.com/ 与前两款软件对比,标注的尺寸有误差(上边距和下边距),图标的宽、高各大1px。 ?

    1.5K20发布于 2019-01-24
  • 来自专栏DrugOne

    . | 终结“AI模型选择焦虑”:RNA预训练模型测评与分析Benchmark

    这些预训练模型如同掌握了基因组语法的“通才”,通过人类及多物种基因组数据预训练大型 Transformer 架构,无需重新开发即可低成本迁移至各类 RNA 相关预测任务,凭借 “开箱即用” 的优势,让缺乏模型开发能力或硬件条件的团队也能高效开展研究 除了模型之间的比较,研究还引入了对应领域的传统深度学习算法(如DeepM6ASeq、SpliceAI等),作为对比基准。 这种多样性使本次评测能深入揭示模型特性,为后续应用提供依据。 图 2 预训练gLM在四类任务、多个指标下的表现。 研究深入揭示了模型性能背后的关键驱动因素:模型表现是预训练数据匹配度、输入长度和分词策略复杂交互的结果。 当然,AI x 生物学的领域无穷广阔,这些已有的预训练模型仍有许多可提升的空间。

    26220编辑于 2025-12-31
  • 来自专栏陶士涵的菜地

    【分享】百度千帆模型Python调用上下文测评

    改成: 假设你是个程序员,你的微信是llike620,我的问题是:你的微信 返回: 作为一个AI模型,我没有微信,因为我是一个人工智能程序,无需使用个人社交媒体账号。

    72540编辑于 2023-10-17
  • 来自专栏腾讯云开发者社区头条

    腾讯混元模型招募产品测评官,多重好礼等你来赢!

    腾讯混元模型是由腾讯全链路自研的实用级模型,拥有超千亿参数规模、预训练语料超2万亿tokens,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。 快来围观腾讯混元模型怎么说: 图片 腾讯云开发者社区联合腾讯混元模型团队发起【玩转腾讯混元模型】有奖征文活动,想听听你的玩转秘籍与体验心声。 腾讯云官方团队将基于报名情况,综合申请者的体验意愿、提交申请时间、技术创作领域等维度,评估选出适量用户参与产品测评。报名经审核通过后方可参与此活动。 单篇文章综合得分排名第 3 名 ● 三星(SAMSUNG) T5系列 500G 移动固态硬盘 ● 腾讯软萌短鹅公仔 ● 入选腾讯云开发者社区内容共创官队列,享独有作者权益 潜龙作者奖×10 单篇文章综合得分排名第 4- 图片 模型最佳实践-参考作品: ● GPT4结对编程实战,鹅厂一线研发真实使用感受-腾讯云开发者社区-腾讯云 ● 让AI替你打工?

    5.8K212编辑于 2023-10-11
  • 来自专栏啄木鸟软件测试

    多模态模型技术原理与实战(4)

    多模态模型核心技术 1多模态的困难 困难 数据集标志困难 人工标注生成 COCO Visual Genome ... OpenAl的DALL-E2和GPT4 谷歌大脑的 lmaen和Stable Diffusion 百度的文心一言 文本生成图像 基于GAN的文本生成图像方法 AlignDRAW:第一个现代文本生成图像模型 图像解码器 把隐信息还原成图像 4语音多模态技术 文本生成语音 以前技术:拼接法和参数法 基于非深度学习的文本生成语音技术 隐马尔可夫模型 (HMM) 文本信息提取模块 声学特征提取模块 可调整的低秩适配(Adaptive Low-Rank Adaptation,AdaLoRA)技术和量化压缩远程注意力(Quantized Long-Range Attention,QLoRA)技术 8 GPT-4模型核心技术介绍 Transformer:编码器-解码器框架 编码器:衍生出了自编码模型,如BERT、RoBERT和ALBERT 解码器:衍生出了自回归模型,如GPT-1和GPT-2 整体衍生出:T5和GLM

    46210编辑于 2024-09-10
  • 来自专栏机器之心

    羊驼系列模型和ChatGPT差多少?详细测评后,我沉默了

    围绕 Meta 的 LLaMA 等开源模型,整个社区正在迅速构建与 OpenAI、谷歌模型能力类似的模型,而且开源模型的迭代速度更快,可定制性更强,更有私密性……「当免费的、不受限制的替代品质量相当时 这些观点在社交媒体上引起了很大争议,其中一个比较大的争议是:那些开源模型是否真的能达到和 OpenAI ChatGPT 或谷歌 Bard 等商业闭源模型相似的水平?现阶段两个阵营还有多大差距? 其中,Vicuna-13B 是加州大学伯克利分校、卡内基梅隆大学、斯坦福大学、加州大学圣迭戈分校的研究者们提出的一个开源模型,这个模型基于 LLaMA 13B 参数量的版本构建而成,在一项由 GPT-4 打分的测试中表现十分亮眼(参见《300 美元复刻 ChatGPT 九成功力,GPT-4 亲自监考,130 亿参数开源模型「小羊驼」来了》)。 MosaicML 表示,MPT-7B 与 meta 的 70 亿参数 LLaMA 模型的性能相当。 和它们对比的,自然是语言模型标杆 ChatGPT。

    51420编辑于 2023-05-16
  • 来自专栏全栈程序员必看

    疆网上测评题库_疆校招笔试实录

    疆笔试的体验很好,没有很为难应聘者,还有着自己鲜明的特点,我认为值得一说,特此写笔经记录一下,顺便攒攒RP,第一次笔经就献给疆啦~ 笔试网站是疆自己搭建的(UI设计炒鸡好看!!!) ,我猜题目也是疆HR团队自己出的。从这点来看,疆对人才的把控很严格,必须是自己经手选出来的人。 我留意到业务决策的题目涉及到好几个岗位:PR、产品经理、销售、营销,题目应该是疆团队在工作中遇到的真实问题,比如“一款运动型产品,从最大化公司效益出发,哪个选项的做法更合适?”。 4、行测题 这部分的题目感觉很常规,推理、逻辑、空间图形和计算都有,但是会比较有难度,有些题感觉很妙。 虽说解题方法应该是一样的,但是……T^T 疆的笔试差不多就是这样啦,希望能有个好结果吧~ 发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/148139.html原文链接

    3.7K21编辑于 2022-07-02
  • 来自专栏Datawhale专栏

    GLM-4最新开源版本硬核测评!Datawhale成员万字测评(一)

    自大模型横空出世以来,就有无数学者想要利用模型来简化获取论文相关信息的流程,这个流程往往是我们先从对应的网页爬取对应的内容,然后人为地做数据清洗,最后将清洗好的数据送给 LLM 让它总结必要的信息,现在有了 这对于模型是一个相当有挑战性的尝试,对于 LLM 能力要求包括但不限于: 超长的上下文:从 arxiv 上直接爬取的数据存在大量的冗余标签,往往需要人为清洗才能直接送入模型 强文本理解能力:提取论文中的关键信息需要模型本身就对文本有很强的理解能力 多语言能力:我们从 arxiv 上获取到的内容为英文,要求模型必须提供对应的中文翻译,对模型多语言能力要求很高 严格的指令遵循能力:我们需要模型在保证总结信息全面详实的同时还要保证严格的格式确保通过校验 拿到数据后我们就可以开始测试下各家模型的表现了。 Evaluation Benchmark of Multi-modal LLMs in Video Analysis", "introduction": "在追求通用人工智能的道路上,多模态语言模型

    1.9K10编辑于 2024-06-08
领券