vLLM 离线推理,API 重写,支持本地图片、PDF 解析重写的 API 也支持 PaddleOCR-VL本地部署 PaddleOCR,消费级显卡轻松跑,支持本地图片和 PDF 文件 然后腾讯也来了:大模型 前文我就提到,可能是官方文档写错了现存和磁盘空间,当时写的是需要 80GB 显存 后来修改成了 20GB 官方文档将显存需求从 80GB 改成了 20GB,即便如此也有点离谱,毕竟只是 1B 的模型 安装及模型启动 0 \ --gpu-memory-utilization 0.2 安装及模型启动 - 我的方式 最省心,省事儿,离线最友好的方式必须是 Docker 第一步,拉取 vllm/vllm-openai 1.9GB,其他都是 KV cache 占用 官方教程中的模型调用貌似也不太友好啊,我还是用了为 DeeoSeekOCR 写的 API,简单修改后依然很好用 速度飞快,5 页的 PDF 也是秒秒钟搞定 回到最开始问题,启动模型加上参数 --gpu-memory-utilization 0.66,也就是 16GB 启动模型,依然是 OK 的 而且速度丝毫没有下降
实测,大模型 LaTeX 公式识别,出乎预料前文,我用 Kimi、Qwen-3-235B-A22B、Claude-3.7-sonnet、GPT-4.1、Gemini 2.5 Pro 测试了其在 LaTeX 报错是颜色问题让其修复颜色问题后,输出如下,第四幅图没有依然没有完美复刻GPT-4.1绘制失败,换了 GPT-4o 依然失败Gemini 2.5 Pro第四张绘制失败第三题换个简单点的省点事儿,直接让大模型用 绘制图表fig, ax = plt.subplots(figsize=(8, 6))# 使用 seaborn 绘制# 为了实现雨云图的效果,我们会组合 stripplot, boxplot, 和 violinplot ), # 移除主要网格线 axis.title = element_blank(), axis.text.y = element_text(color = "white", size = 8) 搭建完美的写作环境:工具篇(12 章)图解机器学习 - 中文版(72 张 PNG)ChatGPT、大模型系列研究报告(50 个 PDF) 108 页 PDF 小册子:搭建机器学习开发环境及 Python
自从年初以ChatGPT为代表的人工智能大模型爆火之后,市场上随之出现了很多大模型相关的工具。作为一个IT行业的技术人员,肯定不会放过这种对新技术尝鲜的机会。 最近腾讯推出了自己的大模型:混元。 代码优化能力 下面这段代码是我16年初入行时写的一段批量执行测试用例的自动化脚本,来看看混元大模型能给出什么优化建议: # coding=utf-8 import unittest from unittest 下图是腾讯混元大模型帮我生成的图片: 文生图是一直是AIGC领域的核心技术之一,也是体现通用大模型能力的试金石,对模型算法、训练平台、算力设施都有较高的要求。 自从试用了混元大模型后,我最近的几篇文章,配图和封面都是直接用大模型直接生成的。只需要说明配图的要求,混元大模型就能在几秒钟内生成我脑海中的配图,简单快捷还清晰。 如果要整体概括混元大模型对日常工作和内容创作的帮助价值,我觉得那就是对生产效率的革新,最切中它的价值。 腾讯混元大模型官方入口:https://hunyuan.tencent.com/
它基于Llama-3.2-Vision模型打造,也是在大模型的基础上,加入了“慢思考”思维链COT。 在六个多模态推理基准测试中,LLaVA-o1超越了许多更大的开源模型(Llama-3.2V、InternVL2等),甚至也超越了一些闭源大模型(Gemini Pro 1.5、GPT-4o mini)。 在训练过程中,模型根据需要自行选择这些标签,根据其自己的判断激活每个阶段。与OpenAI o1大模型一样,所有阶段都由模型在单个推理过程中完成。 模型训练中则用了Llama-3.2-11B-Vision-Instruct模型作为基础模型,使用LLaVA-o1-100k数据集进行监督微调(Supervised Fine-Tuning, SFT)。 而在使用阶段级束搜索之后,可以得到正确的结果(下图绿色部分显示)实测模型能力首先给一个简单的加减题目减去图中闪亮的小球和紫色物体,剩下多少个?模型会把问题进行拆解,然后进行一步一步的分析。
全程无滤镜、无夸大,纯实测视角,把每个模型的优缺点、适用范围、实操体验一一拆解,文末还整理了模型选择速查表,新手也能快速对号入座。 3.4 几个大模型的默认上下文长度 相信大家都已经了解过,上下文是大模型能记住并处理的对话 / 文本长度,单位 token。 上述几种大模型默认上下文长度: glm-4.7-flash(Ollama) 默认上下文:32768 (32K) tokens 最大支持:198K tokens(官方标称 200K,Ollama 限制 198K 四 核心实测:4大模型全方位对比(相同案例,公平PK) 本次测试选取了4类高频场景,覆盖编码、办公、推理等日常使用场景,每个场景设置相同的任务指令,从响应速度、输出质量、容错率、易用性4个维度进行评分( 如果大家在操作过程中遇到其他问题,或者有其他想测试的模型,欢迎在评论区留言,我会第一时间回复、补充实测!
2026年4月7款国产大模型推理能力实测:谁能发现网站付费墙的漏洞?一次真实的代码安全分析任务,7款国产大模型同台竞技,最终只有1款完成了挑战。背景大模型的代码能力评测很多,但跑分和实战是两回事。 我们想回答一个更实际的问题:给大模型一个真实的代码安全分析任务,它能不能像安全工程师一样思考,从蛛丝马迹中推理出漏洞? 报告质量也很扎实:8个缺陷从严重到低危分级,每个都有curl验证命令和实际响应作为证据。CDN缓存30天导致修复后旧资源仍可访问这一发现,体现了超越任务要求的技术深度。 结论这次测试揭示了当前国产大模型在代码推理能力上的几个关键差异:推理链完整性是分水岭:能从HTML源码一路追踪到API接口再到CDN资源的模型(GLM-5.1),与在中间某个环节断裂的模型,产出质量天差地别 本文基于2026年4月23日的实测数据,测试环境为Trae企业版IDE模式。所有模型使用相同的提示词和工具集。
低调的鹅厂通用大模型,终于来了! 前天下午,AI智能解码收到了腾讯混元的内测资格,今天就来和大家分享一下初体验。 打开小程序后,从顶部菜单可以看到,其主要分为「聊天」和「灵感」两大页面。 腾讯表示,混元大模型具备降低幻觉比例、逻辑推理、抗拒诱导、常规问题、语义理解、内容创作、实用办公、撰写代码等能力。 既然如此,我们就选择六个有代表性的维度,来看看它的生成效果。 语音功能只能算是人的语音输入,大模型输出文字。 其他的功能还有很多,就不一一展示了。 总体上感觉目前混元大模型中规中矩,有一些突出的亮点。 混元大模型逻辑推理和写作能力正常发挥,数学能力差强人意,英语翻译一般,绘画能力让我眼前一亮,腾讯混元大模型文生图功能正式对外开放。 那么,你觉得鹅厂的混元大模型效果如何?
随着 vibe coding 相关技术日趋成熟,大模型辅助编程已经逐渐成为主流的开发方式。各大模型也在持续发力工程级代码能力,竞争愈发激烈。 在这个背景下,一个自然而然的问题出现了:对于 DolphinDB 这类深耕专业细分领域、自带编程语言的产品,大模型的辅助效果到底如何?不同模型之间的差距有多大? 于是,我们跑了一轮系统性评测,覆盖当前主流的国产大模型,并引入 gpt-5.4 作为能力基准线,看看国产模型的真实水位在哪里!测试框架和常见的问答式评测不同,这次我们刻意把测试环境做得更接近真实开发。 在这个层面,deepseek-v4-pro 和 deepseek-v4-flash 在国产模型里表现最佳,为第一梯队,其余模型都有一定差距。 后续,我们也会持续跟进的模型的迭代,并增加更多测试样本。希望了解更多测试细节?点击国产大模型在 DolphinDB 代码生成任务上的测评 - DolphinDB Blogs,进行跳转。
百度终于在面对 DeepSeek 的爆火之后,重新发布新一代大模型。分别包括了文心大模型 4.5 和文心大模型 X1。同时在官网上已经上线了这两款模型,而且已经是全部免费了。 (老实说,这波 DeepSeek 真的是无差别攻击了所有的闭源大模型,使得它们不得不都开启免费了)从定位来看,文心 4.5 模型主要擅长多模态能力,而 X1 模型则像 DeepSeek-R1 模型一样, 在各基准测试的对比上,文心大模型4.5在大多数基准测试上优于 GPT-4o,特别是在 DocVQA 和 MathVista 任务上表现明显更好。说明文心大模型 4.5 更加适用于广泛的多模态任务。 在纯文本能力上,文心大模型 4.5 整体的平均值能力在 79.6,超过了 DeepSeek-V3 和 GPT-4.5 模型。 总的来说,百度为了能够在大模型内卷阶段不掉队,还是需要不断的提升自己模型的能力,还要搞以前那套收费肯定是行不通的了~
,在综合性能评估中位列全球第四,与阿里巴巴旗下 Qwen3-Max-Preview 模型并列中国区榜首,同时摘得全球开源模型桂冠。 国内大模型开源这一块,除了 DeepSeek 和 Qwen,其实智谱也很能打的 之前偶尔关注智谱,是看到美国商务部把它列为实体清单,还有 OpenAI 点名它是全球战略的竞争对手 OpenAI 旗下 Global 但是 GLM-4.6 本地部署还是有点成本太高 原版 714GB、FP8 版本模型文件也 355GB 了 倒是 GLM-4.5-AIR 有了比较靠谱的量化版本——GLM-4.5-Air-AWQ-4bit ,它的模型文件只有 64GB 不到(GLM-4.5、GLM-4.5-Air、GLM-4.5-Air-FP8 的模型文件大小分别是 717GB、221GB、113GB) 国内镜像:https://modelscope.cn 不要再用Ollama,不要再用llama.cpp 简单看下代码和现实世界理解能力:用大模型生成人体器官结构图 GLM-4.5-air ChatGPT GLM-4.6 DeepSeek-V3.2 看官方测评数据和市面上的评价
与之前其他公司大模型发布活动不同,本次发布是一场产品级发布会——购买相应硬件产品,用户即可升级系统,立刻体验大模型带来的神奇能力。 AI 大模型将带来终端数量和产业规模 10 倍以上的提升,科大讯飞董事长刘庆峰在会上表示,未来,「星火」认知大模型「1+N」的技术红利将通过「平台+赛道」的商业逻辑逐步兑现。 刘庆峰表示,工业领域也是一个非常重要落地场景,降低没有软件背景普通工程师和工人的编程门槛,我们可以期待 8 月的能力突破。 5、多模态输入和表达能力不断丰富。 三、核心技术、数据与长期主义 2022 年 12 月,科大讯飞开始「星火」认知智能大模型的专项攻关,能在五个月里实现认知大模型的快速突破,和公司长期扎实积累密不可分。 在认知大模型相关的算力上,科大讯飞在总部自建有业界一流的数据中心,目前已建成四城七中心深度学习计算平台,为大模型训练平台建设奠定了很好的硬件基石。
⭐️搜索“可信AI进展“关注公众号,了解更多AI实测内容又是一年毕业季,据教育部统计,2024届全国普通高校毕业生规模预计达1179万,同比增加21万。大家在平台上纷纷表达了自己的迷茫与困惑。 随着AI的不断发展,大家可以将自己的求职问题输入进AI中,让其来帮助你解决困难,寻找到心仪的工作~下面小编将实测以下国内8大AI模型,大家可根据实测内容自行体验~(仅图片展示,与实测排序无关)讯飞星火, ,可以进行联网搜索整合,并直达相关链接,上传你自己做好的简历想进行优化,结果写的都仍然太过于泛化~(以百川和Kimi举例)且百川、豆包、kimi、混元没有与AI职业相关的智能体供大家使用~总结小编整体实测后 所有的8款AI模型实测,其都可以进行联网搜索整合,并直达相关链接,可以节约大量时间成本,但是百川、豆包、kimi、混元给出的回答有些泛化,不能够及时寻找到职业思考的方向,也许会让自己感觉更加的疑惑。
引言 大型语言模型已成为各行各业的核心基础设施。从客户服务到内容创作,从代码生成到科学研究,大模型正深度融入企业的核心业务流程。 传统的系统监控工具如Zabbix、Prometheus等虽然能监控基础硬件资源,但无法深入理解大模型服务的特殊行为模式,无法感知模型推理的内在质量,更无法预测服务性能的潜在风险。 今天我们将以模型健康度监测系统为例,深度剖析现代大模型运维平台的设计理念、技术实现与创新亮点。通过详细的流程分析、架构解读和实践场景说明,为构建智能化的模型运维体系提供完整的实践参考和技术路线图。 多层次监控体系 系统构建我们采用了四层级的立体化监控架构,每一层都针对大模型服务的特定维度进行深度监控:系统资源层:基础硬件资源监控(CPU、内存、磁盘、网络),确保运行环境稳定模型运行层 ): """智能性能评分算法 - 基于大模型服务特性的专业评分体系""" score = 100 # 基准分数 # CPU性能 (权重: 25%) - 考虑到大模型推理对CPU
大家好,我是 Ai 学习的老章 字节跳动发布 Seed-OSS 系列大模型有段日子了,最近有空升级了 vLLM,拿出一张 H200 实际部署看看显存占用及性能情况 Seed-OSS-36B 本地字节跳动发布的大模型包括 长上下文处理:在 RULER(128K 上下文长度)测试中,该模型达到 94.6,创下开源模型的最高分。 seed-oss-36-instruct/chat_template.jinja --served-model-name seed-oss-36 --port 8000 --max-num-seqs 8 ,各个方面都领先 Qwen3-32B,尤其是长上下文处理测试中,该模型达到 94.6,创下开源模型的最高分。 另外,它还有可控思维预算机制,用户可以根据任务复杂性灵活指定模型的推理长度,如设置为 512、1K、2K、4K、8K 或 16K 等。
结果 该图提供了多个指标下模型性能的全面总结,适用于所有包含任务都有结果的模型。'跨任务平均准确率'列展示了整体平均准确率(粗体数字),它是每个任务的平均最大准确率的平均值。 虽然大多数模型通常只能略好于随机猜测,但最好的模型却能持续表现更好,而且我们几乎达到了90%的最佳得分。 来自“图像块洗牌(简单)”任务的示例数据。 模型必须根据给定的游戏走棋序列(以字符串形式给出,这里截断了)预测棋局的结果(白胜、黑胜或和棋)。 棋局结果预测 根据棋局走法序列( 任务提示[8] )预测棋局结果(白胜、黑胜或和棋)。 搭建完美的写作环境:工具篇(12 章)图解机器学习 - 中文版(72 张 PNG)ChatGPT 、大模型系列研究报告(50 个 PDF)108页PDF小册子:搭建机器学习开发环境及Python基础 116 task_prompt_shuffle_easy.html [7] 任务提示: https://htihle.github.io/prompts/task_prompt_shuffle_hard.html [8]
此外,AIDotNet API还支持多种AI大模型,包括OpenAI、星火大模型、Claudia、智谱AI、Ollama、通义千问(阿里云)、AzureOpenAI以及腾讯混元大模型,满足了用户对各种AI 模型的需求。 基于.NET Core 8实现使用EntityFrameworkCore对于数据库操作。基于MiniApis提供WebAPI服务。 功能实现 支持用户管理 支持渠道管理 支持token管理 提供数据统计预览 支持日志查看 支持系统设置 支持接入外部Chat链接 支持支付宝购买账号余额 AI大模型支持列表 OpenAI (支持function ) 星火大模型(支持function) Claudia 智谱AI Ollama 通义千问(阿里云) AzureOpenAI(支持function) 腾讯混元大模型 支持数据库 SqlServer 配置类型
写在前面:为什么要做这件事OCR 这件事,听上去没什么悬念——“识图取字”嘛,是个多模态大模型就能干。 一、评测怎么做的数据来源:日常使用积累这次评测用到的数据,全部来自我们日常使用大模型过程中积累的真实中文 OCR 场景数据。 除了gemini-3.1-pro-preview 这一根独苗外,国产模型把第一档完全包了。Top 10 国产占 8 席。 gpt 系列高端档的 1/10 到 1/20,准确率反而更高六、七大子任务表现情况热力图比表格更直观——绿色越深的格子代表那个模型在那个任务上越强。 这些模型推理慢可以理解,但gpt-5.4-high 既慢又不准还贵,当前的中文OCR场景建议不要选它。 八、写在最后OCR 这件事,看起来朴素,但它是大模型走进真实办公场景的入口。
YOLOv8 的主要突破在于引入了基于变压器的模块,这使得模型能够更好地捕捉图像中的长距离依赖关系。 可以看出YOLOv8模型在精度、召回率和平均精度值方面表现良好。然而,与YOLO模型相比,Faster R-CNN的评估指标值最低。评估YOLOv8模型的混淆矩阵至关重要。 因此,如图6所示,获得了YOLOv8的混淆矩阵,它表明YOLOv8模型表现良好。还获得了YOLOv8模型的指标曲线,如图7所示。 这些曲线表明YOLOv8模型进展良好,损失值下降,召回率和mAP指标有所提升。此外,还获得了YOLOv8模型的预测结果,其中部分预测样本如图8、9、10和11所示。 根据图8、9、10和11中显示的模型预测结果,YOLOv8模型能够精确检测各种物品。因此,显然YOLOv8具备高效检测垃圾材料的能力。尽管取得了令人鼓舞的结果,本研究仍存在若干局限性。
但面对商业化的ClosedAI和OpenAI等语言模型,还存在一些瓶颈。 数据量不足,预训练数据有限 开源社区很难获得大规模高质量的数据集来进行模型预训练,导致其模型质量无法与业内巨头相提并论。 数据量的不足直接限制了模型的表达能力和推理能力。 算力资源有限,GPU/TPU数量相对较少 开源社区几乎没有足够的GPU/TPU来训练超大规模的模型参数,很难进行长时间的预训练,无法匹敌巨头公司拥有的算力优势。算力的缺乏是开源模型质量提升的硬限制。 商业化受限,收入有限,难以持续投入 开源社区很难直接通过模型商业化来获得持续的财务支持,长期投入会面临资金短缺问题。 模型泛化、可解释性与安全性等方面有待提高 开源模型的可解释性和安全性还需要加强,部署时存在不确定性,这也是限制其应用的一个因素。
梳理核心链路的一个重要目的是获得流量模型。但在全链路压测中,除了流量模型,业务模型和数据模型一样重要。这篇文章,为大家介绍如何构建这三大模型。 下图是一个常见的电商双11大促时候的业务场景模型图,我以这个思维导图为例来做分析说明。 峰值流量模型 预估的流量模型要以峰值流量场景来预估,否则很可能由于错误的预估导致准备不足而致使大促期间线上出现问题。这不仅是一个技术和监控的问题,还要综合考虑本次大促期间业务目标以及业务转化率的因素。 预估大促时的支付转化率为60%,则可得:大促峰值订单支付QPS为(200/40%)*60%*(200W/50W)=1200QPS。 ,确认以下信息: 是否有热点数据相关的操作:比如说所有用户秒杀同一件商品; 不同类型数据处理逻辑有差异时,需通过测试数据多样化提高性能测试代码覆盖率; 缓存数据:要确认是否有缓存,缓存大小为多少(排除大key