首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Lcry个人博客

    利用 cloudstudio 免费 GPU 时长部署 DeepSeek-OCR

    就在上周,人工智能团队DeepSeek AI正式发布全新多模态模型 DeepSeek-OCR。 本文将带领大家部署在cloudstudio 利用免费时长的GPU资源部署一下带 web 端的项目,一睹为快。 解决什么问题? “一图胜千言”。 DeepSeek-OCR提出:为什么不干脆把这些长文本“截图”成一张图片,然后用Vision Encoder进行高效压缩,再喂给LLM呢? 一键部署项目开源项目地址 DeepSeek-OCR:https://github.com/deepseek-ai/DeepSeek-OCR DeepSeek-OCR-WebUI:https://github.com 要部署的现有 web 项目。

    34510编辑于 2026-01-09
  • 来自专栏DotNet NB && CloudNative

    .NET9 AOT部署

    C# AOT部署和JIT部署两种不同的编译和部署方式对比 AOT(Ahead-of-Time)部署: AOT是将C#程序提前编译为机器代码(通常为平台特定的二进制文件),在应用程序启动之前完成编译过程。 缺点: 编译时间长:AOT需要在部署前进行编译,可能导致部署的时间较长。 平台依赖:AOT编译会生成特定平台的机器码,因此跨平台部署需要针对每个平台生成不同版本的代码。 选择AOT还是JIT部署,需要根据具体的应用场景、性能需求、开发周期和平台要求来权衡。 tabs=dotnet9&pivots=os-linux-ubuntu-2204 添加存储库 sudo add-apt-repository ppa:dotnet/backports 安装SDK sudo tabs=linux-ubuntu%2Cnet9plus sudo apt-get install clang zlib1g-dev 4、把解决方案代码上传到Linux系统某个文件夹上并转到要发布的项目

    86200编辑于 2025-03-17
  • 复杂部署退退退!DeepSeek-OCR 轻量化文档理解,3分钟私有部署搞定

    在Lab4AI平台,你只需3分钟即可私有部署,让系统从识字工具跃升为“文档理解专家”。 论文名称:DeepSeek-OCR:ContextsOpticalCompression一键直达原文一键进行项目复现DeepSeek-OCR技术突破DeepSeek-OCR的颠覆之处,在于提出了一个全新思路 DeepSeek-OCR架构拆解DeepSeek-OCR的强大性能源于“压缩+解码”的精妙架构设计,两大核心模块各司其职、高效配合:1.DeepEncoder:双阶段视觉压缩引擎(AI光学压缩器)它负责把复杂文档图像 3分钟极速部署体验Lab4AI.cn上已上架了此篇论文的部署。 Step2模型部署参考官方文档完成模型部署,系统完成推理服务上线,跳转链接即可体验。Step3应用体验您可以可上传文档进行测试。本次实践支持从文字提取到表格解析再到图表与语义定位的全流程交互。

    59300编辑于 2025-12-03
  • deepseek-ocr及其他ocr模型衍生应用的思考

    部署和使用的。 因为,我找到了更好的后端部署管理的方式。 后端部署管理 deepseek-ocr.rs Rust 实现的 DeepSeek-OCR 推理栈,提供快速 CLI 与 OpenAI 兼容的 HTTP Server,统一打包多种 OCR 后端、视觉输入预处理 视觉,适合批量作业与轻量部署。 官方 DeepSeek-OCR 依赖 Python + Transformers,部署体积大、依赖多,嵌入原生系统成本高。

    28110编辑于 2026-03-13
  • 再聊一聊deepseek-ocr的应用

    (GitHub[4]) 二、怎么部署官方模型? (GitHub[9]) 3)Transformers 推理路径 如果你更偏爱 HF 生态,也能用 AutoTokenizer/AutoModel 加载 deepseek-ai/DeepSeek-OCR, (GitHub[11]) 四、三款社区 WebUI 横评 下面我们对你给出的 3 个开源 WebUI 做一个“从部署门槛→功能点→适合谁”的系统对比。 一句话点评:工程化最好、部署最省心,上容器就能跑,还留足了二开的“地基”。 : Contexts Optical Compression:https://github.com/deepseek-ai/DeepSeek-OCR [9]GitHub - deepseek-ai/DeepSeek-OCR

    29010编辑于 2026-03-13
  • 来自专栏机器学习与统计学

    【教程】DeepSeek-OCR本地部署(上):CUDA 升级12.9,vLLM升级至最新稳定版

    我看网上大家根据官方文档进行部署,问题多多。正好,vLLM 最新版来了,V0.11.2 稳定版原生支持 DeepSeek-OCR,使用 OpenAI API 兼容格式的在线推理,方便多了 。 的部署和 API 使用。 Toolkit runfile 目前 CUDA Toolkit 的最新版是 13.0,作为等等派,我还是先装 12.9.1 吧 下载地址:https://developer.nvidia.com/cuda-12-9- v0.11.2 拉取镜像 然后 docker save -o vllm012.tar vllm/vllm-openai:v0.11.2 把镜像保存到本地后传入内网服务器即可 至此 vLLM 升级完成 部署 DeepSeek-OCR 后面就是用 VLLM 的 Docker 拉起 DeepSeek-OCR 了 测试很 OK,单卡 4090 很顺畅,具体步骤就要下文了

    2K10编辑于 2025-11-29
  • DeepSeek-OCR vs PaddleOCR-VL

    多个技术博客与评测也复现了“10× 压缩 ≈ 96–97% 精度”这一经验数字,并给出了从部署到跑通示例的实践记录。 (Venturebeat[9])3.版面类型:表格/图表/混排文档是强项;将“看”的优势发挥出来。 (Hugging Face[12])2.资源与延迟:0.9B 规模+ 动态分辨率让它在边缘/轻量场景也能跑,满足工程部署与吞吐的实际诉求。 参考与延伸阅读 •DeepSeek-OCR 论文/解读与媒体报道:上下文光学压缩、10× 压缩≈97% 精度、组件(DeepEncoder + 3B-MoE)、实践记录与部署指南等。 utm_source=chatgpt.com [9]DeepSeek drops open-source model that compresses text ...

    22410编辑于 2026-03-13
  • 来自专栏机器学习与统计学

    DeepSeek-OCR桌面客户端,Windows用户优先体验

    部署 DeepSeek-OCR Client 目前主要针对 Windows 10/11操作系统进行了优化,并支持CUDA加速,这意味着拥有NVIDIA GPU 的用户将获得最佳性能。 其部署过程也力求简化: 系统环境: 需要 Node.js 18+ 和 Python 3.12+。 环境,部署和启动更为直接简单。 DeepSeek OCR App: 优势: 基于 Web 界面(React 前端+FastAPI 后端),支持 Docker 容器化部署,跨平台能力更强。 特点: 提供了更全面的 OCR 功能和更现代化的 Web 交互体验,但部署需要 Docker 环境,相对 DeepSeek-OCR Client 略显复杂。

    92310编辑于 2025-11-20
  • 当开源 OCR 革命撞上多模态成本困局:我们如何用 Gateone.ai 把 DeepSeek-OCR 变成“印钞机”

    突然开源了 DeepSeek-OCR——一个能将任意 PDF 或图像一键转为结构化 Markdown 的视觉语言模型。 一、开源 OCR 的“甜蜜陷阱”我们第一时间接入 DeepSeek-OCR,却发现理想与现实之间隔着三座大山:1.部署即深渊虽然官方提供了 Transformers 和 vLLM 两种推理方式,但要在生产环境同时支持高分辨率扫描件 Vision(低延迟优先)部署复杂度下降 80%,工程师终于不用再写“模型适配器”了。 我们将同一份财报分别输入三个模型,系统自动输出:· 表格还原准确率(DeepSeek-OCR:92% vs GPT-4o:85%)· Markdown 结构完整性(DeepSeek-OCR 胜出)· 单页处理成本 如果你也拥有一个惊艳的开源模型,却困于部署、调度与成本的泥潭——是时候让它接入真正的 AI 中枢了。

    31410编辑于 2025-10-24
  • 来自专栏Linux

    玩转Rocky Linux 9 部署Redis指南

    玩转Rocky Linux 9 部署Redis指南大家好,我是星哥。今天,咱们来盘一盘Redis,Redis作为高性能的键值数据库,在缓存、消息队列、实时数据处理等场景中扮演着举足轻重的角色。 功能介绍功能介绍:Rocky Linux 9系统中源码包安装 Redis 的shell脚本安装版本:redis-7.4.1端口:63920配置所在的目录: /data/conf/密码: YpassWord666 redis_端口号.log快速安装使用:gitee:wget https://gitee.com/funet8/Rocky-Linux-Shell/raw/main/shell/Rocky_Linux_9_ Install_Redis.shsh Rocky_Linux_9_Install_Redis.sh​github:wget https://raw.githubusercontent.com/funet8 /Rocky-Linux-Shell/refs/heads/main/shell/Rocky_Linux_9_Install_Redis.shsh Rocky_Linux_9_Install_Redis.sh1

    59210编辑于 2025-07-21
  • opencloudos9安装NGINX部署证书

    一、安装 Nginx在 OpenCloudOS 9 系统上,首先使用以下命令更新系统的软件包列表:yum update -y这个步骤确保系统的软件包索引是最新的,以便安装最新版本的 Nginx。 二、部署证书(以 SSL 证书为例)准备证书文件通常,您需要从证书颁发机构(CA)获取 SSL 证书文件。 重新加载 Nginx 配置在修改完 Nginx 配置文件后,需要重新加载配置使新的 SSL 配置生效:systemctl reload nginx 验证证书部署可以使用在线的 SSL 检查工具(如 SSL Labs 的测试工具),输入您的域名,检查证书是否正确部署,以及 SSL 配置是否安全。

    99620编辑于 2024-12-26
  • 来自专栏远哥制造

    基于 AlmaLinux 9 部署 GitLab Runner 实战

    前言本文是一个系列,本篇为系列文章的第五篇:基于 AlmaLinux 9 部署 GitLab Runner 实战第一篇:基于 AlmaLinux 9 安装 GitLab 社区版实战第二篇:基于 AlmaLinux 9 配置 GitLab 社区版实战第三篇:基于 AlmaLinux 9 备份 GitLab 社区版实战第四篇:记一次跨 6 个大版本通宵升级 17 次 GitLab 社区版的经历本文仍基于在腾讯云购买的轻量机 真实升级经历结尾提及下一篇文章开始介绍 GitLab CI/CD 的相关实践,计划从部署GitLab Runner 说起没错,这篇文章就从部署 GitLab Runner 讲起0x01. 注册 Runner因为可以在不同于 GitLab 安装的机子上部署 GitLab Runner,所以安装后需要配置接入哪个 GitLab也就是注册的意思,可以参照官方文档的命令示例参照官方文档:https session_timeout = 1800这样每一个 Runner 同时就能运行 4 个任务了0x06.后记GitLab Runner 的使用其实也是一直都想拿出来说的,这篇文章简单介绍了下,完成了基本的部署计划之后再来谈如何把

    43910编辑于 2024-11-08
  • 来自专栏AgenticAI

    刚刚DeepSeek开源新模型DeepSeek-OCR

    就在3个小时前,DeepSeek突然在HuggingFace上传新模型DeepSeek-OCR,一个只有3B大小的文档解析新模型,该模型的目标是探索视觉文本压缩的边界。 在生产环境中,DeepSeek-OCR能够以单个A100-40G GPU的计算能力,每天生成 200k+ 页的训练数据,供大语言模型或视觉语言模型使用。 其在Fox benchmarkd 目前可用vllm和transfomer部署,然后就像正常的文档解析模型一样。 模型地址:https://huggingface.co/deepseek-ai/DeepSeek-OCR

    38210编辑于 2025-11-29
  • 来自专栏机器学习与统计学

    撸了一个 OCR 大模型对比工具:DeepSeekOCR、PaddleOCR 和 混元OCR

    大家好,我是 Ai 学习的老章 最近的 OCR 大模型我都做了本地部署和测试,还写了一个 API 统一对接这三个模型 ✅腾讯混元 OCR 大模型,本地部署,实测 ✅本地部署 PaddleOCR,消费级显卡轻松跑 ,支持本地图片和 PDF 文件 ✅DeepSeek-OCR 本地部署(上):CUDA 升级 12.9,vLLM 升级至最新稳定版✅DeepSeek-OCR 本地部署(下):vLLM 离线推理,API 重写 也可以切换到识别后的原始 Markdown,支持一键 copy 核心代码如下(完整代码接近 600 行,大多是 HTML 相关): 我这里主要是模型本地部署,内网运行的,没再折腾线上部署。 感兴趣的同学可以试试,OCR 模型 API 部分替换成官方/第三方的 API,代码稍作修改就可以在线部署运行了。 #! ": "http://localhost:8002/models/v1//deepseek-ocr/inference", "PaddleOCR": "http://localhost:8003

    1.2K10编辑于 2025-12-21
  • 只有0.9B的PaddleOCR-VL,却是现在最强的OCR模型。

    因为DeepSeek-OCR,甚至让OCR这个赛道文艺复兴,又给直接带火了。 然后在我上一篇讲DeepSeek-OCR文章的评论区里,有很多朋友都在把DeepSeek-OCR跟PaddleOCR-VL做对比,也有很多人都在问,能不能再解读一下百度那个OCR模型(也就是PaddleOCR-VL 而且实测确实会比DeepSeek-OCR准确更高,DeepSeek-OCR提取的时候总是会错一两个字,PaddleOCR-VL是一字不错,当然你不能把DeepSeek-OCR纯看成是一个纯OCR模型,毕竟意义还是不太一样 PaddleOCR Github上的部署教程来部署到本地。 只是想用一下的,不想折腾部署的,可以去各大demo平台上用官方自己部署的体验版本。

    98020编辑于 2025-11-18
  • SAM+CLIP+MoE完美耦合的DeepSeek-OCR:DeepEncoder的低激活压缩架构深度解析

    DeepSeek-OCR论文提出了一种创新的视角,将视觉模态视作一种高效的文本压缩介质。 这不仅是实验的需要,更是工程部署的考量。这些模式允许模型根据输入图像的复杂度和文本密度动态调整Vision Tokens的数量。 针对超高分辨率输入(如报纸),Gundam模式通过平铺(Tiling)机制,以多局部视图加全局视图的方式进一步减少激活内存,将Tokens数量控制在n×100+256的合理范围(n为平铺块数量,控制在2到9之间 实用性能与生产力释放在OmniDocBench真实文档解析任务上,DeepSeek-OCR展现出超越现有先进模型的实用能力:Token效率领先: DeepSeek-OCR使用最少的Vision Tokens DeepSeek-OCR不仅模型,更是一种能效优化策略。市场对高能效AI基础设施的需求日益增长,这种技术直接提升了AI服务的单位成本效益,在云计算和私有部署市场中具有重要的商业价值。

    48910编辑于 2025-11-03
  • 来自专栏农民工前端

    OCR 模型受全球关注,实测到底谁更出色?

    二、双雄并起:DeepSeek-OCR 的理论创新与 PaddleOCR-VL 的实用领先 在本轮 OCR 竞赛中,DeepSeek-OCR 与 PaddleOCR-VL 分别代表了两种不同的技术路径与价值主张 Deepseek-OCR识别不出任何内容。 繁体竖式排版文档 PaddleOCR-VL识别的非常清楚,繁体竖式排版文档分析的非常清楚,并且很完善。 Deepseek-OCR识别乱码了。 PaddleOCR-VL连续 5 天登顶 HuggingFace Trending 全球第一; 同步登顶 ModelScope Trending 全球第一; 跻身 GitHub Python 总榜第 3、全球总榜第 9; 提供在线 Demo 与完整开源代码,支持快速部署与二次开发。 原文链接:https://huggingface.co/deepseek-ai/DeepSeek-OCR 五、OCR 进入“实用驱动”新时代 如果说 DeepSeek-OCR 代表了 OCR 在“大模型上下文压缩

    1.1K10编辑于 2025-11-13
  • 牛逼,DeepSeek-OCR 最新免费,引爆文档处理效率的黑科技模型

    DeepSeek-OCR:Contexts Optical Compression。探索视觉-文本压缩的边界。” 开源可部署开源代码 + 模型权重,MIT 许可证。可自建、自控、安全可审。 开源部署能力模型权重、代码、文档公开,自建部署支持安全与定制。 与同类项目对比及产品优势项目识别结构化能力长文档/批量处理输出格式开源&可部署优势总结DeepSeek-OCR强(支持标题、表格、图注)很强(文档压缩+批量)Markdown/文本✅最佳结构化输出+可部署 开源自部署:适合企业、机构构建私有化流程,降低 SaaS 风险。输出格式友好:Markdown 输出方便编辑、检索、二次加工。

    2.1K30编辑于 2025-10-29
  • winform部署yolov9的onnx模型

    C# WinForms 部署 YOLOv9 ONNX 模型简介 在当今的计算机视觉领域,目标检测是不可或缺的一项技术。 为了在C# WinForms应用程序中部署YOLOv9模型,我们首先需要将其转换为ONNX(Open Neural Network Exchange)格式。 这使得YOLOv9模型可以在C#环境中得到高效利用。 在部署过程中,我们可以使用ONNX Runtime这一跨平台的库来加载和运行ONNX模型。 通过C# WinForms部署YOLOv9的ONNX模型,我们可以为用户提供一个功能强大的目标检测工具。 、弹幕量 0、点赞数 0、投硬币枚数 0、收藏人数 0、转发人数 0, 视频作者 未来自主研究中心, 作者简介 未来自主研究中心,相关视频:C++使用纯opencv部署yolov9的onnx模型,将yolov8

    44910编辑于 2025-07-20
  • 来自专栏YP小站

    Sentry9-1-2部署

    三、Docker部署Sentry服务 官方提供Docker部署配置 官方Docker部署仓库 环境要求 Docker 17.05.0+ Docker-Compose 1.17.0+ 服务器配置只少需要3G sentry-dingding~=0.0.2 # 钉钉通知插件 django-smtp-ssl~=1.0 # 发邮件支持SSL协议 redis-py-cluster==1.3.4 四、构建 Docker build 注意:部署

    2K10发布于 2020-06-04
领券