首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏刷题笔记

    7-9 人以群分 (25 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/99688626 7-9 人以群分 (25 分) 社交网络中我们给每个人定义了一个“活跃度”

    73420发布于 2019-11-08
  • 来自专栏yuyy.info技术专栏

    【笔记】Operator课程(7-9)

    Indexer缓存k8s资源对象,并提供便捷的方式查询。例如获取某个namespace下的所有资源

    35420编辑于 2023-04-12
  • 来自专栏刷题笔记

    7-9 最长对称子串

    本文链接:https://blog.csdn.net/shiliang97/article/details/96307903 7-9 最长对称子串 对给定的字符串,本题要求你输出最长对称子串的长度。

    76030发布于 2019-11-08
  • 如何部署自己的模型:Pytorch模型部署实践

    Pytorch是一个广泛使用的深度学习框架,但是在将模型部署到生产环境中时,需要注意一些细节和技巧。本文将讨论一些Pytorch模型部署的最佳实践。 选择合适的部署方式 在部署Pytorch模型之前,需要选择合适的部署方式。一种常见的方式是使用Flask或Django等Web框架将模型封装成API,以供其他应用程序调用。 另一种方式是使用TorchScript将Pytorch模型转换为可部署的格式。 监控和调试模型 在Pytorch模型部署完成后,您可以通过使用工具来监控模型的运行情况,例如Tensorboard和Prometheus等,来确保模型的稳定性和性能。 首先,需要选择合适的部署方式,包括使用Flask或Django等Web框架将模型封装成API,或使用TorchScript将Pytorch模型转换为可部署的格式。

    43210编辑于 2025-12-16
  • 来自专栏charlieroro

    istio部署模型

    Istio的部署模型介绍 目录 Istio的部署模型介绍 部署模型 集群模式 单集群 多集群 网络模型 单网络 多网络 控制面模型 身份和信任模型 网格中的信任 网格之间的信任 网格模型 单网格 多网格 实际使用中,需要根据隔离性,性能,以及HA要求来选择合适的部署模型。本章将描述部署Istio时的各种选择和考量。 集群模式 该模式下,应用的负载会运行在多个集群中。 包含一个网络的单集群模型会包含一个控制面,这就是istio最简单的部署模型: ? 单集群的部署比较简单,但同时也缺少一些特性,如故障隔离和转移。如果需要高可用,则应该使用多集群模式。 网络模型 很多生产系统需要多个网络或子网来实现隔离和高可用。Istio支持将一个服务网格部署到多种类型的网络拓扑中。通过这种方式选择符合现有网络拓扑的网络模型。 网格模型 Istio支持在一个网格或联邦网格(也被称为多网格)中部署所有的应用。 单网格 单网格是部署Istio的最简单的方式。在一个网格中,服务名是唯一的。

    1.2K20发布于 2020-09-08
  • 来自专栏C++开发学习交流

    【AI模型】AI模型部署概述

    AI模型部署方法 在AI深度学习模型的训练中,一般会用Python语言实现,原因是其灵活、可读性强。但在AI模型实际部署中,主要会用到C++,原因在于其语言自身的高效性。 AI模型部署框架 模型部署常见的推理框架有:ONNX、NCNN、OpenVINO、 TensorRT、Mediapipe。 AI模型部署平台 AI 模型部署是将训练好的 AI 模型应用到实际场景中的过程。 以下是一些常见的 AI 模型部署平台: 云端部署 云端部署是最流行的 AI 模型部署方式之一,通常使用云计算平台来托管模型和处理请求。 容器化部署 容器化部署是将 AI 模型封装到一个轻量级的容器中,然后在不同的环境中进行部署和运行。容器化部署可以提高可移植性和灵活性,并简化部署过程。

    1.8K10编辑于 2024-07-24
  • 来自专栏后端开发从入门到入魔

    7-9 JAVA-水仙花数

    水仙花数是指一个N位正整数(7≥N≥3),它的每个位上的数字的N次幂之和等于它本身。例如:153=13+53+33。 要求编写程序,计算所有N位水仙花数。

    39710编辑于 2024-03-01
  • 来自专栏算法之名

    模型部署篇(二)

    模型部署篇 硬件搭建 硬件搭建其实挺简单的,把风扇固定好,把键盘、鼠标、USB卡都插在USB接口上,把显示器的HDMI线接在HDMI接口上,把摄像头的线接在摄像头插口上,接好网线就可以了,最后接上电源开机启动

    83540编辑于 2023-03-01
  • 如何部署 PyTorch 模型

    使用 PyTorch 训练好了模型,如何部署到生产环境提供服务呢? serve 官方给出的描述是: A flexible and easy to use tool for serving PyTorch models 从描述中就可知道 TorchServe 是用来部署 PyTorch 模型的,而它的特点是「可扩展性」和「易用性」。 由于 TorchServe 将系统工程和模型分开了,所以模型接入到 TorchServe 需要一套统一的标准,而 TorchServe 将这套「标准」制定得很简单。 pytorch/serve/blob/master/README.md#install-torchserve-and-torch-model-archiver 下面简单描述一下用 TorchServe 部署模型的几个步骤

    33010编辑于 2025-12-16
  • 来自专栏数据分析与挖掘

    pycaret之模型部署

    1、预测模型 一旦使用deploy_model将模型成功部署到云中,或者使用save_model在本地成功部署模型,就可以使用predict_model函数将其用于看不见的数据进行预测。 但是,一旦使用predict_model在保留集上生成了预测,并且选择了部署特定模型,就希望在包括保留在内的整个数据集上对模型进行最后一次训练。 使用finalize_model确定模型后,即可进行部署。 可以使用save_model功能在本地使用经过训练的模型,该功能将转换管道和经过训练的模型保存为最终用户应用程序可以作为二进制pickle文件使用。 或者,可以使用PyCaret将模型部署在云上。 在云上部署模型就像编写deploy_model一样简单。 对于AWS用户 在将模型部署到AWS S3(“ aws”)之前,必须使用命令行界面配置环境变量。

    95920发布于 2020-10-27
  • 来自专栏刷题笔记

    【未完成】7-9 目录树 (30 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/102727548 7-9 目录树 (30 分) 在ZIP归档文件中,保留着所有压缩文件和目录的相对路径和名称

    70710发布于 2019-11-07
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 7-9 人脸识别与特征脸

    在下一章将解除另外一个非常重要的问题-多项式回归,简单来说多项式回归就是使用线性回归的思路来解决非线性回归的问题,同时也会引入机器学习中非常重要的问题-模型的泛化。

    1.4K20发布于 2019-11-23
  • 来自专栏计算机视觉战队

    模型部署:pytorch转onnx部署实践(下)

    在深度学习模型部署时,从pytorch转换onnx的过程中,踩了一些坑。本文总结了这些踩坑记录,希望可以帮助其他人。 在上一次分享的时候,我们已经撰写了pth转onnx的过程及一些部署过程,今天我们继续分享整个部署过程遇到的坑及解决办法! (点击上方图片就可以进入《模型部署:pytorch转onnx踩坑实录(上)》) onnxruntime支持3维池化和3维卷积 在上次讲到opencv不支持3维池化,那么onnxruntime是否支持呢? 如果深度学习模型有3维池化或3维卷积层,那么在转换到onnx文件后,使用onnxruntime部署深度学习是一个不错的选择。 此外,DBNet的官方代码里提供了转换到onnx模型文件,于是我依然编写了一套使用opencv部署DBNet文字检测的程序,依然是包含C++和Python两个版本的代码。

    2.5K20编辑于 2022-01-28
  • 除了ollama还有哪些模型部署方式?多样化模型部署方式

    在人工智能的浪潮中,模型部署是释放其强大能力的关键一环。大家都知道ollama,它在模型部署领域有一定知名度,操作相对简单,受到不少人的青睐。 但其实,模型部署的世界丰富多样,今天要给大家介绍一款工具,帮你轻松部署。对于很多没有专业编程知识的朋友来说,模型部署就像一座难以逾越的大山。 ③体验模型部署完成,页面下方会显示“立即体验”按钮,点击后,直接进入到AI对话界面,软件支持切换多种智能问答模型,如deepseek满血版、豆包、文心一言等。 除了DS本地部署大师,还有像基于Hugging Face的Transformers库部署方式,它集成众多预训练模型和推理管道,适合有一定编程基础和机器学习知识的人。 不同的模型部署方式各有优劣,大家可以根据自身需求、技术水平和硬件条件综合选择。

    60410编辑于 2025-09-17
  • 来自专栏yuyy.info技术专栏

    《代码整洁之道》笔记(7-9章节)

    多个条件分支记录错误信息,可以封装进一个方法,在记录异常信息的地方抛出异常,并给出相应信息。在该方法外部捕获,记录异常信息。异常处理和正常业务流程隔离。

    55210编辑于 2022-06-28
  • 来自专栏计算机视觉工坊

    深度探索ONNX模型部署

    如果你想用ONNX作为模型转换和部署的工具,可以耐心看下去。 今天要讲到的ONNX模型部署碰到的问题大多来自于一些关于ONNX模型部署的文章以及自己使用ONNX进行模型部署过程中的一些经历,有一定的实践意义。 0x1. 后处理问题 如果我们要导出检测网络的ONNX模型进行部署,就会碰到这个问题,后处理部分是否需要导入到ONNX模型? ,这样就可以获得一个精简的易于部署的ONNX模型。 这个问题其实源于之前做模型转换和基于TensorRT部署一些模型时候的思考。

    6.4K22发布于 2021-03-17
  • 来自专栏阿黎逸阳的代码

    机器学习模型部署—PMML

    模型需要跨平台部署或反复调用时,可以把模型保存为PMML文件。 比如最近要上线一个反欺诈模型(用的GBDT)。 训练模型用的Python(里面有很多现成的库,构建机器学习模型较方便),生产调用用的Java(写机器学习模型非常麻烦)。 若要将在Python中训练好的模型部署到生产上时,可以使用目标环境解析PMML文件的库来加载模型,并做预测。 PMML采用标准的XML格式保存模型,可以实现跨平台部署。 2. 广泛的支持性。很多常用的开源模型都可以转换成PMML文件。 3. 易读性。 模型类型支持有限。缺乏对深度学习模型的支持。 3. 预测会有一点偏差。因为PMML格式的通用性,会损失特殊模型的特殊优化。

    8.2K31发布于 2020-09-08
  • 来自专栏毛利学Python

    yolov5模型转换NCNN模型部署

    写作原因:最近看了下nihui大佬的ncnn,练习着将yolov5训练的模型转换成ncnn模型部署,同时借鉴了网上优秀的博文,记录一下,如有不对的地方,请多多指教。 说明:pytorch模型转换成onnx模型,及onnx模型简化和转ncnn模型在引用的文章中都有详细的说明,可移步至引用文章中查看。 先来看下ncnn模型,两个,一个是param一个是bin,需要修改的是param。 图1 其实yolov5 v1-v5版本在训练完后,使用onnx2ncnn.exe将简化后的onnx模型转换成ncnn模型时主要出现这个问题。 下面说下修改的是什么,这样就可以知道自己的模型应该修改哪里了。

    3.1K20编辑于 2022-09-22
  • 来自专栏NLP算法工程师之路

    Docker部署深度学习模型

    参考链接:https://docs.docker.com/install/linux/docker-ce/centos/ 运行到sudo docker run hello-world正常输出即可

    94830发布于 2019-12-18
  • 来自专栏小新笔记坊

    CentOS本地部署语言模型

    部署环境 操作系统:CentOS Linux release 8.2.2004 显卡:GTX1060 内存:16GB 操作步骤 安装英伟达显卡驱动 1.下载英伟达显卡驱动包,并上传服务器。 2.在docker容器参数中编辑参数,映射容器内某目录(例如/home)至本地一个目录文件夹用于导入本地模型。 例如: /home/models /home/models /home/ollama /root/.ollama 3.进入docker容器内部导入模型即可。

    62300编辑于 2025-02-13
领券