首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏代码工具

    Tensorflow2 模型优化环境快速搭建

    no-check-certificatebash Anaconda3-2020.07-Linux-x86_64.shsource ~/.bashrc# 检查是否安装成功, 需要看配置有没有写到环境变量里conda -V# “tf2” 是你建立的conda虚拟环境的名字conda create --name tf2 python=3.7 # 进入名为“tf2”的conda虚拟环境conda activate tf2 2. = tf.constant([[5, 6], [7, 8]])C = tf.matmul(A, B)print(C)Output:tf.Tensor([[19 22][43 50]], shape=(2, 2), dtype=int32)3. 使用Netron可视化模型h5文件首先下载并安装 https://netron.app/, 然后打开模型里面的h5文件就行了图片

    63230编辑于 2022-06-30
  • 《机器学习》 第 2 章 - 模型估计与优化

    今天给大家分享《机器学习》第 2 章的核心内容 —— 模型估计与优化。 这一章是机器学习算法落地的核心基础,不管是经典的线性回归,还是复杂的深度学习模型,背后都离不开参数估计和优化方法的支撑。          2.2 模型优化基本方法 2.2.1 梯度下降法 核心思想 完整代码 + 可视化对比 import numpy as np import matplotlib.pyplot as plt plt.rcParams 2.3 模型优化概率方法 2.3.1 随机梯度法 核心思想         随机梯度下降(SGD):不再用全部数据计算梯度,而是每次随机选一个 / 一批样本计算梯度,解决大数据场景下梯度下降速度慢的问题 降低多项式次数,减少过拟合和优化难度 scaler = StandardScaler() # 1.

    18830编辑于 2026-01-21
  • 来自专栏腾讯云TI平台

    【技术分享】Detectron模型性能优化与部署(2

    在Detectron模型性能优化与部署(1)中,我们介绍了如何使用Caffe2/TRT加速Cascade R-CNN + FPN模型。 Caffe2/TRT支持动态大小输入 TensorRT 7支持输入动态调节,而且可以支持所有纬度的动态调节。 下图显示了对Cascade R-CNN + FPN网络中其中一个TensorRT算子第一维动态调节的设置: 2.png 在Caffe2/TRT的优化实现中,用户可以根据模型参数,模型的配置和不同输入大小对 Pytorch在Centos编译 Caffe2/TRT模块的优化实现,近期会在深度学习框架加速Oteam服务端模型推理加速小组维护的repo开源。 优化后的Caffe2/TRT模块支持动态大小输入,支持FP16推理,支持复杂模型的推理等。

    2.1K20编辑于 2021-12-22
  • 来自专栏数据科学(冷冻工厂)

    PyTorch 模型性能分析和优化 - 第 2 部分

    这是有关分析和优化在 GPU 上运行的 PyTorch 模型主题的系列文章的第二部分。 在第一篇文章中,我们演示了使用 PyTorch Profiler 和 TensorBoard 迭代分析和优化 PyTorch 模型的过程以及巨大潜力。 这使得构建、分析和调试 ML 模型变得更加容易。另一方面,它也使我们的模型更容易(有时是意外地)插入次优代码块。正如我们将演示的,了解如何识别和修复此类代码块会对模型的速度产生重大影响。 优化2:从训练步骤中删除冗余的 GPU 到主机副本 虽然验证输入标签的合法性可能是有必要的,但其方式应该不会对我们的训练性能产生如此负面的影响。 往期推荐 如何在 Ubuntu 中安装最新的 Python 版本 PyTorch模型性能分析与优化 10 本免费的 Linux 书籍 实践|Linux 中查找和删除重复文件 Reference

    94720编辑于 2023-09-06
  • 基于运营工况的重型卡车保养周期动态优化模型

    本文提出一种基于运营工况的重型卡车保养周期动态优化模型,以发动机累计功、燃油消耗量、机油衰减指数、工况特征等多维参数为核心决策依据。 三、动态优化模型:给发动机装上“可穿戴健康监测”2023年2月,潍柴动力股份有限公司公开了一项发明专利——“发动机机油更换周期预测方法及车辆”(专利号CN115795270B)。 4.1测试设计分组车辆数运营线路保养模式监测方式对照组A10台随机分配固定3万公里换油常规保养+每5000公里油样抽检对照组B10台随机分配固定2万公里换油常规保养+每5000公里油样抽检测试组C10台随机分配力猛动态模型预见性养护 铁磨损浓度:测试组换油终点均值68ppm,对照组A为92ppm,动态模型使机油在高里程段仍保持更低的磨损颗粒浓度总碱值剩余:测试组换油终点均值5.8mgKOH/g,对照组A为4.2mgKOH/g,动态模型避免了 5.4验证层:反向优化模型每一台按动态模型保养的车辆,其换油周期的油液检测数据、发动机后续运行状态、故障记录都会回传至算法中心,持续迭代工况权重系数。

    12810编辑于 2026-02-12
  • 来自专栏Java开发

    Hexo博客添加helper-live2d动态模型插件

    Tips:前导必备 博主博客地址 博主使用的是yilia主题 插件的github地址hexo-helper-live2d live2d模型仓库 ---- 1、安装模块 在hexo根目录执行命令 # npm install --save hexo-helper-live2d ---- 2、下载模型     作者各种模型包展示 ➡️ hexo live2d插件 2.0 ! live2d模型仓库 live2d-widget-model-chitose live2d-widget-model-epsilon2_1 live2d-widget-model-gf live2d-widget-model-haru live2d-widget-model-wanko live2d-widget-model-z16 使用npm install {packagename}安装模型 ---笔者使用的模型 # npm install pluginModelPath: assets/ # 模型文件相对与插件根目录路径 # scriptFrom: jsdelivr # jsdelivr CDN # scriptFrom:

    1.9K30发布于 2019-05-14
  • 来自专栏DolphinScheduler

    Apache DolphinScheduler 2 月社区动态:功能升级与优化齐飞

    2026年2月,ApacheDolphinScheduler社区保持了活跃的开发节奏。本月的工作重心围绕着系统稳定性的提升、现有功能的改进以及代码质量的优化。 对数据源插件管理器和处理器管理器进行了重构,优化了代码结构(Chore)。 特别感谢@WenjunRuan,他在2月份非常活跃,为社区贡献了大量的修复、改进和代码重构。 展望从2月份的动态来看,ApacheDolphinScheduler社区正稳步地向着更稳定、更易用、更强大的方向发展。 推进架构优化:如此次关于导入/导出功能的讨论,社区将继续探索和实践更优的架构方案。关注用户体验:UI/UX的持续改进将为用户带来更好的操作体验。

    11210编辑于 2026-03-05
  • 来自专栏蓝桥杯历年省赛真题集

    动态规划(2

    例如24-17-16-1,其实25-24-23…3-2-1更长,事实上这是最长的一条。 输入格式: 第1行: 两个数字r,c(1< =r,c< =100),表示矩阵的行列。 第2..r+1行:每行c个数,表示这个矩阵。 输出格式: 仅一行: 输出1个整数,表示可以滑行的最大长度。 样例输入 5 5 1 2 3 4 5 16 17 18 19 6 15 24 25 20 7 14 23 22 21 8 13 12 11 10 9 样例输出 25 ---- 分析题目

    59640发布于 2019-01-21
  • 来自专栏YoungGy

    优化2】整数优化

    或的逻辑约束 三个选择的或 只有才 更多或 整数可除 多边形组合 固定花费 分段线性 组合型 set covering set packing 食堂定位 地图填色 Julia例子 9数独 概述 整数优化就是线性优化 x1被选中当且仅当x2被选中。 x2或x3被选中,可以都被选中。 x2或x3被选中,不可以都被选中。 对应的IP约束为: x1-x3<=0 x1+x5<=1 x1-x2=0 x2+x3>=1 x2+x3=1 或的逻辑约束 或的逻辑问题,可以用用bigM方法去解决,其思想是通过添加新的变量,将部分约束变成多余的 例如,对于问题 [图片] 或 [图片] (两者可以都出现),y1、y2的定义域是[0,5]。 and column j to j+2 @constraint(m, sum{x[r,c,k], r=i:i+2, c=j:j+2} == 1) end for i = 1:9, j = 1:

    1.8K50发布于 2018-01-05
  • 来自专栏落叶飞翔的蜗牛

    动态代理(2

    CGLIB 动态代理机制 JDK 动态代理有一个最致命的问题是其只能代理实现了接口的类。为了解决这个问题,我们可以用 CGLIB 动态代理机制来避免。 String message) { System.out.println("send message:" + message); return message; } } 2. CGLIB 动态代理对比 JDK 动态代理只能代理实现了接口的类,而 CGLIB 可以代理未实现任何接口的类。 静态代理和动态代理的对比 灵活性 :动态代理更加灵活,不需要必须实现接口,可以直接代理实现类,并且可以不需要针对每个目标类都创建一个代理类。 而动态代理是在运行时动态生成类字节码,并加载到 JVM 中的。

    43040发布于 2021-01-19
  • 来自专栏互联网大杂烩

    优化模型数据挖掘之优化模型

    数据挖掘之优化模型 1.1数学规划模型 线性规划、整数线性规划、非线性规划、多目标规划、动态规划。 ---- 1.2微分方程组模型 阻滞增长模型、SARS传播模型。 ---- 1.3图论与网络优化问题 最短路径问题、网络最大流问题、最小费用最大流问题、最小生成树问题(MST)、旅行商问题(TSP)、图的着色问题。 ---- 1.4概率模型 决策模型、随机存储模型、随机人口模型、报童问题、Markov链模型。 ---- 1.5组合优化经典问题 多维背包问题(MKP) 背包问题:n个物品,对物品i,体积为iw,背包容量为W。如何将尽可能多的物品装入背包。 解决这一类经典组合优化问题的方法有: 穷举法,贪心法,动态规划法,分支限界法,回溯法等传统算法以及一些智能算法如蚁群算法和遗传算法。

    1.4K20发布于 2018-08-22
  • 来自专栏喔家ArchiSelf

    性能优化动态加载

    2. 动态加载的一般原理 动态加载机制所涉及到的关键问题包括加载模块的格式、模块间通信机制、符号管理等等。 可动态加载的模块有很多种格式类型。 为此,创建一个动态路径的加载应用会极大方便编码,提升开发效率。 用户首先访问入口页面视图,视图请求控制器,控制器响应特定行为,获取相应模型数据,而后将处理结果反馈到视图中呈现给用户。 为实现控制器类中方法能调用不同视图和模型,需要在实例化类对象之前,加载类的定义,即要完成对不同存储位置下类的引用。为优化代码的性能,节省无谓的精力消耗,应用类自动加载方案。 $class_name.".class.php"; } 作为是一种网页优化技术,动态加载可以在网页加载时延迟加载不必要的资源,以提高页面的加载速度和性能。 如何对软件系统进行全方位的优化是一个系统工程,如果您希望成为一个对系统性能有追求的工程师,我们最近出版的《性能之道》一书可能会给您带来实际的帮助和较大的启发。

    94910编辑于 2025-01-20
  • 来自专栏量化小白上分记

    动态情景Alpha模型

    01 WHY DCA 传统的多因子模型是在一个特定域内对所有股票一视同仁的打分,市值行业中性化后排序打分。 如果发现存在因子在某些变量分组下,显著的不一样,就可以用前文最大化IR的方法来优化。 这里还可以做的一点是单个情景内的权重能否再优化,这个也是参考研报,比如说都是按照SIZE分组,两只股票都在高SIZE组,但一个在上沿,一个在下沿的话,这两个股票肯定是有差异的,所以也可以根据情景来对股票打分 实证就略过了,感兴趣的童鞋可以自己尝试下 参考文献 [1]动态情景Alpha模型再思考——因子选股系列研究之十九 [2]动态情景多因子Alpha模型——因子选股系列研究之八 [3]量化多因子系列(2) :非线性假设下的情景分析因子模型

    1.1K40编辑于 2023-04-03
  • 来自专栏FunTester

    动态模型动态增减【FunTester测试框架】

    思路 首先要抛弃原有的模型结构,将每个多线程任务都当做一个可管理对象,需要有一个中断方法,然后有一个全局的运行状态的管理类,包含一些基础添加,删除,终止单个多线程任务的能力。 首先对多线程任务基础类进行改造,我重新写了一个com.funtester.base.constaint.ThreadBase的子类com.funtester.base.constaint.FunThread,专门用于创建动态模型任务 } } /** * 运行待测方法的之前的准备 */ public void before() { } /** * 动态模型正常不会结束 import java.util.ArrayList; import java.util.List; import java.util.concurrent.ExecutorService; /** * 动态压测模型的启动类 INFO-> FT-2 task B 任务正在运行! INFO-> FT-1 task A 任务正在运行!

    55720发布于 2021-11-19
  • 来自专栏小工匠聊架构

    Oracle优化07-分析及动态采样-动态采样

    ---- 07系列文章 Oracle优化07-分析及动态采样-直方图 Oracle优化07-分析及动态采样-DBMS_STATS 包 Oracle优化07-分析及动态采样-动态采样 ---- 动态采样Dynamic_sampling 动态采样( Dynamic Sampling)技术的最初提出是在 Oracle 9i R2,在段(表,索引,分区)没有分析的情况下,为了使 CBO 优化器得到足够的信息以保证做出正确的执行计划而发明的一种技术 ( 2) 采样会消耗系统资源,特别是 OLTP 数据库,尤其不推荐使用动态采样。 ) ---- Level 2 对所有的未分析表做分析,动态采样的数据块是默认数据块的 2 倍。 ---- Level 3 采样的表包含满足 Level 2 定义的所有表,同时包括,那些谓词有可能潜在地需要动态采样的表,这些动态采样的数据块为默认数据块,对没有分析的表,动态采样的默认块为默认数据块的

    70620发布于 2021-08-16
  • 来自专栏人工智能与演化计算成长与进阶

    动态多目标优化研究综述

    本文对动态多目标优化的研究进行了比较 全面的综述,具体内容包括:(1)本文介绍了动态多目标优化的相关理论背景;(2)本文介绍了动态多目标优化问题的分类 并对现有的测试函数进行归纳总结;(3)在对动态多目标优化问题的一般解决方案作简单分析的基础上本文详细讨论了动态 对多目标优化问题来说,不存在一个最优解能 够同时满足优化多个目标函数,因此处理静态多目 标优化问题的目标是寻找一个由非支配解组成的 Pareto 解集 (Pareto Set, PS) [2],而求解动态多目标 2 动态多目标优化的相关理论背景 ? ? 作者 仅测试了算法在FDA1上的性能,也证明了在FDA1 上预测是有效的,但是作者也表明可以采用其它的 预测模型来解决复杂的优化问题,比如人工神经网 络,贝叶斯模型等,并且可以研究不同的预测模型 所适合的问题类型 作者测试了算法在 FDA1, FDA3, DIMP1 以及 DIMP2 上的性能,实验证明当环境变化较快时,算 法性能不理想,并且作者也提出用更好的预测模型 来预测梯度进而提高算法的性能。

    3.8K40发布于 2021-06-09
  • 来自专栏HAUE_LYS'Blog

    动态规划专题——背包模型

    即dp[i][j] = max(dp[i - 1][j], dp[i][j - v[i]] + w[i]),与k取值无关 由此k层循环可以被优化掉 进一步优化,发现更新方式同01背包: 01背包:dp ,故采用二进制优化 对于一组数1,2,4,8,16,32,每个数只使用一次,可以凑成如下的数: 用1,2可以凑出3,即1,2可凑出1\sim 3之间的任意数 则用1,2,4可以凑出1\sim 7之间的任意数 s[i]件 由二进制优化,我们可以将s[i]利用二进制拆分,用1,2,4,\dots凑出s[i] 即我们将物品i,拆分成了: 一件体积为1 * v[i]的物品,价值为1 * w[i]的捆绑物品 一件体积为 i物品,不必逐一枚举进行选择 由二进制拆分,原有的每个物品数量S可以降为log_2^S,时间复杂度大幅降低 对于最终求解,可以采用01背包的一维优化求解 代码 #include <bits/stdc++ 使用多次的用二进制优化捆绑 使用无限次的按照背包的最大空间调整使用次数,再用二进制优化捆绑 代码 #include <bits/stdc++.h> using namespace std; const

    1.3K10编辑于 2022-09-19
  • 来自专栏FunTester

    动态模型中嵌入静态模型实践

    在之前的动态模型动态增减【FunTester测试框架】中分享了动态的性能测试模型的实现,后面在实际工作中也是受益匪浅,有文为证动态压测模型让工作更轻松。 相对一段时间来说只有一些简单的功能: 设置步长 增减步长 终止测试 很长一段时间内都够用了,但是随着测试的深入,可能需要执行更多动态用例,如果靠人力一个个输入会比较麻烦。 这个时候我又想起来了静态模型的好处来。就是过程不需要中途干预,可以按照预定的测试计划执行。 那么问题来了,如何才能将动态模型和静态模型结合在一起呢? 经过权衡,还是将静态的模型融入动态模型比较方便,毕竟还是先启动再说,后续过程随意设置参数调整压力比较方便。 思路 非常简单,就是在异步线程中增加对命令的支持即可。 这里我以动态QPS模型为案例,修改异步控制器。

    37520编辑于 2022-12-09
  • 来自专栏AI工程落地

    Mxnet模型性能优化

    导语:模型优化有很多方法,比如模型压缩、模型剪纸、转tensorrt等。本文讨论mxnet模型tesorrt优化,主要解决动态batch、Op不支持问题。 1. 0.2.6 onnxruntime 1.8.0 onnxruntime-gpu-tensorrt 1.4.0 tensorrt 7.1.3.4 2. 3.1 支持动态batch mxnet没有dynamic_axes可以配置,此时转好的模型batch固定为1。 ONNX中对shape的处理,可以为text,所以我们可以直接修改onnx模型去支持动态batch。 : [不支持动态batch] 修改后模型结构: [支持动态batch] 3.2 PRelu参数修改 报错如下: [TensorRT] ERROR: relu0_1: slope tensor must

    71420编辑于 2022-02-25
  • 来自专栏我的计算机成长

    动态内存管理(2

    NULL; GetMemory(&str); strcpy(str, "hello world"); printf(str); free(str); str = NULL; } 4.2 题目22. 堆区(heap):一般由程序员分配释放, 若程序员不释放,程序结束时可能由OS回收 。分配方式类似于链表。 3. 数据段(静态区)(static)存放全局变量、静态数据。 包含柔性数组成员的结构用malloc ()函数进行内存的动态分配,并且分配的内存应该大于结构的大小,以适应柔性数组的预期大小。  

    26810编辑于 2024-01-23
领券