首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏DevOps时代的专栏

    轻量化 Jenkins 最佳实践

    前言 今天分享主题主要分成三个部分: 第一部分,Jenkins跟持续交付; 第二部分,Jenkins轻量化思路; 第三部分,Jenkins高可用实践。 二、Jenkins轻量化思路 2.1、使用jenkins的常见问题 接下来就是我今天所要谈的重点,刚才解释了为什么Jenkins所代表的CI/CD如此之重要,但现实里Jenkins还是会出现这样那样的问题 我们不希望Jenkins承载更多的东西,这也是为什么我提出轻量化Jenkins的概念,初衷在于给Jenkins减负。 ? 接下来我们看一看Jenkins的系统架构。 2.6、轻量化解决之道 那么轻量化的概念到底是什么意思呢? 那么在实践Jenkins轻量化解决之道的过程中,我总结了一些套路和体系,其中以下八点内容希望可以帮助大家解决一些实际生产工作中Jenkins的性能问题,同时扩展大家的思路,共同探索Jenkins应用的最佳实践

    4.9K90发布于 2018-02-02
  • 来自专栏集智书童

    全新轻量化模型 | 轻量化沙漏网络助力视觉感知涨点

    人体姿态估计(HPE)是计算机视觉中的一项经典任务,它主要通过识别人的关节的位置来表示人的方向。HPE可以用来理解和分析人类的几何和运动相关信息。Newell等人在Mask3D中提出的堆叠沙漏架构是第一个基于深度学习的HPE方法之一,因为经典方法在此之前主导了HPE文献。

    1.4K30编辑于 2023-02-26
  • 来自专栏SIGAI学习与实践平台

    轻量化神经网络综述

    目前工业级和学术界设计轻量化神经网络模型主要有4个方向:(1)人工设计轻量化神经网络模型、(2)基于神经网络架构搜索(Neural Architecture Search,NAS)的自动化设计神经网络; 1基本卷积运算 手工设计轻量化模型主要思想在于设计更高效的“网络计算方式”(主要针对卷积方式),从而使网络参数减少,并且不损失网络性能。 K=3 and M ≥ 32),既深度可分离卷积计算量可显著降低标准卷积计算量的1/8–1/9。 深度可分离卷积思想是channel相关性和spatial相关性解耦图 12。 4.4TensorFlow Lite TensorFlow Lite近日发布了一个新的优化工具包,引入post-training模型量化技术[9], 将模型大小缩小了4倍,执行速度提升了3倍! for Model Compression and Acceleration on Mobile Devices. arXiv preprint arXiv: 1802.03494 (2018) [9]

    4.7K51发布于 2018-09-27
  • 工厂端部署轻量化模型

    在工厂端部署轻量化模型通过TensorRT加速的ResNet,是制造业实现实时物料追溯与质量检测的关键技术路径。以下从技术原理、实施步骤、应用场景及优化策略四个维度展开说明:一、为何选择轻量化模型? 模型轻量化改造架构优化: 将ResNet-50替换为ResNet-18或MobileNetV3,参数量减少80%以上。 AI方案模型选型: 基础模型:ResNet-34(ImageNet预训练) 轻量化后:剪枝至ResNet-12,INT8量化,体积从85MB→12MB。

    99710编辑于 2025-04-10
  • 来自专栏1996

    轻量化网络 | MobileNet论文解析

    但其使用深度可分离卷积层替换之前的全卷积层,以达到压缩参数数量并轻量化网络这一目标。 MobileNet除了第一层为全卷积层,其余层均为深度可分离卷积。 不同于Deep Compression,因为网络在定义时结构简单,因此我们可以简单地搜索网络的拓扑结构,从头直接训练出一个效果很好的轻量化网络。 MobileNets使用3x3的深度可分离卷积比标准的卷积减少了8-9倍的计算复杂度,而与此同时准确率只减少了一点点。 _{k}^{2}}} \approx D_{k}^{2} 可以发现,这个压缩比与计算量的压缩比是相同的,在深度网络中, N 的取值往往远大于 D_{k}^{2} ( D_{k}^{2}=9 因此,压缩比略小于9。在后续的实验中,确定基于深度可分离卷积MobileNet,相对于结构类似的VGG16网络的实际压缩比为8.4。

    1.1K10编辑于 2022-09-23
  • 来自专栏SIGAI学习与实践平台

    轻量化神经网络综述

    目前工业级和学术界设计轻量化神经网络模型主要有4个方向: (1)人工设计轻量化神经网络模型; (2)基于神经网络架构搜索(Neural Architecture Search,NAS)的自动化设计神经网络 1、基本卷积运算 手工设计轻量化模型主要思想在于设计更高效的“网络计算方式”(主要针对卷积方式),从而使网络参数减少,并且不损失网络性能。 图9 Pointwise卷积:空间维度和通道维度示意图 1.5 Channel Shuffle Grouped Convlution导致模型的信息流限制在各个group内,组与组之间没有信息交换,这会影响模型的表示能力 K=3 and M ≥ 32),既深度可分离卷积计算量可显著降低标准卷积计算量的1/8–1/9。 深度可分离卷积思想是channel相关性和spatial相关性解耦图12。 ? 4.4 TensorFlow Lite TensorFlow Lite近日发布了一个新的优化工具包,引入post-training模型量化技术[9], 将模型大小缩小了4倍,执行速度提升了3倍!

    1.3K20发布于 2018-10-18
  • 来自专栏为了不折腾而去折腾的那些事

    GitLab 14 轻量化运行方案

    gitlab-workhors───11*[{gitlab-workhors}] │ └─svlogd ├─runsv─┬─nginx───9* [{alertmanager}] │ └─svlogd ├─runsv─┬─postgres_export───9* ─postgres───11*[postgres] │ └─svlogd ├─runsv─┬─bundle───9* gitlab-workhors───10*[{gitlab-workhors}] │ └─svlogd └─runsv─┬─nginx───9* CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS 9a14fb16a437

    5.7K21发布于 2021-07-14
  • 来自专栏集智书童

    最新轻量化Backbone | FalconNet汇聚所有轻量化模块的优点,成就最强最轻Backbone

    为了解决这些问题,本文将轻量化CNNs的4个重要组成部分从粗到细分解并重新设计: 设计了一个称为LightNet的轻量化整体架构,该架构通过简单地实现其他轻量化CNN的BasicBlock来获得更好的性能 根据1:1:3:1的Stage计算比率,每个Stage中的Block数设置为[3,3,9,3]。遵循金字塔原理并考虑减少参数,每个Stage中的通道维度设置为[32,64,128,256]。 假设kernel的位置往往更重要,如果它具有更大的平均kernel大小[8,9,16,18,19]。 作者首先计算并可视化了4个流行的轻量化神经网络的平均kernel-size矩阵,如图5所示。 如图9所示,在训练中,RefCO首先构造了C个K个并行的第1个SF Conv分支并相加输出,然后构造了K个平行的第2个SF Conv支路并相加K个输出特征图以获得最终输出。 图9展示了具有RepSO和RefCO的Meta Light Block,它被用作FalconNet的BasicBlock。

    1.6K20编辑于 2023-09-04
  • 来自专栏为了不折腾而去折腾的那些事

    GitLab 14 轻量化运行方案

    gitlab-workhors───11*[{gitlab-workhors}] │ └─svlogd ├─runsv─┬─nginx───9* [{alertmanager}] │ └─svlogd ├─runsv─┬─postgres_export───9* ─postgres───11*[postgres] │ └─svlogd ├─runsv─┬─bundle───9* gitlab-workhors───10*[{gitlab-workhors}] │ └─svlogd └─runsv─┬─nginx───9* CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS 9a14fb16a437

    3.8K40发布于 2021-07-16
  • 来自专栏大侠之运维

    轻量化的远控工具

    修改方式如下:使用以下命令生成一个16位随机串: tr -dc A-Za-z0-9 < /dev/urandom | dd bs=16 count=1 2>/dev/null && echo修改服务器端的

    70810编辑于 2024-10-09
  • 来自专栏全栈程序员必看

    mobilenet改进_常用的轻量化网络

    MobilenetV1/Conv2d_8_pointwise/Conv2D: 262,144 51,380,224 MobilenetV1/Conv2d_9_ 524,288 25,690,112 MobilenetV1/Conv2d_13_depthwise/depthwise: 9,216 width_multiplier, sc='conv_ds_8') net = _depthwise_separable_conv(net, 512, width_multiplier, sc='conv_ds_9' 对于上图 Figure2(a) 的ResNet瓶颈模块,比如输入大小为 c×h×wc×h×w 与 瓶颈channels数为 mm 的情况,ResNet 模块的计算量是 hw(2cm+9m2)hw(2cm +9m2) FLOPs,ResNeXt 模块的计算量是 hw(2cm+9m2/g)hw(2cm+9m2/g) FLOPs, 而 ShuffleNet 模块是 hw(2cm/g+9m)hw(2cm/g+9m

    1.2K10编辑于 2022-10-03
  • 来自专栏Android群英传

    Flutter混编工程之轻量化改造

    轻量化改造的意义 轻量级Flutter渲染引擎的核心是将Flutter作为一个「渲染器」,它的唯一功能就是将Native端传来的数据绘制成相应的界面,其它所有交互操作,都通过Channel桥接到Native 所以,Flutter轻量化改造重要原因,就是需要「尽可能多的复用原生已有的逻辑」,例如图片框架、网络、埋点,而不是在Flutter中去全部再实现一遍。 同时,Flutter轻量化改造也是对EngineGroup架构的最佳实践,在EngineGroup架构下,我们需要将数据源放到原生侧,从而保证多Engine的数据共享。 轻量化改造实践 首先,我们通过Pigeon生成接口协议和调用代码,原生侧分别基于当前协议来进行开发。 不过,我们需要解决Pigeon CLI脚本只能有一个协议文件的问题。 所以,我们需要对轻量化Flutter框架做进一步改造。

    93510编辑于 2022-03-31
  • 来自专栏AI科技评论

    砖家:轻量化网络利好红米

    为此,研究人员提出了一个叫做 Lite-Web(轻量化网页)的解决方案,可使网页在低端手机上加载速度更快,处理起来更容易。

    55320编辑于 2023-02-23
  • 桥梁轻量化监测有几种类型?

    轻量化监测系统是近年来交通基础设施智慧化领域的热点概念,已密集出现在国家级政策文件中。 实践中,桥梁轻量化监测并未形成统一范式,而是随着政策导向与技术发展呈现出明显的类型分化,不同类型的设计理念、技术路径与应用场景各有侧重:一、早期针对性轻量化监测(江苏先行模式)这一类型是轻量化监测概念的雏形 三、养护数字化导向型轻量化监测(全覆盖赋能模式)随着政策要求从 “重点监测” 向 “全面覆盖” 演进,多地开始推动轻量化监测系统的全域部署 —— 不仅包括高风险桥梁,也逐步延伸至普通服役桥梁。 这类轻量化监测的核心诉求是数据的实用性与连续性,需要通过多维度参数采集、智能化数据分析,为桥梁全生命周期养护提供科学依据。 结语桥梁轻量化监测的类型分化,本质上是政策需求、技术发展与管理目标三者动态适配的结果。

    32510编辑于 2025-11-06
  • 来自专栏xwc1125

    Sealos+tkeauth 轻量化安装TKEStack

    Sealos+tkeauth 轻量化安装TKEStackSealos安装k8s参考文档:https://www.sealos.io/zh-Hans/docs/Intro安装sealoswget http

    78320编辑于 2022-08-12
  • 来自专栏我爱计算机视觉

    ​使用高斯过程回归指导网络轻量化

    并通过实验证明了使用该方法做网络轻量化的有效性。 4.方法简单,具有通用性,不会引入AI加速器不支持的算子。 关键内容 为了探索在构建轻量化网络时,减小输入图片分辨率、减小宽度、减少深度对网络性能的影响,作者做了一个实验。 以EfficientNet-B0为baseline去做网络轻量化,使得目标网络的计算量为原来一半,即200M FLOPs左右。 给定计算量为的baseline模型,要得到计算量为 的轻量化模型,就是要求取目标模型的、和,因此、和都是的函数,即: ? 若要得到高性能的轻量化目标模型,需要探索一个问题:不同计算量下,什么样的模型有高性能?

    80420发布于 2020-11-06
  • 来自专栏清羽飞扬

    Shynet:极为轻量化的访客监控系统

    为了服务器的稳定,我只能忍痛将其关闭,并使用揽星在评论区提到的统计系统:51La和统计鸟,但是这两个卧龙凤雏每天都加载不出来,严重影响访客统计数据,实在没办法,只能自行部署,于是我又开始在网上寻找更加轻量化的访客统计系统 总体来说,我不是很喜欢,但是奈何他轻量化,我又能要什么自行车呢? 优点 作为一个轻量化的系统,他的优点自然就是极为轻量化了,它的统计代码如下: <noscript> <img src="https://visitor.qyliu.top/ingress/aaaaaa-bbbbbb-cccccc-dddddd Umami到后来的51La和统计鸟,再到本次选择的Shynet,每一步都是为了找到一个符合服务器要求、易于部署、功能齐全的解决方案,Shynet作为一个自托管的网络分析工具,不仅保护了访客的隐私,而且在<em>轻量化</em>和功能性方面表现出色 如果你也在寻求一个及其<em>轻量化</em>的访客统计系统,不妨可以试试,相信不会让你失望! 本次教程到此结束,如果有什么问题欢迎在评论区留言!

    1.1K10编辑于 2024-05-30
  • 来自专栏小鑫同学编程历险记

    lerna-lite 轻量化 monorepo 管理利器

    lerna-lite 介绍 lerna-lite 是用来管理和发布同一仓库多 JavaScript/TypeScript 包的一款工具,与 lerna 相比 lerna-lite 具有更轻量化和模块化的特点

    1K10编辑于 2024-04-24
  • 来自专栏让技术飞起来

    轻量化方式实现灰度发布落地

    由于本次调研的范围和时间有限,所以我认为较好用的轻量化灰度发布方案就暂时罗列这两类,当然方案有千千万,选择自己合适的就好。

    1.1K40编辑于 2022-09-15
  • 来自专栏小徐学爬虫

    Vlang编写轻量化多线程爬虫

    Vlang作为新兴语言,他简单、快速和安全让爬虫有不一样的体验。在V中,并发模型基于轻量级的协程(称为go routines,类似于Go语言的goroutine)和通道(channels)来实现。虽然说V语言目前还在快速发展中,但它的并发特性已经可以用于构建多线程(实际上是协程)应用程序,例如网络爬虫。

    32410编辑于 2025-07-09
领券