首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏奇点大数据

    话说量化4

    货币——也就是我们俗称的“钱”是世界上最可爱的东西之一,可以说没有它的刺激,也就没有我们现在这么繁荣的市场,也没有这么丰富的各类物质产品和幸福生活。

    71320发布于 2018-09-14
  • 来自专栏大侠之运维

    量化的远控工具

    natpass:轻量级远程控制工具在今天的数字化时代,远程控制工具变得越来越重要,无论是用于远程技术支持、服务器管理还是其他远程操作。 natpass是一款轻量级的远程控制工具,它提供了强大的功能和安全性,使您能够轻松地远程管理您的计算机和服务器。本文将介绍natpass的功能、部署过程以及如何使用它,帮助您充分了解这个有用的工具。 natpass的功能与特性natpass提供了一系列功能和特性,使其成为一款强大的远程控制工具。 这些功能和特性使natpass成为一款功能强大且灵活的远程控制工具,适用于各种远程管理需求,无论是个人用户还是企业用户都可以受益。 如果您正在寻找一款可靠的远程控制工具,不妨考虑使用natpass。通过本文介绍的部署过程,您可以轻松地开始使用natpass,并充分利用其强大的功能。

    71210编辑于 2024-10-09
  • 来自专栏巴山学长

    量化计算工具包parsec共享

    4.进入源码下的src文件夹 ? 5.打开config/make.ices文件 ? 6.将原有的ifort编译器改成gfortran,因为intel的编译器要钱,使用免费的 修改前 ? 修改后 ? PVOX可视化工具包文末附上。 1.解压PVOX,打开pvox.m文件如图: ? 2.运行程序导入parsec.out、wfn.dat文件 ? 3.如果没有出错的话,你应该会看到这幅图: ? 4.但实际过冷水大半个月看到的都是: ? Why?因为2.4.1版本的python码、7.0 的MATLAB 码的不兼容以及其它错误坑死人。

    2.3K20发布于 2020-05-07
  • 来自专栏GiantPandaCV

    INT4量化用于目标检测

    Int 4量化用于目标检测 【GiantPandaCV】文章2019 CVPR,讲的是Int 4量化用于目标检测,主要是工程化的一些trick。 感受:这篇文章主要是做了实践工作,可以看作是低bit量化(Int 4)用于目标检测的一些trick。 的Int算法即Int-4。 并且让activation在[,] (0 < < 1) 内,文章设置n=20,=0.999. 4、折叠bn。 Int4量化与全精度对比 ? 消融实验 ? FreezeBN与不同bit的对比 ? 截断激活函数阈值的百分比 ? 与其他量化方法的对比图

    1.3K20发布于 2021-03-24
  • 来自专栏AI机器学习与深度学习算法

    机器学习入门 5-4量化

    本小节主要介绍使用向量化的方式提升性能。 简单线性回归 先来回归一下简单线性回归优化目标以及通过最小二乘的方式求得的参数a,b的解析解。 ? 在上一个小节中,我们是通过循环的方式来求解分子和分母,前面也说过,使用for循环的这种方式,性能相对是比较低的,如果有办法将for循环的计算变成向量之间的计算的话,得益于numpy模块性能就会大大的提升,这就是向量化运算含义 上面我们将对应元素相乘然后相加的操作看成是向量之间的点乘,这也是为什么在最小二乘求解a的解析解的时候要把式子写成相乘累加的形式,这样就可以将其转换成向量之间的运算,进行向量化运算提升性能。 使用向量化运算实现线性回归算法 前面使用sklearn的思想封装了一个名为"SimpleLinearRegression1"的类,在类中使用for循环的方式来求解参数a的值。 ? ? ? ? 实现向量化的代码只需将for循环部分改成向量点乘即可: ? ? ? ? 为了比较两者的性能,将两种方式导入jupyter中,通过魔法命令来验证性能。 ? ? ? ?

    89420发布于 2019-11-13
  • 来自专栏GEE遥感大数据学习社区

    快速测绘和量化地球表面边缘变化的GEE工具-数字化工具(GEEDiT)和边缘变化量化工具(MaQiT)

    这里介绍了三种新的、可免费使用的工具,它们可以一起用于处理和可视化,Landsat 4-8和Sentinel 1-2卫星存档数据,能够在很短的时间内实现高效的绘图(通过手动数字化)和自动量化边缘变化。 这些工具对各种遥感专家的用户都是高度可访问的,在访问方面几乎没有计算、许可和知识方面的障碍。 边缘变化量化工具(MaQiT)是GEEDiT和GEEDiT Reviewer的补充,允许通过使用两种已建立的方法(以前用于测量冰川边缘变化)和两种新的方法,通过类似的简单GUI快速量化这些边缘变化。 MaQiT的开发初衷是量化潮汐冰川末端的变化,尽管工具中包含的方法有可能广泛应用于地球表面科学的多个领域(例如,沿海和植被范围的变化)。 这些工具将使地球科学领域的广泛研究人员和学生能够有效地绘制、分析和访问大量数据。 作者简介 James Lea M.A.

    84520编辑于 2022-09-20
  • 来自专栏可以叫我才哥

    使用Python进行量化投资A股的4 种方法!

    大家应该都知道,Python的一个应用方向就是——量化交易,恰好最近收到了清华出版社赠送的 《深入浅出Python量化交易实战》 一书,因为平时对数据科学和机器学习都比较感兴趣,简单试读了一下,今天文末也会送出几本 2021年11月1日后用户将无法从中国大陆使用 Yahoo 的产品与服务) yfinance 另外,yfinance也有类似的功能,使用方法也很简单 Tushare 当然,说到用 Python 进行量化交易 JoinQuant 最后一种方法来获取数据就是用现成的量化平台。这里我用joinquant实验了一下 可以看到,通过平台获取数据,还是比较简单的。 http://mpvideo.qpic.cn/0bc3lqaaaaaaoyaj25qpmbrfaxgdaboaaaaa.f10002.mp4? dis_k=4e6da654e1bbc5d6818c55e3835d64ea&dis_t=1649751382&vid=wxv_2274959819105320960&format_id=10002&support_redirect

    1.8K10编辑于 2022-04-12
  • 来自专栏AI技术探索和应用

    快速上手chatglm.cpp模型量化工具

    下载代码 git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp 量化模型 支持量化的模型包括 -t <type>: q4_0: 4-bit integer quantization with fp16 scales. q4_1: 4-bit integer quantization with fp16 python3 chatglm_cpp/convert.py -i THUDM/chatglm-6b -t q4_0 -o chatglm-ggml.bin 运行模型 cpp工具运行 编译工具 cmake 注意修改量化后模型的名称和地址。 MODEL=. 注意修改量化后模型的名称和地址。 MODEL=.

    3.5K51编辑于 2024-03-13
  • 来自专栏气象杂货铺

    Basemap工具函数(4)

    map.drawcoastlines() for lon in range(0, 360, 20): for lat in range(-60, 90, 30): map.tissot(lon, lat, 4,

    1.8K10发布于 2020-04-21
  • 来自专栏DrugScience

    量化合物库筛选策略–P4

    上期回顾 超量化合物库筛选策略–P1 超量化合物库筛选策略–P2 超量化合物库筛选策略–P3 具体步骤 5. #1])]=O','[CX4][Cl,Br,I]','[R][Cl,Br,I]','[N;H2;D1;$(N-!@[#6]);! $(N-C=[O,N,S])]'), ('[CX4][Cl,Br,I]', '[R][Cl,Br,I]'), ('[CX4][Cl,Br,I]', '[N;H2;D1;$(N-!@[#6]);! $(N-C=[O,N,S])]'), ('[CX4][Cl,Br,I]', '[N;H1;D2;$(N(-[#6])-[#6]);! #1])]=O','[CX4][Cl,Br,I]','[R][Cl,Br,I]','[N;H2;D1;$(N-!@[#6]);!

    59010编辑于 2022-05-17
  • DeepSeek-7B-chat 4bits量化 QLora 微调

    DeepSeek-7B-chat 4bits量化 QLora 微调 概述 本节我们简要介绍如何基于 transformers、peft 等框架,对 DeepSeek-7B-chat 模型进行 Lora =True, # 是否在4位精度下加载模型。 如果设置为True,则在4位精度下加载模型。 bnb_4bit_compute_dtype=torch.half, # 4位精度计算的数据类型。 bnb_4bit_quant_type="nf4", # 4位精度量化的类型。这里设置为"nf4",表示使用nf4量化类型。 bnb_4bit_use_double_quant=True # 是否使用双精度量化。如果设置为True,则使用双精度量化

    52810编辑于 2025-07-17
  • 来自专栏强仔博客

    专为 Telegram 设计的轻量化自建代理工具

    最近有人给我推荐了个代理软件,查了下发现是专门为 Telegram 开发的代理软件,代理服务端限制了客户端只允许访问 Telegram 的服务器。

    7.7K31编辑于 2021-12-20
  • 来自专栏GiantPandaCV

    NCNN+INT8+YOLOV4量化模型和实时推理

    tensorflow框架一直不感冒,很大一部分源于tensorflow每更新一次版本,就杀死一片上一版本的接口,可能上了2.0以后这种情况好了很多,不过依旧训练是torch用的更多) ncnn int8量化工具 ,我们提供了通用的训练后量化工具,可以将float32模型转换为int8模型。 也就是说,在进行量化前,我们需要yolov4-tiny.bin和yolov4-tiny.param这两个权重文件,因为想快速测试int8版本的性能,这里就不把yolov4-tiny.weights转yolov4 -tiny.table 直接一步走,所有量化工具在ncnn\build-vs2019\tools\quantize文件夹下 ? 量化工具所在目录 找不到的读者请看下自己编译过程是不是有误,正常编译下是会有这些量化文件的 运行成功后会生成两个int8的文件,分别是: ?

    3K30发布于 2021-05-18
  • 来自专栏生信技能树

    信息熵的4量化指标的R代码实现

    d50.index(b3) [1] 0.5 > d50.index(1:100) [1] 0.5 > d50.index(1:1000) [1] 0.5 > d50.index(c(1,2,2,2,3,4) 总结 上面我写的4个公式里面只有基尼系数计算必须输入的是数值,或者把非数值变量取频数后再进行计算。而且仅仅是只有基尼系数是越大,贫富差距越大,多样性越差。其它的数值都是越小多样性越差。

    1.9K40发布于 2020-05-26
  • 来自专栏有三AI

    【杂谈】当前模型量化有哪些可用的开源工具

    模型量化属于模型优化中的重要技术之一,是非常有效地提升模型推理速度的技术方案,那么当前有哪些可用的模型量化工具呢? https://github.com/NVIDIA/TensorRT caffe-int8-convert-tools是一个Caffe模型量化工具,基于TensorRT2.0。 https://github.com/BUG1989/caffe-int8-convert-tools 3 PaddleSlim PaddleSlim是百度提出的模型量化工具,包含在PaddlePaddle https://github.com/PaddlePaddle/models/tree/develop/PaddleSlim/quant_low_level_api 4 Pytorch Pytorch1.3 the quantization of neural networks by FaceBook https://github.com/facebookresearch/kill-the-bits [4]

    2.4K21发布于 2019-12-25
  • 来自专栏AI人工智能

    模型量化大揭秘:INT8、INT4量化对推理速度和精度的影响测试

    在我过去两年的实践中,我系统性地测试了INT8和INT4量化技术在不同模型架构上的表现,发现量化技术不仅能够将模型大小压缩2-4倍,还能在特定硬件上实现1.5-3倍的推理速度提升。然而,量化并非银弹。 INT4量化的极限压缩探索3.1 INT4量化的挑战与机遇INT4量化将模型压缩推向了极限,但也带来了更大的精度挑战:class INT4Quantizer: """INT4量化器 - 实现4量化 INT4量化中的关键技术,通过将权重分成小组并为每组计算独立的量化参数,可以显著提高量化精度。 参考链接PyTorch量化官方文档NVIDIA TensorRT量化最佳实践Hugging Face Transformers量化指南Intel Neural Compressor量化工具ONNX Runtime 量化优化关键词标签#模型量化 #INT8量化 #INT4量化 #推理优化 #AI部署

    2.1K21编辑于 2025-08-20
  • 来自专栏kali blog

    一款轻量化的远程连接工具-NxShell

    最离不开的工具便是远程连接工具了。工作中常见的工具有XshellFinalshell等。 但每款工具都有自身的优点和不足,在这里給大家分享一款比较轻量化工具NxShell NxShell是一款开源的远程连接工具,支持Windows/Linux/MacOS系统及多种协议(SSH、SFTP、FTP

    30510编辑于 2025-07-28
  • 来自专栏拓端tecdat

    JupyterLab实现医疗推理数据集Llama4Scout的4-bit量化、LoRA低秩适配、SFT有监督微调|轻量化适配

    需要注意的是,RunPod为海外云GPU平台,国内直接访问需要借助网络代理工具,国内可选择的替代平台有AutoDL、极链云、阿里云GPU服务器、腾讯云GPU服务器等,这类平台均支持多GPU灵活配置,国内可直接访问 模型4-bit量化加载代码import osimport torchfrom transformers import AutoTokenizer, Llama4ForConditionalGeneration 量化参数,修改变量名,降低模型显存占用quant_4bit_config = BitsAndBytesConfig( load_in_4bit=True, # 开启4-bit量化 bnb_4bit_use_double_quant =False, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=torch.bfloat16,)......上述代码执行后,模型将以4-bit量化的形式完成加载 总结本文基于实际的客户咨询项目,详细拆解了如何通过云GPU平台实现Llama 4 Scout大模型的低成本、轻量化微调,通过4-bit量化、LoRA低秩适配、多GPU分布式训练等技术优化,将原本需要4张高端

    13510编辑于 2026-02-10
  • 来自专栏DeepHub IMBA

    NVFP4量化技术深度解析:4位精度下实现2.3倍推理加速

    传统INT4量化在推理过程中无法直接处理4位数值,必须先将INT4权重反量化为16位数值才能进行计算,这一额外步骤虽然在SGLang和vLLM等现代推理框架中已经高度优化,但仍然产生计算开销并限制了整体速度 在软件生态方面,NVFP4已完整集成到主流工具链中。开发者可使用llm-compressor完成NVFP4格式量化,随后通过支持NVFP4模型执行的vLLM实现高效推理部署。 值得注意的是,NVFP4还对激活进行量化,但精度基本保持稳定,特别是与仅量化权重的NVFP4A16相比差异很小。 测试结果还证实了激活量化对保持速度优势的关键作用——仅量化权重的NVFP4A16模型速度提升有限,仅略快于INT4模型。 从技术角度看,NVFP4模型的QLoRA微调是完全可行。NVFP4本质上只是一种数据类型和量化格式,QLoRA可以应用于任何格式和数据类型的量化模型。

    91410编辑于 2025-11-15
  • 来自专栏韩曙亮的移动开发专栏

    【Cubase】Cubase 量化设置 ( 量化预置 | 长度量化 | 快捷键设置 | 量化开头 | 量化 MIDI 事件结尾 | 量化 MIDI 事件长度 )

    文章目录 一、要解决的问题 二、量化预置 三、长度量化 四、快捷键及设置 1、快捷键及设置 2、量化开头 3、量化 MIDI 事件结尾 4量化 MIDI 事件长度 五、对 MIDI 进行量化操作 本博客中的所有设置都是在 , 当前是 4/4 拍 , 一个全音符有 4 拍 , 显示每个 16 分音符的格子 ; 这是设置了 " 1/32 " 量化预置参数 , 每拍显示 8 个格子 , 每个格子的长度是 32 分音符 ; 2、量化开头 量化开头 : 默认按键 " Q " 是量化开头 ; 将所有音符的开始位置对齐到 " 量化预制 " 对应的格子中 ; 该设置是系统自带的 , 不建议修改 ; 3、量化 MIDI 按钮 , 然后点击确定 , 此时 " 量化 MIDI 事件结尾 " 操作就被指定了快捷键 " Ctrl + F12 " ; 4量化 MIDI 事件长度 量化 MIDI 事件长度 : 使用相同设置 " 快捷键 , 量化音符长度 , 此时音符都排列整齐了 , 音符开头和音符长度进行了量化 , 音符结尾自然也进行了量化 ;

    4.6K00编辑于 2023-03-28
领券