首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Postgresql源码分析

    Postgresql源码(7)Xlog格式

    日志头格式 typedef struct XLogPageHeaderData { 【校验用magic数字】 uint16 xlp_magic; /* magic value for correctness we can (and we do) restore entire page in redo */ #define XLOG_HEAP_INIT_PAGE 0x80 XLOG RECORD的数据格式

    55110编辑于 2022-07-16
  • 来自专栏生信技能树

    7.JSON格式数据的格式

    值得继续分享: 200个生信工程师面试考题 JSON格式简介 JSON(JavaScript Object Notation),是一种数据交互格式。 在JSON格式出现之前,大家都用XML传递数据。 XML是一种纯文本格式,所以适合在网络上交换数据,但是XML格式比较复杂,知道拉格斯.克罗克福特发明了JSON这种超轻量级的数据交换格式。 ---- JSON有两种数据格式:对象和数组 对象:用大括号表示,由键值对组成,每个键值对用逗号分隔开。 其中key必须作为字符串而且是双引号,value可以是多种数据类型 数组 :用中括号表示,每个元素之间用逗号分隔开 JSON格式与python格式的对应 Python JSON dict object /usr/bin/python import pandas as pd import json from collections import OrderedDict #1.将json格式转换为python

    2.4K40发布于 2021-03-24
  • 来自专栏大语言模型,算力共享

    tinygrad框架简介;MLX框架简介

    ​目录tinygrad框架简介MLX框架简介LLaMA​编辑Stable Diffusion​编辑tinygrad框架简介极简主义与易扩展性 tinygrad 的设计理念是极简主义。 MLX框架简介基本信息开发者:Apple的机器学习研究团队设计理念:专为苹果芯片设计,旨在提供一个既简单易用又高效的研究环境,让研究人员能够快速探索和实现新的算法思想。 主要特点紧密类似NumPy的API:MLX提供了与NumPy类似的Python API,以及与之对应的C++ API,使得开发者能轻松上手。 )语音识别(利用OpenAI的Whisper进行语音识别)获取方式MLX可以通过PyPI安装Python API,或者通过GitHub上的源代码进行编译和安装。 综上所述,tinygrad和MLX都是具有独特特点和优势的深度学习框架,分别适用于不同的开发者和应用场景。

    73620编辑于 2024-07-23
  • 来自专栏学海无涯

    SwiftUI-MLX本地大模型开发

    介绍 MLX 是 Apple 专为 Apple 芯片设计的机器学习框架。 MLX Swift 将 MLX 扩展到了 Swift,可以直接在 iOS 项目中使用而无需借助 Python。 MLX 中的 MLXLLM 模块提供了一种简单的方法来在本地设备(iPhone/iPad/Mac)使用预训练的大语言模型 (LLMs) 进行推理。 使用步骤 添加 MLXLLM Package。

    58110编辑于 2025-02-19
  • 来自专栏学海无涯

    SwiftUI-MLX本地大模型开发(四)

    介绍 在 SwiftUI-MLX本地大模型开发、SwiftUI-MLX本地大模型开发(二)与 SwiftUI-MLX本地大模型开发(三)中,我们解决了基本使用、定制模型、使用本地模型、更改模型存储路径、 环境 pip install mlx pip install mlx-lm pip install transformers 数据 新建文件train.jsonl、valid.jsonl与test.jsonl 根据模型说明文件,准备数据,格式如下。本文以ticoAg/Chinese-medical-dialogue进行微调。 {"text": "你是谁?\n我是你的私人智能小助手,我叫羊羊。"} mlx_lm.lora \ --train \ --model /Users/yangfan/Documents/huggingface/models/mlx-community/Llama-3.2 \ --model /Users/yangfan/Documents/huggingface/models/mlx-community/Llama-3.2-1B-Instruct-4bit \ -

    38210编辑于 2025-04-21
  • 来自专栏学海无涯

    SwiftUI-MLX本地大模型开发(二)

    介绍 在 SwiftUI-MLX本地大模型开发一文中,我们已经详细讲了如何利用 MLX 进行本地大模型的开发。但是通过案例可以发现 2 个问题: MLX 内置的大模型数量有限。 可以在 Hugging Face 模型搜索地址 中搜索需要的 MLX 大模型。 // MARK: - 注册自定义模型,模型必须为MLX格式 extension MLXLLM.ModelRegistry { public static let llama3_2_3B_4bit = ModelConfiguration( id: "mlx-community/Llama-3.2-3B-Instruct-4bit", // Hugging Face上模型的仓库路径 可以在 Model Scope 模型搜索地址 中搜索并下载需要的 MLX 大模型。

    32200编辑于 2025-04-14
  • 来自专栏学海无涯

    SwiftUI-MLX本地大模型开发(三)

    /huggingface/models/mlx-community目录(iOS)。 案例:将模型存储位置更改为:/Users/yangfan/Downloads/mlx_models/models/mlx-community(macOS)或者 sandbox 下的Downloads/mlx_models /models/mlx-community目录(iOS)。 # 安装mlx_lm pip install mlx mlx-lm # 下载模型到本地 modelscope download --model NousResearch/Hermes-3-Llama- --hf-path /Users/yangfan/Documents/modelscope/Hermes-3-Llama-3.2-3B -q # --mlx-path:转换后模型存储路径 mlx_lm.convert

    58210编辑于 2025-04-14
  • 来自专栏韩曙亮的移动开发专栏

    【Android 安装包优化】7z 文件压缩格式 ( 7z 格式简介 | 7z 命令使用说明 )

    文章目录 一、7z 文件压缩格式简介 二、7z 命令使用说明 1、压缩命令 2、解压命令 三、7z 命令示例 1、配置 7z 命令环境变量 2、压缩 3、解压缩 四、参考资料 一、7z 文件压缩格式简介 ---- 7z 文件压缩格式 , 压缩比很高 , 压缩时可以选择多种压缩算法 , 该算法比 zip , tar , rar 等压缩格式的压缩比率更高 , 得到的压缩后的文件最小 ; 7-Zip 简介 : 开源压缩软件 , 压缩比率高 , 压缩时消耗的资源也多 ; 支持 7z , xz , bzip2 , gzip , tar , zip , wim 等压缩格式 , 不支持 rar 格式 ( 这个还在专利保护期内 ) ; 7-Zip 官网 : https://www.7-zip.org/ 7-Zip 软件压缩比率 , 比 WinZip , WinRAR , 等压缩任何格式都要高 , 包括 zip 和 rar 表示压缩类型 , -t7z 表示压缩格式7z , -tzip 表示压缩格式是 zip 格式 ; 压缩等级含义 : 0 : 不压缩 , 只存储 ; 1 : 快速压缩 ; 5 : 正常压缩 ; 7 :

    3.9K20编辑于 2023-03-29
  • 来自专栏学海无涯

    SwiftUI-MLX本地大模型开发(五)

    适配本地模型:适用于运行在 Apple Silicon 上的 MLX 模型。 支持资源监控:可输出内存占用等性能指标,方便优化推理策略。 llm-tool使用步骤 克隆项目git clone https://github.com/ml-explore/mlx-swift-examples.git。 使用 Xcode 打开mlx-swift-examples项目,选择 llm-tool 进行编译。 通过终端命令mlx-run llm-tool eval快速测试。 案例 cd mlx-swift-examples . /mlx-run llm-tool eval \ --model /Users/yangfan/Documents/modelscope/Hermes-3-Llama-3.2-3B \

    35610编辑于 2025-05-06
  • 来自专栏全栈程序员必看

    mac解压7z格式文件

    brew直接安装解压工具 $ brew search 7z p7zip $ brew install p7zip ==> Downloading https://downloads.sourceforge.net /project/p7zip/p7zip/9.20.1/p7zip_9.20.1_src_all.tar.bz2 ############################################ ############################ 100.0% ==> make all3 CC=clang ==> make DEST_HOME=/usr/local/Cellar/p7zip /9.20.1 DEST_MAN=/usr/local/Cellar/p7zip/9.20.1/share/man install ==> chmod -R +w /usr/local/Cellar/p7zip /9.20.1/share/doc/p7zip 然后使用7z命令即可 7z e filename.7z 发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/112191.

    3.5K50编辑于 2022-07-11
  • 来自专栏机器之心

    苹果为自家芯片打造开源框架MLX,实现Llama 7B并在M2 Ultra上运行

    项目地址:https://github.com/ml-explore/mlx MLX 项目贡献者之一、Apple 机器学习研究团队(MLR)研究科学家 Awni Hannun 展示了一段使用 MLX 框架实现 Llama 7B 并在 M2 Ultra 上运行的视频。 MLX 还有更高级的包(比如 mlx.nn 和 mlx.optimizers),它们的 API 很像 PyTorch,可以简化构建更复杂的模型。 可组合函数变换。 MLX 与其他框架的显著差异在于统一内存,阵列共享内存。MLX 上的操作可以在任何支持的设备类型上运行,无需移动数据。 此外,项目中提供了多种使用 MLX 框架的示例,比如 MNIST 示例可以很好地让你学习如何使用 MLX

    1.4K10编辑于 2023-12-12
  • 来自专栏福大大架构师每日一题

    MLX 性能大幅提升 , Gemma4 闪光注意力全面启用

    一、ollama v0.20.4整体更新概览 本次v0.20.4版本发布时间为2026年4月9日,核心提交集中在4月7日与4月8日,整体变更可划分为六大核心板块: 1. 该项改动位于responses模块,直接扩展API响应结构,前端与后端服务均可无缝对接新的返回格式,无需额外适配改造。 (三)统一MLX变体加载策略 对mlx_*目录进行倒序排序加载,优先加载高版本MLX库(如mlx_metal_v4优先于mlx_metal_v3),自动跳过不兼容硬件平台的变体,实现硬件自适应加载,无需用户手动指定库路径 构建打包Safetensors格式数据,支持多张量合并 4. 自定义模型部署更简单 Safetensors导入修复、实验性路径简化,让开源模型一键转为ollama可用格式,降低本地化部署成本。 3.

    26720编辑于 2026-04-14
  • 来自专栏路过君BLOG from CSDN

    EXTJS7 store数据格式预处理

    服务接口提供的数据格式没办法直接使用,可通过实现reader.transform函数进行预处理 样例 Ext.create('Ext.data.Store', { model: 'User',

    46020发布于 2020-06-19
  • 来自专栏C++系列

    【C++】格式与实例化操作——详解(7

    _a[N]; int _top; }; 二.函数模板 1)函数模板概念 函数模板代表了一个函数家族,该函数模板与类型无关,在使用时被参数化, 根据实参类型产生函数的特定类型版本 ; 2)函数模板的格式 7); Date d2(2022, 7, 8); cout << Less(d1, d2) << endl; // success Date* p1 = &d1; Date* p2 = &d2 7); Date d2(2022, 7, 8); cout << Less(d1, d2) << endl; // success Date* p1 = &d1; Date* p2 = &d2 一般情况下如果函数模板遇到不能处理或者处理有误的类型,为了实现简单通常都是将该函数直接给出 bool Less(Date* left, Date* right) { return *left < *right; } 三.类模板 1)类模板的格式 7); Date d2(2022, 7, 6); Date d3(2022, 7, 8); vector<Date> v1; //场景1 v1.push_back(d1); v1.push_back

    32910编辑于 2024-01-22
  • A800_1.6T RDMA实例测试指导文档

    版本 改动 V7 - 2024/3/4 升级GPU驱动(535.129.03),容器镜像(NGC 23.11) V8 - 2024/3/4 更正OS镜像信息,更新容器镜像(基于NGC 24.01) V9 - 2024/7/26 更新容器镜像(基于NGC 24.03) 一、 购机选择正确的共享镜像 从"共享镜像"标签中选择“A800_535_TL24_CVM_RELEASE img-haurw7f3 RDMA驱动、nvidia_peermem Linux内核增加ARP双发特性,支持RDMA的双发(提供内核patch) RDMA bond网络的反向路由检查 bond配置脚本,rdma网卡名不建议ethX格式 带宽测试server: taskset -c 20,21 ib_write_bw -d mlx5_bond_0 -x 3 -F --report_gbits -p 18500 -D 2 -q 10 -- server端IP, taskset绑核需要与网卡numa node一致, 并且由于pcie switch限制,网卡需要错开pcie switch验证, 例如bond0/2/4/6同时测,bond1/3/5/7同时测

    1K10编辑于 2024-10-22
  • 来自专栏全栈程序员必看

    Linux7Centos7磁盘分区、格式化及LVM管理

    RHEL7如何对磁盘进行分区和格式化以及如何配置LVM,与以前版本的RHEL区别不大,可以通过disk工具(在图形桌面中运行)或命令工具(如:fdisk、gdisk、parted)管理硬盘设备。 RHEL7可以用xfs_growfs来扩大XFS文件系统,也可以直接用resize2fs 来处理设备 注意的是 XFS系统只能增长,不能减少! 最新版本的CentOS/RHEL 7现在随带系统存储管理器(又叫ssm),这是一种统一的命令行界面,由红帽公司开发,用于管理各种各样的存储设备。 目前,有三种可供ssm使用的卷管理后端:LVM、Btrfs和Crypt 准备ssm,在CentOS/RHEL7上,你需要首先安装系统存储管理器。 在这个例子中,我们使用CentOS 7,XFS文件系统在默认情况下创建。因而,我们使用xfs_growfs来扩大现有的XFS文件系统。

    7.3K10编辑于 2022-09-01
  • Mac Studio M4 通过 vLLM 部署本地大模型,对接 Jeecg-AI

    vllm-mlx4.3 验证安装vllm-mlx --help5. 模型选型推荐基于 128GB 内存,以下是推荐的模型(均为 MLX 格式,位于 Hugging Face 的 mlx-community 组织下):模型名称内存占用优势推荐等级Qwen3-30B-A3B /Qwen2.5-72B-Instruct-4bit \ --local-dir ~/models/Qwen2.5-72B-Instruct-4bit# 如下载中断,重新执行同一命令即可续传7. 启动# 激活环境source ~/.venv-vllm-mlx/bin/activate# 启动服务vllm-mlx serve mlx-community/Qwen2.5-72B-Instruct- /Qwen2.5-72B-Instruct-4bit --port 800111.5 生成速度慢确认是否使用了 MLX 格式模型(mlx-community 前缀)尝试启用 Paged Attention

    1.7K10编辑于 2026-03-12
  • Ollama MLX支持深度解析:Apple Silicon如何成为AI开发新主力平台

    1.技术突破:MLX、NVFP4和缓存优化的协同效应技术原理解析Ollama这次的技术突破主要体现在三个方面:MLX框架支持MLX是苹果推出的机器学习框架,专为AppleSilicon设计。 常见问题解决方案问题1:模型兼容性解决方案:使用MLX转换工具将现有模型转换为MLX格式命令:mlx-convert--inputmodel.pt--outputmodel.mlx问题2:内存不足解决方案 :启用模型量化,使用INT8格式命令:ollamarunmlx-model--quantizeint83.行业影响:AI开发生态的重构对开发者的意义降低入门门槛:AppleSilicon用户无需额外硬件即可进行 Q:MLX和PyTorch/TensorFlow相比有什么优势?A:MLX专为AppleSilicon设计,能够充分利用硬件特性,在本地推理速度和能效比上表现更好。 Q:现有的Ollama模型可以直接在MLX上运行吗?A:需要先转换为MLX格式。Ollama提供了转换工具,可以将现有的PyTorch模型转换为MLX格式,但可能需要一些调整。

    77910编辑于 2026-03-31
  • H800_3.2T RDMA测试指导文档

    驱动、nvidia_peermem Linux内核增加ARP双发特性,支持RDMA的双发(提供内核patch) RDMA bond网络的反向路由检查 bond配置脚本,rdma网卡名不建议ethX格式 -p 18506 -D 2 -q 16 --run_infinitely taskset -c 106,107 ib_write_bw -d mlx5_bond_7 -x 3 -F --report_gbits on two nodes #node0 bash start.sh 10.0.0.6 2 0 7 #node1 bash start.sh 10.0.0.6 2 1 7 # !! on two nodes #node0 bash start.sh 10.0.0.6 2 0 7 #node1 bash start.sh 10.0.0.6 2 1 7 # !! _bond_0,mlx5_bond_1,mlx5_bond_2,mlx5_bond_3,mlx5_bond_4,mlx5_bond_5,mlx5_bond_6,mlx5_bond_7 export NCCL_NET_GDR_LEVEL

    1.2K10编辑于 2024-10-22
  • 来自专栏工程监测

    MLX90640 开发笔记 成果展示-红眼睛相机

    MLX90640 开发笔记 最终的成果是一个微型的USB接口红外成像模块(微型红外成像仪30*30mm),可以连接到Android手机或者计算机的USB接口,实时显示热像视频,和手机相机差不多,只不过它是热红外成像

    45220编辑于 2022-06-28
领券