首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏DeepHub IMBA

    Meta发布基于大语言模型的编译器LLM Compiler,不仅可以编译成汇编代码,还可以进行反编译

    通过在庞大的语料库上训练,包括5460亿个LLVM-IR和汇编代码标记,Meta的研究团队使模型能够深入理解编译器中间表示、汇编语言和优化技术。

    97610编辑于 2024-07-01
  • 来自专栏AI分享

    AI驱动的编译器优化:Azure与LLVM的自动化代码加速方案

    性能预测模块:开发层次化回归网络,结合图神经网络(GNN)处理LLVM-IR的图结构特征,辅以时序卷积网络(TCN)捕捉优化序列的时态相关性。 行业实践案例:Meta研发的LLM Compiler采用双阶段训练范式,首先在5460亿LLVM-IR令牌的语料库上进行自监督预训练,学习程序语义模式;随后在特定硬件优化数据集(含AMD EPYC/Xilinx 模型架构扩展支持跨语言语义理解,可处理Python/Julia算子描述到LLVM-IR/SYCL等多中间表示的转换。 单卡H100通过第三代NVLink实现900GB/s互联带宽,支撑128K上下文窗口的LLVM-IR长序列训练。

    5K20编辑于 2025-04-12
  • 来自专栏Rust语言学习交流

    【Rust日报】2023-01-10 dora-rs :机器人中间件项目

    math::lerp, .Lfunc_end25-mini_std::math::lerp .cfi_endproc 其不仅支持多种平台,还支持显示 Intel/A&T 两种不同的汇编格式,可以展示 llvm-ir

    1.1K10编辑于 2023-02-15
  • 来自专栏深度学习那些事儿

    老潘的思考

    在调用tvm.build后会调用LLVM编译器进行编译,你编译的最终代码性能和你写的这个kernel有很大关系,我们可以通过打印LLVM-IR来查看: # 查看TVM生成的LLVM-IR print(mod.get_source T.reads(A[x], B[x]) T.writes(C[x]) C[x] = A[x] + B[x] 调用向量指令后,打印的LLVM-IR 如下,可以看到LLVM-IR按照你的要求将这个操作向量化了: ; Function Attrs: mustprogress nofree noinline norecurse nosync nounwind 141 ret void } 使用这个LLVM-IR最终生成的汇编代码,就会使用该CPU上的的向量指令,比如SSE、AVX2等等,相比原始的标量操作会快不少。

    71630编辑于 2023-10-19
  • 来自专栏量子位

    英伟达CUDA太难!OpenAI出手要取代它,新语言性能相当但编程更简单

    生成的IR代码随后由编译器后端进行简化、优化和自动并行化,然后转换为高质量的LLVM-IR(最终转换为 PTX)。

    1.4K10编辑于 2023-03-10
  • 来自专栏C++ 动态新闻推送

    C++ 中文周刊 第125期

    p=108532 [7] A Gentle Introduction to LLVM IR: https://mcyoung.xyz/2023/08/01/llvm-ir/ [8] MySQL · 源码剖析

    15010编辑于 2024-07-30
  • 来自专栏新智元

    25行代码≈SOTA!OpenAI发布Triton编程语言,比PyTorch快2倍

    转换为高质量的LLVM-IR(最终转换为 PTX)后,能够在最新的NVIDIA GPU上执行。 编译器后端可以自动优化各种重要的程序。

    1.3K40发布于 2021-07-30
  • 来自专栏PostgreSQL研究与原理解析

    湖仓一体 - Apache Arrow的那些事

    针对这个问题,Gandiva 已经做出了妥善的处理,生成的 LLVM-IR 中间形式均具备向量化支持,以确保所需的功能得以保留。 这些技术使得处理器能够同时处理多个数据,从而大大提高了程序的执行效率。

    2.4K10编辑于 2024-05-06
  • 来自专栏相约机器人

    在CUDA的天下,OpenAI开源GPU编程语言Triton,将同时支持N卡和A卡

    生成的 IR 代码随后由编译器后端进行简化、优化和自动并行化,然后转换为高质量的 LLVM-IR,最终转换为 PTX,以便在最新的 NVIDIA GPU 上执行。

    2.2K60发布于 2021-08-10
  • 来自专栏深度学习与python

    快速上手 WebAssembly 应用开发:Emscripten 使用入门

    Emscripten 编译流程(来自官网) emcc 是整个工具链的编译器入口,其能够将 C/C++ 代码转换为所需要的 LLVM-IR 代码,Clang/LLVM(Fastcomp)能够将通过 emcc 生成的 LLVM-IR 代码转换为 ASM.js 及 WebAssembly 代码,而 emsdk 及.emscripten 文件主要是用来帮助我们管理工具链内部的不同版本的子集工具及依赖关系以及相关的用户编译设置

    6.3K20发布于 2020-09-23
  • 来自专栏机器之心

    在CUDA的天下,OpenAI开源GPU编程语言Triton,将同时支持N卡和A卡

    生成的 IR 代码随后由编译器后端进行简化、优化和自动并行化,然后转换为高质量的 LLVM-IR,最终转换为 PTX,以便在最新的 NVIDIA GPU 上执行。

    2.4K10编辑于 2023-03-29
  • 来自专栏FreeBuf

    智慧城市安全体系实例——智能门锁安全吗?

    (3)虚拟化实现 通过前端代码采集套件,采集源代码,利用LLVM-IR进行代码虚拟化,最终编译为适用平台的可执行文件 ?

    1.2K40发布于 2018-12-28
  • 来自专栏云原生实验室

    WASM 将引领下一代计算范式!

    WASM 是一种类似汇编字节码的指令格式标准,它更像 LLVM-IR 那种比汇编语言更高一些抽象的中间语言(比如其中函数的参数和返回值定义更像高级语言)。

    1.6K30编辑于 2022-11-07
  • 来自专栏新智元

    丛京生院士深度解读可定制计算的设计自动化:自动将代码转换成电路描述,解决开发人员最大难题

    用户的代码经过LLVM-IR优化之后直接通过我们自己拓展的后端生成硬件描述。我们将这项工作成功转化成了商业产品AutoPilot,并在2006年成立了AutoESL公司。

    1.7K10发布于 2020-03-06
  • 来自专栏Rust 编程

    【2023 Week-2】Rust视界周刊 | Google 官宣在 Chromium 项目中支持使用 Rust

    cargo rustc -- --emit asm 生成 现在又多了一种更方便的工具 cargo-show-asm ,它不仅支持多种平台,还支持显示 Intel/A&T 两种不同的汇编格式,可以展示 llvm-ir

    2K50编辑于 2023-03-06
  • 来自专栏Kubernetes GO

    厉害了!Ziglang首次落地高性能计算场景

    最终证明 Zig 表现良好,是 HPC 领域的可行选择 背景与相关工作 LLVM 是一套工具和库,部分用于生成和操作LLVM-IR[1]。

    2.3K10编辑于 2024-12-05
  • 来自专栏GiantPandaCV

    【BBuf的CUDA笔记】十三,OpenAI Triton 入门笔记一

    然后,编译器后端会简化、优化并自动并行化所产生的 IR 代码,再将其转换为高质量的 LLVM-IR —— 最终生成 PTX —— 以在近期的 NVIDIA GPU 上执行。

    3.9K10编辑于 2024-01-23
  • 来自专栏Rust 编程

    【译】为 嵌入式 C 程序员编写的 Rust 指南

    其中最突出的是: --emit asm 和 --emit llvm-ir,对检查编译器输出很有用。--target,设置交叉编译的目标。

    6.2K30发布于 2021-10-13
领券