首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI系统

    AI系统】知识蒸馏原理

    本文将介绍知识蒸馏(Knowledge Distillation, KD)的原理,这是一种通过从大型的教师模型向小型的学生模型转移知识来实现模型压缩和优化的技术。

    75010编辑于 2024-12-06
  • 来自专栏AI系统

    AI系统】GPU 工作原理

    前面的文章对 AI 计算体系和 AI 芯片基础进行讲解,在 AI 芯片基础中关于通用图形处理器 GPU 只是简单地讲解了主要概念,将从 GPU 硬件基础和英伟达 GPU 架构两个方面讲解 GPU 的工作原理 英伟达 GPU 有着很长的发展历史,整体架构从 Fermi 到 Blankwell 架构演变了非常多代,其中和 AI 特别相关的就有 Tensor Core 和 NVLink。 在实际硬件工作的过程当中,更倾向于利用多线程对循环展开来提高整体硬件的利用率,这就是 GPU 的最主要的原理。 GPU 工作原理 基本工作原理 首先通过 AX+Y 这个加法运算的示例了解 GPU 的工作原理,AX+Y 的示例代码如下: void demo(double alpha, double *x, GPU 线程原理 GPU 整体架构和单个 SM(Streaming Multiprocessor)的架构,SM 可以看作是一个基本的运算单元,GPU 在一个时钟周期内可以执行多个 Warp,在一个 SM

    79710编辑于 2024-12-04
  • 来自专栏AI系统

    AI系统】卷积操作原理

    卷积的数学原理 在通常形式中,卷积是对两个实变函数的一种数学运算。 填充背后的数学原理是这样的,如果我们有一个 n×n 的图像,用 k×k 的卷积核做卷积,那么输出的大小就是 (n-k+1)×(n-k+1) 。

    87611编辑于 2024-12-13
  • 来自专栏python

    详解AI作画算法原理

    本文将深入浅出地探讨AI作画的核心算法原理,分析常见问题与易错点,并通过一个简单的代码示例,带领大家一窥AI艺术创作的奥秘。一、核心概念与原理1. MidjourneyMidjourney是由Abyss Creations LLC开发的AI艺术平台,专注于利用AI技术生成独特的艺术作品。 与艺术家、设计师合作,探索AI在特定艺术风格、主题上的应用,可以产生意想不到的创新成果。4. 伦理讨论与倡议参与AI伦理的讨论,关注技术对社会、文化的影响,倡导负责任的AI艺术实践,确保技术发展的同时,维护艺术创作的多样性和人文价值。八、结语AI作画不仅是技术的展示,更是艺术与科学的完美结合。 随着算法的不断进步,AI创作的图像越来越接近甚至超越人类艺术家的作品。然而,掌握其背后的原理与技巧,避免常见陷阱,才能真正释放AI在艺术领域的无限潜能。

    1.6K10编辑于 2024-04-29
  • 来自专栏AI系统

    AI系统】计算图原理

    在前面的文章曾经提到过,目前主流的 AI 框架都选择使用计算图来抽象神经网络计算表达,通过通用的数据结构(张量)来理解、表达和执行神经网络模型,通过计算图可以把 AI 系统化的问题形象地表示出来。 AI 系统化问题遇到的挑战在真正的 AI 工程化过程中,我们会遇到诸多问题。而为了高效地训练一个复杂神经网络,AI 框架需要解决许多问题,例如:如何对复杂的神经网络模型实现自动微分? 因此派生出了目前主流的 AI 框架都选择使用计算图来抽象神经网络计算。计算图的定义我们会经常遇到有些 AI 框架把统一的图描述称为数据流图,有些称为计算图,这里可以统称为计算图。 在 AI 框架中数据流图表示对数据进行处理的单元,接收一定的数据输入,然后对其进行处理,再进行系统输出。 在 AI 框架的数据中主要有稠密张量和稀疏张量,这里先考虑最为常用的稠密张量。张量作为高维数组,是对标量,向量,矩阵的推广。

    64810编辑于 2024-12-06
  • 来自专栏AI系统

    AI系统】常量折叠原理

    AI 编译器的常量折叠常量折叠作为传统编译器的一种优化技术,其迁移到 AI 编译器依然适用。传统编译器通常是对抽象语法树进行常量折叠优化,而 AI 编译器是对计算图进行常量折叠优化。 以下是 AI 编译器常量折叠的几个类型:当计算图中某个节点的数据输入节点均为编译期常量(不同 AI 编译器的定义可能完全不相同)的节点,则可以提前计算出该节点的值来完全替换该节点。 图片 如上图,依旧以 AddN 为例,可以看出 AddN2 并不满足第一类的折叠规则,但是 AI 编译器发现 AddN1 是个可常量折叠的节点,AI 编译器生成一个常量数据节点替换掉 AddN1 后, 发现 AddN2 也满足第一类的折叠规则,所以 AI 编译器会再生成一个常量数据节点替换掉 AddN2。 AI 编译器实现案例不同的 AI 编译器对于常量折叠的细节不尽相同,这里以 tensorflow 为例,描述其常量折叠的实现细节:获得逆后续节点集。

    38010编辑于 2024-11-29
  • 来自专栏AI系统

    AI系统】NVLink 原理剖析

    随着 AI 技术的飞速发展,大模型的参数量已经从亿级跃升至万亿级,这一变化不仅标志着 AI 的显著提升,也对支持这些庞大模型训练的底层硬件和网络架构提出了前所未有的挑战。 虽然这在当时被视为高效的数据传输方式,但随着 AI 和机器学习领域的快速发展,数据集和模型的规模呈指数级增长,这种传统的 GPU-CPU 互联方式很快成为了系统性能提升的瓶颈。

    88210编辑于 2024-11-27
  • 来自专栏终有链响

    详解AI作画算法原理

    AI作画算法原理:深度学习驱动的艺术革新 引言 在数字化时代,人工智能正以前所未有的方式重塑着艺术的边界。 本文将深入探讨AI作画背后的算法原理,解析其如何借助深度学习的力量,实现从数据到艺术的华丽转变。 1. 生成对抗网络(GANs)的魔术 原理介绍:GANs通过一个生成网络与一个判别网络的动态博弈,推动生成网络逐步逼近真实数据分布。 变分自编码器(VAEs)与创意探索 原理:VAEs通过学习数据的低维表示,可以在潜在空间中进行采样,生成新的、但符合训练数据分布的图像。这种随机采样机制为AI艺术创作提供了无限的创意可能。 用户交互与定制化创作 交互界面:现代AI作画平台通常提供用户友好的界面,用户可以通过文字描述、上传参考图片或选择预设风格来引导AI创作过程。

    1.1K10编辑于 2024-07-29
  • 来自专栏人人都是极客

    解密AI芯片的加速原理

    网上对AI芯片的剖析实在太少,这里对一些论文和大佬的研究做一个总结,希望对读者有所帮助。 AI 芯片的诞生 讲到半导体,不得不从摩尔定律说起。 人工智能的出现可以说让所有行业眼前一亮,刚刚提到的无人驾驶,物联网等等背后也都是因为 AI 的出现才带来这样巨大的,有前景的应用。也就是说 AI 技术的变革才是集成电路新应用场景落地的本质所在。 AI 芯片的加速原理 乘加运算硬件加速,脉冲阵列 ? 脉动阵列并不是一个新鲜的词汇,在计算机体系架构里面已经存在很长时间。 下面说下脉冲阵列的基本原理: 首先,图中上半部分是传统的计算系统的模型。一个处理单元(PE)从存储器(memory)读取数据,进行处理,然后再写回到存储器。 下面分享几个已经存在的AI加速芯片的例子,相信这样会更加直观。 AI 芯片实例 TPU ? 这是Google的TPU。从上边的芯片框图可以看到,有一个64K的乘加MAC阵列对乘加运算进行加速。

    91730发布于 2019-05-14
  • 来自专栏AI系统

    AI系统】Auto-Tuning 原理

    软硬件的快速更迭:随着新的处理器架构和专用 AI 加速器的不断涌现,硬件平台变得更加多样化。 自动调优原理为了以一种高效的方式在各种硬件平台上提供这些算子,已经引入了多种编译器技术,用户使用高层级声明性语言以类似于数学表达式的形式定义计算,编译器根据该定义生成优化的张量程序。 在 AI 领域,这尤为重要,因为 AI 模型的计算复杂度通常很高,而且不同的硬件平台(如 CPU、GPU、FPGA 等)对计算和内存访问的优化需求各不相同。 自动调优可以显著提高 AI 应用的运行效率,尤其是在深度学习等计算密集型任务中。 在自动调优中,TVM 是走在前列的 AI 编译器,其自动调优系统已经历经三代,本文将介绍 TVM 的这三代自动调优系统。

    51410编辑于 2024-11-29
  • 来自专栏人人都是极客

    解密AI芯片的加速原理

    网上对AI芯片的剖析实在太少,这里对一些论文和大佬的研究做一个总结,希望对读者有所帮助。 AI 芯片的诞生 讲到半导体,不得不从摩尔定律说起。 人工智能的出现可以说让所有行业眼前一亮,刚刚提到的无人驾驶,物联网等等背后也都是因为 AI 的出现才带来这样巨大的,有前景的应用。也就是说 AI 技术的变革才是集成电路新应用场景落地的本质所在。 AI 芯片的加速原理 乘加运算硬件加速,脉冲阵列 ? 脉动阵列并不是一个新鲜的词汇,在计算机体系架构里面已经存在很长时间。 下面说下脉冲阵列的基本原理: 首先,图中上半部分是传统的计算系统的模型。一个处理单元(PE)从存储器(memory)读取数据,进行处理,然后再写回到存储器。 下面分享几个已经存在的AI加速芯片的例子,相信这样会更加直观。 AI 芯片实例 TPU ? 这是Google的TPU。从上边的芯片框图可以看到,有一个64K的乘加MAC阵列对乘加运算进行加速。

    4.5K30发布于 2018-09-25
  • 转载:【AI系统】NVLink 原理剖析

    随着 AI 技术的飞速发展,大模型的参数量已经从亿级跃升至万亿级,这一变化不仅标志着 AI 的显著提升,也对支持这些庞大模型训练的底层硬件和网络架构提出了前所未有的挑战。 虽然这在当时被视为高效的数据传输方式,但随着 AI 和机器学习领域的快速发展,数据集和模型的规模呈指数级增长,这种传统的 GPU-CPU 互联方式很快成为了系统性能提升的瓶颈。

    85910编辑于 2024-12-11
  • 来自专栏AI系统

    AI系统】低比特量化原理

    本文将会重点讲解低比特量化的通用基本原理AI 特点和量化优势神经网络特点低比特量化主要用在推理的场景,因此以量化和推理的视角来看,神经网络一般具有以下特点:模型参数量大:神经网络模型通常具有大量的参数,特别是在神经网络中,参数数量可能非常庞大 量化原理模型量化方法可以分为以下三种:量化训练 (Quant Aware Training, QAT)量化训练让模型感知量化运算对模型精度带来的影响,通过微调训练降低量化误差。 要弄懂模型量化的原理就是要弄懂这种数据映射关系,浮点与定点数据的转换公式如下:其中,R 表示输入的浮点数据,Q 表示量化之后的定点数据,Z 表示零点(Zero Point)的数值,S 表示缩放因子

    69910编辑于 2024-12-05
  • AI Agent的工作原理和架构

    好的,希望我需要你帮我阐述AI大模型里面 AI Agent的工作原理和架构。 我需要你先阐述要给最核心的主题工作原理和架构。其次再分不同的场景来展现不同场景下的工作原理和架构。 该网页看起来就是一篇完整的介绍AI Agent工作原理的文章。其中每种原理都包括了一张图和对这张图体现的工作原理的文字说明。每个原理配图文字的字数在500字内。 本文通过系统性分析,深入阐述了AI Agent的核心工作原理和架构设计,涵盖了基础架构、感知-决策-执行循环、多Agent协作、强化学习、对话交互以及工具调用等六个关键场景。 每个场景都配有详细的架构图和工作原理说明,为理解和设计AI Agent系统提供了全面的理论基础和实践指导。 总结 AI Agent作为人工智能领域的重要发展方向,其工作原理和架构设计体现了从感知到决策再到执行的完整智能循环。

    1.4K10编辑于 2025-08-06
  • 来自专栏CreateAMind

    AI躯体模型、内稳态控制原理

    保留与以前的经验主义兼容(如 Kleckner 等人[26]、杨等人[41])和理论上的(例如 Pezzulo 等人[42]、科克兰和霍威[43]、Petzschner 等人[28])调查,同时从第一原理建立控制理论 4章 应用控制理论的原理来推导一个新颖的形式模型, 说明大脑如何估计生理轨迹的合意性并作出预期的调节决策 2.

    43430编辑于 2023-11-08
  • 来自专栏AI系统

    AI系统】布局转换原理与算法

    AI 研究中,经常会有图片格式的数据的存在,如果其是彩色图像,那么其每个像素点包括r,g,b三个通道,此时就需要三个维度来进行描述,那么其在内存排布的时候是优先行,列还是通道进行存储呢,接下来我们来详细介绍一下高维张量在数据中的排布方式 AI 框架排布常用的 AI 框架中默认使用 NCHW 的有 caffe、NCNN、PyTorch、mxnet 等,默认使用 NHWC 的有 TensorFlow、OpenCV 等,设置非默认排布格式只需要修改一些参数即可

    51110编辑于 2024-11-28
  • AI生成歌词的原理解析

    这一现象引发了人们对AI如何生成歌词以及其中涉及的技术和版权问题的思考。本文将以此为背景,深入解析AI生成歌词的原理,探讨其中的技术细节和面临的挑战。 一、AI在音乐创作中的崛起1.1 文化与技术的融合随着人工智能技术的迅猛发展,AI在艺术创作领域的应用日益广泛。不仅在绘画、写作领域,AI在音乐创作,尤其是歌词创作方面也展现出了巨大的潜力。 四、版权与法律问题的探讨4.1 AI生成作品的版权归属当前法律对于AI生成作品的版权归属尚不明确。主要有以下几种观点:AI作为工具:人类操控AI创作,作品版权归人类所有。 AI作为作者:AI自主生成作品,但法律尚未认可非人类主体的版权。4.2 侵权责任与风险原创性认定:如果AI生成的歌词与现有作品过于相似,可能被认定为剽窃。 我们在享受AI带来便利和乐趣的同时,也需要对其中的技术原理、可能的问题和法律风险有清晰的认识。未来,随着技术的发展和法律的完善,AI在音乐创作领域有望发挥更大的作用,为我们带来更多精彩的作品。-

    1K00编辑于 2025-04-05
  • 来自专栏嵌入式iot

    beaglebone ai底层原理分析:spl阶段

    beaglebone ai底层原理分析:spl阶段 1.本文说明 2.为什么需要SPL 3.SPL的工作流程 3.1 链接脚本分析 3.2 代码执行流程 3.3 从board_init_f看驱动初始化 3.4 代码重定位 4.beaglebone ai的led调试 5.总结 1.本文说明 在去深入分析一款芯片的使用的时候,往往需要关注其启动的流程与底层初始化的代码。 对于beaglebone ai采用ti的am5729芯片,在使用beaglebone ai这个开发板的时候,需要注意其启动顺序。首先是SD卡,接着是eMMC。 3.SPL的工作流程 为了实践与理论的结合测试,目前选择的开发板为beaglebone ai,主控为德州仪器的AM5729。 3.3 从board_init_f看驱动初始化 前面的体系架构初始化已经差不多了,接下来就和beaglebone ai密切相关了。

    1.5K11发布于 2020-11-25
  • 来自专栏慕枫技术笔记

    深入理解生成式AI技术原理:初识生成式AI

    真正的大师永远怀着一颗学徒的心 如果将人工智能按照用途进行简单分类的话,人工智能可以划分为决策式AI以及生成式AI两类。 所谓决策式AI就是通过学习训练数据的中的条件概率分布情况来进行判断决策,判断样本属于指定目标的概率,比如人脸识别就是典型的决策式AI,终端设备根据摄像头获取到的人脸图像来进行特征信息匹配,和后台系统中的人脸特征库进行对比来判断当前人脸信息是否在系统人脸特征库中或者是否有权限执行操作 本文主要简要介绍深度学习以及大模型基础内容,后续文章中将会继续深入分析这两方面的技术原理。 深度学习 深度学习是生成式AI背后比较核心的实现技术,它是机器学习的重要优化手段,而机器学习又是人工智能领域重要的落地实现措施。 总结 本文主要对生成型AI进行了初步阐述,同时针对生成型AI最核心的两个技术点分别进行了初步说明,后面的专栏文章中将继续以深度学习以及大模型核心技术点作为切入点来深入分析生成型AI背后的技术原理

    2.2K30编辑于 2023-08-10
  • 来自专栏机器学习入门

    AI大模型】ChatGPT模型原理介绍(下)

    学习目标 了解ChatGPT的本质 了解GPT系列模型的原理和区别 GPT-3介绍 2020年5月, OpenAI发布了GPT-3, 同时发表了论文“Language Models are 目前基于ChatGPT的论文并没有公布, 因此接下来我们基于openai官网的介绍对其原理进行解析 2.1 ChatGPT原理 在介绍ChatGPT原理之前, 请大家先思考一个问题: “模型越大、参数越多 如何让AI实现自动打游戏? 第一步: 通过强化学习(机器学习方法)学出Policy函数, 该步骤目的是用Policy函数来控制Agent. 接下来, 将对每一步的细节进行详述. 2.4 监督调优模型 ​ ​ 工作原理: 第一步是收集数据, 以训练有监督的策略模型. 工作原理: 选择 prompt 列表, SFT 模型为每个 prompt 生成多个输出(4 到 9 之间的任意值) 标注者将输出从最佳到最差排序.

    60810编辑于 2024-09-18
领券