来源:内容来自「知乎@汪鹏 」 所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。 传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。 在手机终端,可以自行人脸识别、语音识别等AI应用,这个必须功耗低,所以GPU OUT! 所以,开发ASIC就成了必然。 说说,为什么需要AI芯片。 总的来说,CPU与GPU并不是AI专用芯片,为了实现其他功能,内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,自然造成CPU与GPU并不能达到最优的性价比。 谷歌花钱研发TPU,而且目前已经出了TPU3,用得还挺欢,都开始支持谷歌云计算服务了,貌似6点几美元每小时吧,不记得单位了,懒得查. 可见,谷歌觉得很有必要自己研发TPU。 就酱。 谷歌的TPU,寒武纪的DianNao,这些AI芯片刚出道的时候,就是用CPU/GPU来对比的。 无图无真相,是吧?
就这些方面来看,AI芯片的确是门好生意,同时也很好地解释了为什么有众多资本会节奏一致地向AI芯片领域集中。 当然,从互联网巨头们的角度出发,其涉足AI芯片的原因远不止此。 这些或许才是互联网巨头们集体进入AI芯片市场的关键点。 这么来看,入注AI芯片行业对于互联网巨头来说意义非凡,也难怪巨头们一直以来都在急于融入到AI芯片市场当中。 毕竟可以利用云端AI芯片赛道取长补短,填补在终端AI芯片的不足,促进整体AI芯片在市场中茁壮生长,同时可以避开各方巨头在终端AI芯片市场中的尖锐锋芒。 或成AI芯片中坚角色 按目前情况来看,纵使有AI芯片整体制造工艺水平略低、应用场景有限等不足,也难掩BAT等巨头正在AI芯片行业频频出圈的事实。 在AI芯片性能方面,互联网巨头依靠已推出的部分产品在AI芯片领域出尽风头。据公开数据显示,昆仑AI芯片能提供每秒260万亿次的定数运算性能。
7月30日消息,据彭博社报道,美国知名的人工智能(AI)芯片初创公司Groq即将获得6亿美元的新一轮融资,使得其整体估值达到约60亿美元。 不过,Groq发言人解释称,由于其计划安装更多Groq AI芯片的数据中心容量不足,Groq已经将部分收入预测调整到了2026年。 Groq 成立于2016年,总部位于美国加利福尼亚州山景城,是一家 AI 芯片设计公司,旨在实现高吞吐量、低成本的推理,而不是训练。该公司核心团队来源于谷歌最初的张量处理单元(TPU)工程团队。 Groq表示,基于其LPU芯片的云服务器在Llama2或Mistreal模型在计算和响应速度上远超基于NVIDIA AI GPU的ChatGPT,其每秒可以生成高达500个 token。 Groq公司在演示中展示了其芯片的强大性能,支持Mistral AI的Mixtral8x7B SMoE,以及Meta的Llama2的7B和70B等多种模型,支持使用4096字节的上下文长度,并可直接体验
当地时间2月24日,人工智能(AI)芯片大厂AMD宣布和Meta达成了一项多年的合作协议,Meta将部署高达6吉瓦的AMD Instinct GPU为其的AI基础设施提供动力。 最新的合作协议拓展了双方现有的战略合作伙伴关系,并在芯片、系统和软件方面协调发展路线图,旨在为 Meta 的工作负载量身打造 AI 平台。 Meta的多元化战略:自研芯片继续推进 不过,Meta并不希望依赖于少数芯片供应商,而是希望多元化。扎克伯格在声明中也强调:“对于Meta而言,这是实现计算多元化的重要一步。” 首批认股权证将在Instinct GPU出货量达到1吉瓦时授予,后续认股权证将随着Meta的采购量增长至6吉瓦而逐步授予。 2025年10月6日,AMD与OpenAI共同宣布,双方达成一项6吉瓦的协议,为OpenAI的下一代AI基础架构提供动力,该基础架构将基于多代AMD Instinct GPU。
在整个 AI 系统的构建中,AI 算法、AI 框架、AI 编译器、AI 推理引擎等都是软件层面的概念,而 AI 芯片则是物理存在的实体,AI 芯片是所有内容的重要基础。 本系列文章将会通过对典型的 AI 模型结构的设计演进进行分析,来理解 AI 算法的计算体系如何影响 AI 芯片的设计指标,进而结合几种主流的 AI 芯片基础介绍,帮助大家对 AI 系统的整个体系知识有更全面的认识 计算机芯片体系结构在很大程度上影响了 AI 算法的性能。因此,了解 AI 算法与芯片计算体系结构之间的关系是非常重要的。 AI 芯片的分类 AI 芯片的广泛定义是指那些面向人工智能应用的芯片。 CPU、GPU、FPGA、ASIC 是目前 AI 计算过程中最主流的四种芯片类型,CPU、GPU、FPGA 是前期较为成熟的芯片架构,属于通用性芯片,ASIC 是为 AI 特定场景定制的芯片。
目前这家初创公司还没有发布其第一代芯片产品。 近日,据国外媒体报道,美国初创公司SambaNova System获得了5600万美元的A轮融资。 目前这家初创公司还没有发布其第一代芯片产品,但其已与潜在客户以及公共云提供商进行了谈话。 近年来,AI芯片一直是各大科技公司竞争的热门对象。早在2016年,谷歌就宣布已经制造出可以快速训练AI模型的芯片——张量处理单元(TPU),以对抗英伟达的GPU。 而老牌芯片CPU巨头英特尔并购了AI初创公司Nervana,以扩大自己在AI芯片上的优势。 在收购AI初创公司方面,谷歌也位列各大科技公司榜首。 从2012年至今,谷歌并购的AI公司最多,大概有14个,苹果公司位居第二位。但是此次收购AI芯片公司,还是谷歌的第一次尝试。
AI如何改变芯片设计摩尔定律即将终结。工程师和设计师在晶体管微型化和芯片集成度方面已接近极限,因此他们转向其他芯片设计方法,将AI等技术融入设计流程。 AI在芯片设计中的当前应用某机构高级产品经理指出,AI已贯穿芯片设计和制造的大部分环节。在工艺工程中,AI可用于优化流程,缺陷检测是各阶段(尤其是制造环节)的重要应用。 AI不仅是预测工具,更能从数据中提取深层洞见。AI驱动的设计优势传统基于物理的建模计算密集且复杂。AI可创建替代模型(即数字孪生),通过参数扫描、优化和蒙特卡洛模拟大幅降低计算时间。 挑战与局限AI模型精度仍不及传统物理模型,这是通过大量模拟和参数扫描来弥补的缺点。芯片设计和制造需考虑所有组件,整合不同部件的预测模型极具挑战性。 未来趋势将减少追求超精确预测,转向信息透明共享和数字孪生应用,结合AI与人类专业知识,推动芯片设计向更高效、协作的方向发展。
英伟达生态的思考点从软件和硬件架构的角度出发,CUDA 和 SIMT 之间存在一定的关系,而目前 AI 芯片采用的 DSA 架构在编程模型和硬件执行模型上还处于较为早期的状态,英伟达强大的生态同样离不开 面对新的 AI 芯片,在流水隐藏方面,实现架构层面的隐藏流水编排机制,提出一个形式上与 SPMD 没有关系的编程模式,而且易用性堪比 CUDA 的软件是可能的。 编程模型上缺乏统一的标准,因此需要专门搭建编译器和编程体系,硬件主要以 AI 加速芯片(TPU、NPU 等)为主。
谷歌定制化AI芯片(即张量处理器)正通过其专业化架构挑战现有市场格局。据报道,多家大型科技公司正计划斥资数十亿美元采购谷歌的张量处理器,这可能动摇英伟达作为AI芯片主要供应商的地位。什么是TPU? TPU比GPU更适合AI吗?英国布里斯托大学的西蒙·麦金托什-史密斯表示,从技术上讲,张量处理器更像是图形处理单元的一个子集,而非一种完全不同的芯片。 孔蒂指出,英伟达图形处理单元的一个传统优势是,有简单易用的软件可以帮助人工智能设计者在英伟达芯片上运行代码。张量处理器刚问世时并不具备这种便利性,但现在这些芯片已经发展到更易于使用的阶段。 例如,某机构使用自己的Trainium芯片来训练其人工智能模型。 麦金托什-史密斯表示:“大多数大型科技公司都有内部的芯片开发项目,部分原因是图形处理单元因供不应求而变得非常昂贵,自己设计和制造可能更便宜。”TPU将如何影响AI行业?
在整个 AI 系统的构建中,AI 算法、AI 框架、AI 编译器、AI 推理引擎等都是软件层面的概念,而 AI 芯片则是物理存在的实体,AI 芯片是所有内容的重要基础。 本系列文章将会通过对典型的 AI 模型结构的设计演进进行分析,来理解 AI 算法的计算体系如何影响 AI 芯片的设计指标,进而结合几种主流的 AI 芯片基础介绍,帮助大家对 AI 系统的整个体系知识有更全面的认识 计算机芯片体系结构在很大程度上影响了 AI 算法的性能。因此,了解 AI 算法与芯片计算体系结构之间的关系是非常重要的。 AI 芯片的分类 AI 芯片的广泛定义是指那些面向人工智能应用的芯片。 CPU、GPU、FPGA、ASIC 是目前 AI 计算过程中最主流的四种芯片类型,CPU、GPU、FPGA 是前期较为成熟的芯片架构,属于通用性芯片,ASIC 是为 AI 特定场景定制的芯片。
不过,小米公司高级副总裁王翔近日在接受 CNBC 采访时表示,小米正在进行大量与 AI 芯片相关的研究。 手机 SoC 是一项艰难的过程,而且高投入还不一定能带来高回报。 为此,这几家手机巨头纷纷推出了更适合 AI 应用的芯片,使得这些应用能够在手机终端执行,而不需要依靠云端的服务器,以此带来更流畅的使用体验。 而小米已经在自家手机上推出过各种 AI 功能,并且还在大力扩展具备 AI 能力的智能家居的版图(比如小爱音箱)。因此,小米跟进华为等巨头,进行 AI 芯片的相关研究也就在情理之中了。 “我们自己造芯片,主要目的是为了更深入地了解技术。我们(去年)已经推出了第一款搭载澎湃芯片的智能手机。未来,我们将继续相关技术的研发工作,除了芯片组以外,还会涉及 AI 和其他相关的技术。”王翔说。 不过,小米目前还没决定要不要自己造 AI 芯片。 至于澎湃 S2,王翔并未透露更多的信息,只是表示,小米会继续和其他芯片公司保持良好的合作关系。
研究者将芯片布局看作一个强化学习问题,然后训练智能体将芯片网表(netlist)的节点放置在芯片画布(canvas)上。 该研究旨在最小化芯片设计的 PPA(功耗、性能和面积)。研究者称,该方法能够在 6 小时内完成芯片布局设计,布局质量超过或匹配人类设计,而现有的基线方法需要人类专家参与,且往往需要数周时间才能完成。 博客链接:http://ai.googleblog.com/2020/04/chip-design-with-deep-reinforcement.html 论文链接:https://arxiv.org 与 SA 方法相比,谷歌的方法不超过 6 小时即完成了收敛,而 SA 方法需要 18 个小时。并且,SA 方法生成高质量布局时需要的导线长度更大,布线拥塞也更高。 ? 而新方法已经证明了优于 SOTA 标准,同时此方法是端到端的,并且可以在 6 个小时内生成布局位置。
AI概念在几年前火爆全球,科技巨头们纷纷投入AI芯片的研发,小公司也致力于提出概念靠AI浪潮融资,为了快速在AI市场上立足,也为了让市场和用户能记住自家的产品,各家在芯片命名方面都下了点功夫,既要独特, 本文就从字母A到Z来盘点一下目前各种“xPU”命名AI芯片,以及芯片行业里的各种“xPU”缩写,给大家涨涨知识。 今天我们看到的情况是所有的手机芯片都必须有 AI 处理芯片了,2020年麒麟9000的出现更是把AI移动端处理器的性能再升一大截。 另外一种趋势,做高性能计算CPU的公司也不甘错过AI的浪潮。 云知声是一家专攻智能语音识别技术的公司,成立于2012年6月,总部在北京。云知声获得了3亿人民币战略投资,其中一部分将用来研发其稍早公布的AI芯片计划,命名“UniOne”。 Vision DSP 针对AI中的计算机视觉应用,各家DSP公司都发布了DSP的Vision系列IP。简单罗列如下: CEVA的XM4,最新的XM6 DSP。
10月6日消息,据路透社援引知情人士的话指出,生成式AI领域的领头羊、ChatGPT开发商OpenAI正在探索AI芯片的可能性,并已评估潜在的收购目标,以加速自研芯片的研发。 报道称,OpenAI至少从去年就已经开始讨论各种解决方案,以解决AI芯片成本高昂、短缺等问题,其中就包括自研AI芯片、与英伟达(NVIDIA)在内的AI芯片厂商更密切合作、推动AI芯片供应来源更多元化, 虽然还不清楚OpenAI是否会持续推进自研芯片计划,但资深产业人士指出,OpenAI 若是投入自研AI芯片将是一项重大战略,同时也将是一项巨额投资,每年研发投入成本可能高达数亿美元,但无法保证自研AI芯片一定成功 目前面向服务器的AI芯片市场处于英伟达的统治之下,市占率超过80%。特别是自去年年底以来,生成式AI热潮兴起之下,英伟达的AI芯片(GPU)便持续供不应求,价格也是水涨船高。 目前包括谷歌、亚马逊AWS、阿里巴巴、百度、华为等云服务大厂都已有自研 AI 芯片用于数据中心,微软和Meta也有相关计划。所以对于头部的AI技术大厂来说,自研AI芯片已经是一大趋势。
摩尔定律的终结与AI的崛起随着摩尔定律逼近物理极限,工程师正转向人工智能等创新方法。 某机构在其存储芯片中集成AI以实现内存计算,既提升机器学习速度又降低能耗;某中心的TPU V4 AI芯片处理能力较前代翻倍。 AI在芯片设计中的核心应用MathWorks MATLAB平台高级产品经理Heather Gorr指出:缺陷检测:贯穿制造全流程,包括光学元件与传感器设计阶段预测性维护:通过历史数据分析设备停机根本原因数字孪生 :替代传统物理建模,快速完成参数扫描与蒙特卡洛模拟技术优势与挑战效率革命:基于AI的替代模型使仿真速度提升百倍数字孪生技术降低90%原型试制成本精度局限:AI模型准确度仍逊于传统物理模型需融合多传感器数据源 ,系统集成复杂度高工程师的实战建议利用GitHub等开源社区的成熟工具链高频传感器数据需结合频域分析技术明确问题边界,建立模块化测试流程人机协作的未来图景AI将释放工程师生产力:处理材料优化等重复性工作人类专注关键决策与跨系统整合需构建全流程可解释性模型
人工智能芯片产业现状 4.1 产业现状评述 AI 芯片是芯片产业和人工智能产业整合的关键 ,特别是 AI 系统芯片。 目前国内芯片制 造技术尚待提高,但由于半导体的分工模式相当成 熟 ,国内芯片设计企业并不需要担心芯片生产问题 。 ? 4.2 AI 芯片产业链 AI 芯片产业链主要分成设计—制造/封测—系统。 系统芯片设计的关键技术包含但不限于以 下 6 项:(1)总线架构技术;(2)IP 核可复用技术;(3)软硬件协同设计技术;(4)时序分析技术;(5) 验证技术;(6)可测性设计技术。 每家人工智能企业都有自己独特的算法,AI 芯片企业也是一样 ,会根据自己的改良算法来设 计AI芯片。 ? 4.7.1 云端市场 随着云端市场需求不断上升 ,服务器 AI 芯片的市场前景乐观。 AI芯片在物 联网产品上的应用主要有两个用途 ,一个是视觉 AI芯片 ,另一个是语音 AI 芯片 ,但因为自然语言处理 的 AI 产品开发难度高 ,目前新创 AI 芯片企业主要切 入的市场是计算机视觉设备的落地场景
导语:本文分析了目前AI芯片市场的情况,以及NVIDIA在这一市场的领先地位。不过,随着芯片巨头在AI芯片领域有了新的进展,NVIDIA将会面临更多的挑战,2019年AI芯片市场会如何? NVIDIA快速增长的动力来自人工智能(AI)和高性能计算(HPC)对GPU芯片的需求。NVIDIA首席执行官Jensen Huang喜欢谈论深度学习的“寒武纪爆炸”,指的是神经网络算法的快速迭代。 目前,我们处于AI芯片爆发的门口,全球许多大型和小型公司都加入其中。三年前,芯片创业公司几乎不可能获得风险投资,现在,有数十家资金充足的挑战者在研发AI芯片。 重磅的竞争者 根据纽约时报的统计,有超过40家创业公司进入AI芯片领域,但实际情况是,只有少数公司能在这个市场上取得真正的成功(比如收入超过10亿美元)。 此外,即将推出的Xilinx 7nm芯片称为Versal,具有AI和DSP引擎,可加速特定应用程序处理以及自适应逻辑阵列。Versal将在今年的某个时候开出货,我认为这可能是推理处理的改变者。
网友们纷纷感慨——含A(AI)量,已然成为通信厂商们“秀肌肉”的新方式。 █ 高通的AI布局 作为全球芯片巨头,高通公司在本次MWC上也发布了多款AI赋能的重磅产品,并带来多个生成式AI方面的展示。 基于HBS技术,在6GHz频段可用的国家和地区,FastConnect 7900的理论峰值速率可达5.8Gbps。在中国等6GHz频段不用于Wi-Fi通信的国家,也能达到4.3Gbps。 首先,它是业界第一个能够在Sub-6GHz频段实现下行6载波聚合的调制解调器及射频系统。 其次,它是业界第一次面向智能手机支持6Rx。也就是说,在射频前端具备6路接收能力。 提升连接的综合性能,改善体验,增强功能,就成为芯片继续升级的主要方向。 与AI深入融合,可以更好地实现这一目标。 这也意味着,越来越多的用户将会享受到AI带来的5G网络性能提升及功能增强。 █ vRAN服务器处理器 除了面向终端的芯片解决方案之外,高通在网络侧设备芯片上也频频出手。
Q&A:人工智能将如何改变芯片设计人工智能为半导体行业带来了新的希望和潜力。 为了更好地理解人工智能将如何彻底改变芯片设计,我们与MathWorks公司MATLAB平台的高级产品经理希瑟·戈尔进行了交流。人工智能目前是如何被用于设计下一代芯片的? 在芯片设计中使用人工智能的好处是什么?戈尔: 从历史上看,我们看到了许多基于物理的建模,这是一个非常密集的过程。 这显然会在实际制造和生产芯片时带来巨大的成本节约。你希望在尽可能不采用实际工艺工程的情况下,尽可能多地进行模拟、测试和实验。我们已经谈到了好处。那么缺点呢? 你如何展望人工智能和芯片设计的未来?戈尔: 这在很大程度上取决于人的因素——让人员参与到过程中,并拥有可解释的模型。
未来几年 ,我们应该可以看到“无芯片不 AI”的景象 , 随着人工智能应用场景的逐渐落地 ,底层技术和硬件方向也更加清晰 ,随之而来的是各类芯片公司的 白热化竞争[5] 。 美国 Wave Computing 公司推出的 DPU 芯片[6]和清华大学微电子学研究所设计的 Thinker 系列芯片[7] 是采用可重构计算架构的代表性工作 ,相比传统架 构 ,它们具备较强的灵活性和计算能效 , 也是未来人工智能时代的战略制高点 ,但由于目前的 AI 算法往往都各具优劣,只有给它们设定一个合 适的场景才能最好地发挥它们的作用,因此,确定应用领域就成为发展人工智能芯片的重要前提。 AI 芯片发展需要应用和架构创新双轮驱动 [C]. GTIC 2018 全球 AI 芯片创新峰会 . 上海, 2018. WEI S J. GTIC 2018 Global AI Chip Innovation Summit. Shanghai, 2018. [6 ] HEMSOTH N.