来源:内容来自「知乎@汪鹏 」 所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。 传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。 在手机终端,可以自行人脸识别、语音识别等AI应用,这个必须功耗低,所以GPU OUT! 所以,开发ASIC就成了必然。 说说,为什么需要AI芯片。 总的来说,CPU与GPU并不是AI专用芯片,为了实现其他功能,内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,自然造成CPU与GPU并不能达到最优的性价比。 但是,这些算法,与深度学习的算法还是有比较大的区别,而我的回答里提到的AI芯片,比如TPU,这个是专门针对CNN等典型深度学习算法而开发的。 谷歌的TPU,寒武纪的DianNao,这些AI芯片刚出道的时候,就是用CPU/GPU来对比的。 无图无真相,是吧?
在整个 AI 系统的构建中,AI 算法、AI 框架、AI 编译器、AI 推理引擎等都是软件层面的概念,而 AI 芯片则是物理存在的实体,AI 芯片是所有内容的重要基础。 本系列文章将会通过对典型的 AI 模型结构的设计演进进行分析,来理解 AI 算法的计算体系如何影响 AI 芯片的设计指标,进而结合几种主流的 AI 芯片基础介绍,帮助大家对 AI 系统的整个体系知识有更全面的认识 计算机芯片体系结构在很大程度上影响了 AI 算法的性能。因此,了解 AI 算法与芯片计算体系结构之间的关系是非常重要的。 如今随着 OpenAI 公司的 ChatGPT/GPT4 等模型的惊艳出场,引发了各个行业对人工智能技术的广泛关注和应用推动,更多 AI 算法需要部署,激发了更大的算力需求,无疑 AI 芯片是整个 AI AI 芯片的分类 AI 芯片的广泛定义是指那些面向人工智能应用的芯片。
新智元报道 编辑:Aeneas 润 【新智元导读】GPT-4已经会自己设计芯片了!芯片设计行业的一个老大难问题HDL,已经被GPT-4顺利解决。并且,它设计的130nm芯片,已经成功流片。 GPT-4,已经可以帮人类造芯片了! 只用简单的英语对话,纽约大学Tandon工程学院的研究人员就通过GPT-4造出了一个芯片。 具体来说,GPT-4通过来回对话,就生成了可行的Verilog。 研究者表示:「可以认为,这项研究产生了第一个完全由AI生成的HDL(硬件描述语言),它可以直接用来制造物理芯片。」 而NYU的这项研究表明,AI不仅可以生成软件代码,还能使硬件制造收益。 大语言模型的优点在于,我们可以采用对话的方式与其交互,这样,我们就能通过有来有回的方式,来完善硬件的设计。 GPT4辅助设计芯片在实际芯片设计流程中的探索 在完成了这个标准化的测试流程,筛选出了唯一合格的大模型GPT-4之后。
就这些方面来看,AI芯片的确是门好生意,同时也很好地解释了为什么有众多资本会节奏一致地向AI芯片领域集中。 当然,从互联网巨头们的角度出发,其涉足AI芯片的原因远不止此。 这些或许才是互联网巨头们集体进入AI芯片市场的关键点。 这么来看,入注AI芯片行业对于互联网巨头来说意义非凡,也难怪巨头们一直以来都在急于融入到AI芯片市场当中。 毕竟可以利用云端AI芯片赛道取长补短,填补在终端AI芯片的不足,促进整体AI芯片在市场中茁壮生长,同时可以避开各方巨头在终端AI芯片市场中的尖锐锋芒。 或成AI芯片中坚角色 按目前情况来看,纵使有AI芯片整体制造工艺水平略低、应用场景有限等不足,也难掩BAT等巨头正在AI芯片行业频频出圈的事实。 在AI芯片性能方面,互联网巨头依靠已推出的部分产品在AI芯片领域出尽风头。据公开数据显示,昆仑AI芯片能提供每秒260万亿次的定数运算性能。
当地时间12月11日美股盘后,美国芯片大厂博通(Broadcom)公布了2025会计年度第四季(截至2025年11月2日)财报。 受益于AI需求旺盛,带动定制AI ASIC芯片需求大增,推动博通AI芯片销售额暴涨74%,整体业绩也是超出市场预期。 AI ASIC芯片、网络交换器(switch)等数据中心核心零组件需求旺盛,未来18个月在手订单规模高达730亿美元。” 博通公司总裁兼首席执行官陈惠表示:“我们预计第一季度势头将持续,预计AI半导体收入同比翻倍至82亿美元,这得益于定制AI加速器和以太网AI交换机。 虽然业绩超出预期,但是博通目前积压了价值730亿美元的AI产品订单,如此之大的积压订单规模令一些投资者感到失望。
目前这家初创公司还没有发布其第一代芯片产品。 近日,据国外媒体报道,美国初创公司SambaNova System获得了5600万美元的A轮融资。 目前这家初创公司还没有发布其第一代芯片产品,但其已与潜在客户以及公共云提供商进行了谈话。 近年来,AI芯片一直是各大科技公司竞争的热门对象。早在2016年,谷歌就宣布已经制造出可以快速训练AI模型的芯片——张量处理单元(TPU),以对抗英伟达的GPU。 而老牌芯片CPU巨头英特尔并购了AI初创公司Nervana,以扩大自己在AI芯片上的优势。 在收购AI初创公司方面,谷歌也位列各大科技公司榜首。 从2012年至今,谷歌并购的AI公司最多,大概有14个,苹果公司位居第二位。但是此次收购AI芯片公司,还是谷歌的第一次尝试。
AI如何改变芯片设计摩尔定律即将终结。工程师和设计师在晶体管微型化和芯片集成度方面已接近极限,因此他们转向其他芯片设计方法,将AI等技术融入设计流程。 AI在芯片设计中的当前应用某机构高级产品经理指出,AI已贯穿芯片设计和制造的大部分环节。在工艺工程中,AI可用于优化流程,缺陷检测是各阶段(尤其是制造环节)的重要应用。 AI不仅是预测工具,更能从数据中提取深层洞见。AI驱动的设计优势传统基于物理的建模计算密集且复杂。AI可创建替代模型(即数字孪生),通过参数扫描、优化和蒙特卡洛模拟大幅降低计算时间。 挑战与局限AI模型精度仍不及传统物理模型,这是通过大量模拟和参数扫描来弥补的缺点。芯片设计和制造需考虑所有组件,整合不同部件的预测模型极具挑战性。 未来趋势将减少追求超精确预测,转向信息透明共享和数字孪生应用,结合AI与人类专业知识,推动芯片设计向更高效、协作的方向发展。
相比前代 iPad Pro 搭载的强大 M2 芯片,M4 芯片的中央处理器性能提升最高达 1.5 倍。 M4 芯片最多达 10 核的全新中央处理器,包含最多达 4 个性能核心和 6 个能效核心。 迄今最强大的神经网络引擎 M4 芯片的极高速神经网络引擎是芯片中的一种 IP 模块,专门用于加速 AI 任务。 结合中央处理器中的新一代机器学习加速器、高性能图形处理器和更高的统一内存带宽,神经网络引擎为 M4 芯片赋予超强性能,使之成为处理 AI 任务的理想芯片。 配合 iPadOS 系统的多种 AI 功能,如可根据音频内容实时生成字幕的实时字幕、可识别视频与照片中物体的看图查询等,新款 iPad Pro 可帮助用户在设备端快速完成各类令人惊叹的 AI 任务。
英伟达生态的思考点从软件和硬件架构的角度出发,CUDA 和 SIMT 之间存在一定的关系,而目前 AI 芯片采用的 DSA 架构在编程模型和硬件执行模型上还处于较为早期的状态,英伟达强大的生态同样离不开 面对新的 AI 芯片,在流水隐藏方面,实现架构层面的隐藏流水编排机制,提出一个形式上与 SPMD 没有关系的编程模式,而且易用性堪比 CUDA 的软件是可能的。 编程模型上缺乏统一的标准,因此需要专门搭建编译器和编程体系,硬件主要以 AI 加速芯片(TPU、NPU 等)为主。
4月4日消息,根据外媒《The Information》报导,中国人工智能(AI)企业DeepSeek即将推出的新一代大语言模型V4,并已基于包括华为在内的最新国产AI芯片进行了优化。 为应对基于该模型云服务上线需求,包括阿里巴巴、字节跳动与腾讯等中国科技巨头,已提前下单华为新一代AI芯片,订单规模达数十万颗。 与英伟达H20相比,该芯片的HBM(高带宽内存)容量是H20的1.16倍,达到了112GB,多模态生成速度可以提升60%;内存访问颗粒度从512字节减少到128字节,小算子访存效率提升4倍。 相较于过往AI模型开发通常会与美国芯片大厂合作进行性能优化,DeepSeek此次并未向美系AI芯片供应商开放测试,而是优先提供本土芯片厂参与。 此外,该公司亦同步开发两款V4衍生版本,分别针对不同应用场景优化,并同样以中国芯片为基础设计。 市场之所以高度关注DeepSeek-V4,主要来自其前代产品的影响力。
谷歌定制化AI芯片(即张量处理器)正通过其专业化架构挑战现有市场格局。据报道,多家大型科技公司正计划斥资数十亿美元采购谷歌的张量处理器,这可能动摇英伟达作为AI芯片主要供应商的地位。什么是TPU? TPU比GPU更适合AI吗?英国布里斯托大学的西蒙·麦金托什-史密斯表示,从技术上讲,张量处理器更像是图形处理单元的一个子集,而非一种完全不同的芯片。 孔蒂指出,英伟达图形处理单元的一个传统优势是,有简单易用的软件可以帮助人工智能设计者在英伟达芯片上运行代码。张量处理器刚问世时并不具备这种便利性,但现在这些芯片已经发展到更易于使用的阶段。 例如,某机构使用自己的Trainium芯片来训练其人工智能模型。 麦金托什-史密斯表示:“大多数大型科技公司都有内部的芯片开发项目,部分原因是图形处理单元因供不应求而变得非常昂贵,自己设计和制造可能更便宜。”TPU将如何影响AI行业?
在整个 AI 系统的构建中,AI 算法、AI 框架、AI 编译器、AI 推理引擎等都是软件层面的概念,而 AI 芯片则是物理存在的实体,AI 芯片是所有内容的重要基础。 本系列文章将会通过对典型的 AI 模型结构的设计演进进行分析,来理解 AI 算法的计算体系如何影响 AI 芯片的设计指标,进而结合几种主流的 AI 芯片基础介绍,帮助大家对 AI 系统的整个体系知识有更全面的认识 计算机芯片体系结构在很大程度上影响了 AI 算法的性能。因此,了解 AI 算法与芯片计算体系结构之间的关系是非常重要的。 如今随着 OpenAI 公司的 ChatGPT/GPT4 等模型的惊艳出场,引发了各个行业对人工智能技术的广泛关注和应用推动,更多 AI 算法需要部署,激发了更大的算力需求,无疑 AI 芯片是整个 AI AI 芯片的分类 AI 芯片的广泛定义是指那些面向人工智能应用的芯片。
不过,小米公司高级副总裁王翔近日在接受 CNBC 采访时表示,小米正在进行大量与 AI 芯片相关的研究。 手机 SoC 是一项艰难的过程,而且高投入还不一定能带来高回报。 为此,这几家手机巨头纷纷推出了更适合 AI 应用的芯片,使得这些应用能够在手机终端执行,而不需要依靠云端的服务器,以此带来更流畅的使用体验。 而小米已经在自家手机上推出过各种 AI 功能,并且还在大力扩展具备 AI 能力的智能家居的版图(比如小爱音箱)。因此,小米跟进华为等巨头,进行 AI 芯片的相关研究也就在情理之中了。 “我们自己造芯片,主要目的是为了更深入地了解技术。我们(去年)已经推出了第一款搭载澎湃芯片的智能手机。未来,我们将继续相关技术的研发工作,除了芯片组以外,还会涉及 AI 和其他相关的技术。”王翔说。 不过,小米目前还没决定要不要自己造 AI 芯片。 至于澎湃 S2,王翔并未透露更多的信息,只是表示,小米会继续和其他芯片公司保持良好的合作关系。
10月6日消息,据路透社援引知情人士的话指出,生成式AI领域的领头羊、ChatGPT开发商OpenAI正在探索AI芯片的可能性,并已评估潜在的收购目标,以加速自研芯片的研发。 报道称,OpenAI至少从去年就已经开始讨论各种解决方案,以解决AI芯片成本高昂、短缺等问题,其中就包括自研AI芯片、与英伟达(NVIDIA)在内的AI芯片厂商更密切合作、推动AI芯片供应来源更多元化, 虽然还不清楚OpenAI是否会持续推进自研芯片计划,但资深产业人士指出,OpenAI 若是投入自研AI芯片将是一项重大战略,同时也将是一项巨额投资,每年研发投入成本可能高达数亿美元,但无法保证自研AI芯片一定成功 目前面向服务器的AI芯片市场处于英伟达的统治之下,市占率超过80%。特别是自去年年底以来,生成式AI热潮兴起之下,英伟达的AI芯片(GPU)便持续供不应求,价格也是水涨船高。 目前包括谷歌、亚马逊AWS、阿里巴巴、百度、华为等云服务大厂都已有自研 AI 芯片用于数据中心,微软和Meta也有相关计划。所以对于头部的AI技术大厂来说,自研AI芯片已经是一大趋势。
AI概念在几年前火爆全球,科技巨头们纷纷投入AI芯片的研发,小公司也致力于提出概念靠AI浪潮融资,为了快速在AI市场上立足,也为了让市场和用户能记住自家的产品,各家在芯片命名方面都下了点功夫,既要独特, 本文就从字母A到Z来盘点一下目前各种“xPU”命名AI芯片,以及芯片行业里的各种“xPU”缩写,给大家涨涨知识。 今天我们看到的情况是所有的手机芯片都必须有 AI 处理芯片了,2020年麒麟9000的出现更是把AI移动端处理器的性能再升一大截。 另外一种趋势,做高性能计算CPU的公司也不甘错过AI的浪潮。 4、DPU 作为Deep Learning的首字母,以D开头来命名AI芯片是一种很自然的思路。 Deep-Learning Processing Unit 深度学习处理器。 Vision DSP 针对AI中的计算机视觉应用,各家DSP公司都发布了DSP的Vision系列IP。简单罗列如下: CEVA的XM4,最新的XM6 DSP。
比如谷歌的 TPU、寒武纪 的 GPU ,地平线的 BPU 都属于 ASIC 芯片 。 (4)神经拟态芯片(类脑芯片)。 表 2 是 4 种技 术架构的芯片在人工智能系统开发上的对比 。 ? 2.2.3 按应用场景分类 主要分为用于服务器端(云端)和用于移动端( 终 端 )两 大 类 。 人工智能芯片产业现状 4.1 产业现状评述 AI 芯片是芯片产业和人工智能产业整合的关键 ,特别是 AI 系统芯片。 ,如图4所示。 AI芯片在物 联网产品上的应用主要有两个用途 ,一个是视觉 AI芯片 ,另一个是语音 AI 芯片 ,但因为自然语言处理 的 AI 产品开发难度高 ,目前新创 AI 芯片企业主要切 入的市场是计算机视觉设备的落地场景
摩尔定律的终结与AI的崛起随着摩尔定律逼近物理极限,工程师正转向人工智能等创新方法。 某机构在其存储芯片中集成AI以实现内存计算,既提升机器学习速度又降低能耗;某中心的TPU V4 AI芯片处理能力较前代翻倍。 AI在芯片设计中的核心应用MathWorks MATLAB平台高级产品经理Heather Gorr指出:缺陷检测:贯穿制造全流程,包括光学元件与传感器设计阶段预测性维护:通过历史数据分析设备停机根本原因数字孪生 :替代传统物理建模,快速完成参数扫描与蒙特卡洛模拟技术优势与挑战效率革命:基于AI的替代模型使仿真速度提升百倍数字孪生技术降低90%原型试制成本精度局限:AI模型准确度仍逊于传统物理模型需融合多传感器数据源 ,系统集成复杂度高工程师的实战建议利用GitHub等开源社区的成熟工具链高频传感器数据需结合频域分析技术明确问题边界,建立模块化测试流程人机协作的未来图景AI将释放工程师生产力:处理材料优化等重复性工作人类专注关键决策与跨系统整合需构建全流程可解释性模型
Q&A:人工智能将如何改变芯片设计人工智能为半导体行业带来了新的希望和潜力。 为了更好地理解人工智能将如何彻底改变芯片设计,我们与MathWorks公司MATLAB平台的高级产品经理希瑟·戈尔进行了交流。人工智能目前是如何被用于设计下一代芯片的? 在芯片设计中使用人工智能的好处是什么?戈尔: 从历史上看,我们看到了许多基于物理的建模,这是一个非常密集的过程。 这显然会在实际制造和生产芯片时带来巨大的成本节约。你希望在尽可能不采用实际工艺工程的情况下,尽可能多地进行模拟、测试和实验。我们已经谈到了好处。那么缺点呢? 你如何展望人工智能和芯片设计的未来?戈尔: 这在很大程度上取决于人的因素——让人员参与到过程中,并拥有可解释的模型。
针对不同应用场景 ,不同芯片的处理速度 、能耗 、支持的算法也各有优势。根据人工智能产业的发展状况和技术成熟度划分 ,可以分 为4个阶段[3] 。 ,随着人 工智能应用规模的扩大,这类问题日益突出[4] 。 [ 4 ] 朱海鹏. AI 芯片发展需要应用和架构创新双轮驱动 [C]. GTIC 2018 全球 AI 芯片创新峰会 . 上海, 2018. WEI S J. IEEE Journal of Solid- State Circuits, 2018, 53(4): 968-982. [ 8 ] 唐杉.
导语:本文分析了目前AI芯片市场的情况,以及NVIDIA在这一市场的领先地位。不过,随着芯片巨头在AI芯片领域有了新的进展,NVIDIA将会面临更多的挑战,2019年AI芯片市场会如何? NVIDIA快速增长的动力来自人工智能(AI)和高性能计算(HPC)对GPU芯片的需求。NVIDIA首席执行官Jensen Huang喜欢谈论深度学习的“寒武纪爆炸”,指的是神经网络算法的快速迭代。 目前,我们处于AI芯片爆发的门口,全球许多大型和小型公司都加入其中。三年前,芯片创业公司几乎不可能获得风险投资,现在,有数十家资金充足的挑战者在研发AI芯片。 重磅的竞争者 根据纽约时报的统计,有超过40家创业公司进入AI芯片领域,但实际情况是,只有少数公司能在这个市场上取得真正的成功(比如收入超过10亿美元)。 此外,即将推出的Xilinx 7nm芯片称为Versal,具有AI和DSP引擎,可加速特定应用程序处理以及自适应逻辑阵列。Versal将在今年的某个时候开出货,我认为这可能是推理处理的改变者。