近年来,半导体行业开始设计和制造即可以应用于数据中心,又可以执行边缘计算任务的人工智能芯片(AI Chip),比如辅助驾驶(assisted driving)甚至是便携式MRI设备。 很多观察家认为未来5年人工智能芯片市场将迎来爆发。目前,人工智能芯片市场仍处于婴孩期(infancy)。 人工智能芯片正在快速成长和演化。 我们追踪了大约50家不同的人工智能芯片公司,预计未来逐步整合为10家左右(consolidate down to 10)。 芯片预计于2020年规模量产。 传统的1-2-3级架构内存对于运行人工智能算法是不够的,因此新的处理器架构均是将内存尽可能的放到不同的计算单元附近,以提升深度学习的处理效率和能效。
研究人员创造了一种新型的3D计算机芯片,该芯片将存储和计算元件垂直堆叠,极大地加快了芯片内部的数据移动速度。与传统平面设计不同,这种方法避免了制约当前AI硬件的“交通拥堵”问题。 研究人员之前在学术实验室中制造过实验性3D芯片,但该团队表示,这是第一次在商业代工厂中生产出性能明显提升的芯片。 平面芯片为何难以应对现代AI像ChatGPT和Claude这样的大型AI模型,不断地在存储信息的内存和处理信息的计算单元之间穿梭大量数据。 单片式3D芯片的制造方式许多早期的3D芯片尝试采用了一种更简单的方法,即堆叠独立的芯片。这可能有所帮助,但层与层之间的连接通常比较粗糙、数量有限,并且可能成为新的瓶颈。该团队采用了不同的方法。 如果我们能制造出先进的3D芯片,我们就能更快地创新、更快地响应,并塑造AI硬件的未来。”这项研究在某大学、某机构、某大学和某理工学院进行,所有制造工作均在某机构的代工厂完成。资金来自多个机构和项目。
来源:内容来自「知乎@汪鹏 」 所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。 传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。 在手机终端,可以自行人脸识别、语音识别等AI应用,这个必须功耗低,所以GPU OUT! 所以,开发ASIC就成了必然。 说说,为什么需要AI芯片。 一个成熟的AI算法,比如YOLO-V3,就是大量的卷积、残差网络、全连接等类型的计算,本质是乘法和加法。对于YOLO-V3来说,如果确定了具体的输入图形尺寸,那么总的乘法加法计算次数是确定的。 总的来说,CPU与GPU并不是AI专用芯片,为了实现其他功能,内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,自然造成CPU与GPU并不能达到最优的性价比。 谷歌的TPU,寒武纪的DianNao,这些AI芯片刚出道的时候,就是用CPU/GPU来对比的。 无图无真相,是吧?
就这些方面来看,AI芯片的确是门好生意,同时也很好地解释了为什么有众多资本会节奏一致地向AI芯片领域集中。 当然,从互联网巨头们的角度出发,其涉足AI芯片的原因远不止此。 这些或许才是互联网巨头们集体进入AI芯片市场的关键点。 这么来看,入注AI芯片行业对于互联网巨头来说意义非凡,也难怪巨头们一直以来都在急于融入到AI芯片市场当中。 毕竟可以利用云端AI芯片赛道取长补短,填补在终端AI芯片的不足,促进整体AI芯片在市场中茁壮生长,同时可以避开各方巨头在终端AI芯片市场中的尖锐锋芒。 或成AI芯片中坚角色 按目前情况来看,纵使有AI芯片整体制造工艺水平略低、应用场景有限等不足,也难掩BAT等巨头正在AI芯片行业频频出圈的事实。 在AI芯片性能方面,互联网巨头依靠已推出的部分产品在AI芯片领域出尽风头。据公开数据显示,昆仑AI芯片能提供每秒260万亿次的定数运算性能。
针对有相关媒体报道称寒武纪2026年人工智能(AI)芯片产品将提升三倍以上的消息,12月4日晚间,寒武纪发布严正声明称,该消息为不实信息。 12月4日早些时候,彭博社率先报道称,寒武纪计划在2026年将AI芯片产量提升三倍以上,力图在中国抢夺其他国产AI芯片厂商的市场份额,并填补英伟达公司留下的空白。 报道还援引知情人士称,寒武纪正准备在2026年交付50万颗AI加速器。消息人士表示,其中包括多达30万颗最先进的思源590和690芯片。
在整个 AI 系统的构建中,AI 算法、AI 框架、AI 编译器、AI 推理引擎等都是软件层面的概念,而 AI 芯片则是物理存在的实体,AI 芯片是所有内容的重要基础。 本系列文章将会通过对典型的 AI 模型结构的设计演进进行分析,来理解 AI 算法的计算体系如何影响 AI 芯片的设计指标,进而结合几种主流的 AI 芯片基础介绍,帮助大家对 AI 系统的整个体系知识有更全面的认识 计算机芯片体系结构在很大程度上影响了 AI 算法的性能。因此,了解 AI 算法与芯片计算体系结构之间的关系是非常重要的。 AI 芯片的分类 AI 芯片的广泛定义是指那些面向人工智能应用的芯片。 CPU、GPU、FPGA、ASIC 是目前 AI 计算过程中最主流的四种芯片类型,CPU、GPU、FPGA 是前期较为成熟的芯片架构,属于通用性芯片,ASIC 是为 AI 特定场景定制的芯片。
目前这家初创公司还没有发布其第一代芯片产品。 近日,据国外媒体报道,美国初创公司SambaNova System获得了5600万美元的A轮融资。 目前这家初创公司还没有发布其第一代芯片产品,但其已与潜在客户以及公共云提供商进行了谈话。 近年来,AI芯片一直是各大科技公司竞争的热门对象。早在2016年,谷歌就宣布已经制造出可以快速训练AI模型的芯片——张量处理单元(TPU),以对抗英伟达的GPU。 而老牌芯片CPU巨头英特尔并购了AI初创公司Nervana,以扩大自己在AI芯片上的优势。 在收购AI初创公司方面,谷歌也位列各大科技公司榜首。 从2012年至今,谷歌并购的AI公司最多,大概有14个,苹果公司位居第二位。但是此次收购AI芯片公司,还是谷歌的第一次尝试。
马斯克透露,其新一代的自动驾驶芯片AI5的设计已接近完成,AI6芯片正在早期开发中,并将通过合作伙伴三星电子和台积电进行生产,分别使用2nm和3nm制程。 根据预计, AI5芯片将提供比现有AI4高达50倍的性能,并在每美元性能上提升10倍,功耗效率提高3倍,专为全自动驾驶(FSD)、Robotaxi和Optimus机器人量身打造。 与此同时,马斯克还宣布,随着AI5芯片设计已趋于成熟,公司将重新启动第三代自研超级电脑Dojo(Dojo 3)的开发工作,并开始招募相关人才。 他明确指出,随着新一代AI5芯片设计已进入“良好状态”(in good shape),特斯拉将正式重启Dojo 3 的研发工作。这显示AI5 的成熟度直接促成了Dojo 项目的复活。 相较前两代Dojo 尝试走出一条独立演进的训练架构,Dojo 3 更可能成为围绕AI5、AI6 芯片所打造的训练平台,作为特斯拉自动驾驶(Autopilot)、全自动驾驶(FSD)与人形机器人Optimus
AI如何改变芯片设计摩尔定律即将终结。工程师和设计师在晶体管微型化和芯片集成度方面已接近极限,因此他们转向其他芯片设计方法,将AI等技术融入设计流程。 AI在芯片设计中的当前应用某机构高级产品经理指出,AI已贯穿芯片设计和制造的大部分环节。在工艺工程中,AI可用于优化流程,缺陷检测是各阶段(尤其是制造环节)的重要应用。 AI不仅是预测工具,更能从数据中提取深层洞见。AI驱动的设计优势传统基于物理的建模计算密集且复杂。AI可创建替代模型(即数字孪生),通过参数扫描、优化和蒙特卡洛模拟大幅降低计算时间。 挑战与局限AI模型精度仍不及传统物理模型,这是通过大量模拟和参数扫描来弥补的缺点。芯片设计和制造需考虑所有组件,整合不同部件的预测模型极具挑战性。 未来趋势将减少追求超精确预测,转向信息透明共享和数字孪生应用,结合AI与人类专业知识,推动芯片设计向更高效、协作的方向发展。
英伟达生态的思考点从软件和硬件架构的角度出发,CUDA 和 SIMT 之间存在一定的关系,而目前 AI 芯片采用的 DSA 架构在编程模型和硬件执行模型上还处于较为早期的状态,英伟达强大的生态同样离不开 面对新的 AI 芯片,在流水隐藏方面,实现架构层面的隐藏流水编排机制,提出一个形式上与 SPMD 没有关系的编程模式,而且易用性堪比 CUDA 的软件是可能的。 编程模型上缺乏统一的标准,因此需要专门搭建编译器和编程体系,硬件主要以 AI 加速芯片(TPU、NPU 等)为主。 { // Perform matrix addition c[index] = a[index] + b[index]; }}int main() { dim3 dimBlock(blocksize, blocksize); // Calculate the grid size dim3 dimGrid((N + dimBlock.x - 1) /
谷歌定制化AI芯片(即张量处理器)正通过其专业化架构挑战现有市场格局。据报道,多家大型科技公司正计划斥资数十亿美元采购谷歌的张量处理器,这可能动摇英伟达作为AI芯片主要供应商的地位。什么是TPU? TPU比GPU更适合AI吗?英国布里斯托大学的西蒙·麦金托什-史密斯表示,从技术上讲,张量处理器更像是图形处理单元的一个子集,而非一种完全不同的芯片。 孔蒂指出,英伟达图形处理单元的一个传统优势是,有简单易用的软件可以帮助人工智能设计者在英伟达芯片上运行代码。张量处理器刚问世时并不具备这种便利性,但现在这些芯片已经发展到更易于使用的阶段。 例如,某机构使用自己的Trainium芯片来训练其人工智能模型。 麦金托什-史密斯表示:“大多数大型科技公司都有内部的芯片开发项目,部分原因是图形处理单元因供不应求而变得非常昂贵,自己设计和制造可能更便宜。”TPU将如何影响AI行业?
在整个 AI 系统的构建中,AI 算法、AI 框架、AI 编译器、AI 推理引擎等都是软件层面的概念,而 AI 芯片则是物理存在的实体,AI 芯片是所有内容的重要基础。 本系列文章将会通过对典型的 AI 模型结构的设计演进进行分析,来理解 AI 算法的计算体系如何影响 AI 芯片的设计指标,进而结合几种主流的 AI 芯片基础介绍,帮助大家对 AI 系统的整个体系知识有更全面的认识 计算机芯片体系结构在很大程度上影响了 AI 算法的性能。因此,了解 AI 算法与芯片计算体系结构之间的关系是非常重要的。 AI 芯片的分类 AI 芯片的广泛定义是指那些面向人工智能应用的芯片。 CPU、GPU、FPGA、ASIC 是目前 AI 计算过程中最主流的四种芯片类型,CPU、GPU、FPGA 是前期较为成熟的芯片架构,属于通用性芯片,ASIC 是为 AI 特定场景定制的芯片。
近期,美国斯坦福大学、卡内基梅隆大学、宾夕法尼亚大学和麻省理工学院等机构的工程师合作开发首款由美国商业晶圆代工厂量产制造的新型3D计算芯片架构芯片,性能比同类2D芯片提升约四倍、AI工作负载性能提升12 在12月20日举行的“第四届HiPi Chiplet论坛” 3D IC分论坛上,清微智能联合创始人兼首席技术官欧阳鹏表示,国产高端AI芯片有望在2026年通过3D可重构架构技术,实现对国际主流高端AI芯片的超越 国产AI芯片“弯道超车”主战场:3D可重构架构技术 不仅是学术层面,如今,3D可重构架构技术已经商业落地,并有望成为中国AI芯片“弯道超车”的主战场。 国内市场方面,国产AI芯片有望在2026年采用3D可重构新架构。 早在2019年,清微智能和清华大学团队就开展了3D可重构AI架构相关研究,自2023年1月开始,清微智能在中美进行3D芯片相关的大量专利布局。
TCL还在多个前沿科技领域率先布局,包括印刷显示技术、AI人工智能、大数据、及显示技术等前沿技术的研发。 联想表示将在产品、渠道、服务、AI、资本等方面发力,更加务实地催化智能生态。 技术角度而言中国AI领域发展如此迅猛发展离不开面部识别和智能芯片的成就,中国科技巨头腾讯投资ObEN,百度京东也各有动作,2018年必将是中国芯片“大战”之年。 在芯片领域的科技创新中紫光集团(CITE2018展位号1B010)一直走在行业最前端,作为全球第三大手机芯片设计企业紫光耗资10亿美元,1000人团队历时两年研发成功国内第一颗32层三维NAND闪存芯片 ,同时紫光研发出国内首款拥有自主嵌入式CPU关键技术的手机芯片平台。
不过,小米公司高级副总裁王翔近日在接受 CNBC 采访时表示,小米正在进行大量与 AI 芯片相关的研究。 手机 SoC 是一项艰难的过程,而且高投入还不一定能带来高回报。 为此,这几家手机巨头纷纷推出了更适合 AI 应用的芯片,使得这些应用能够在手机终端执行,而不需要依靠云端的服务器,以此带来更流畅的使用体验。 而小米已经在自家手机上推出过各种 AI 功能,并且还在大力扩展具备 AI 能力的智能家居的版图(比如小爱音箱)。因此,小米跟进华为等巨头,进行 AI 芯片的相关研究也就在情理之中了。 “我们自己造芯片,主要目的是为了更深入地了解技术。我们(去年)已经推出了第一款搭载澎湃芯片的智能手机。未来,我们将继续相关技术的研发工作,除了芯片组以外,还会涉及 AI 和其他相关的技术。”王翔说。 不过,小米目前还没决定要不要自己造 AI 芯片。 至于澎湃 S2,王翔并未透露更多的信息,只是表示,小米会继续和其他芯片公司保持良好的合作关系。
它们正在为2020年左右推出的下一个节点——3 nm——开发一种全新设计的晶体管。 重要的是,这种设计不仅仅是逻辑芯片的下一代晶体管,但它也可能是最后一个。 对于构成当今计算机芯片的CMOS技术,您需要这两种类型的晶体管。 MOSFET的栅极堆叠位于沟道区域的正上方。今天,栅极堆叠由金属(用于栅电极)制成,位于介电材料层的顶上。 对于3-nm节点, FinFET无法胜任任务。我们在十多年以前就看到这种情况,其他人也是如此。 虽然很好,但FinFET有其问题。 在该过程中,气态化学物质吸附到芯片的暴露表面,甚至nanosheet的下侧,以形成单层。
该工作由加州Davis分校研究小组完成,他们实现了基于3-D光芯片的LIDAR系统。关于LIDAR, 感兴趣的读友可以参看这篇笔记 光学相控阵列, 这里不做赘述。 加州Davis分校研究组所提出的基于硅光的3D PIC,整体结构如下, ? (图片来自文献1) 右图中的小方格是一个结构单元,每个cell由两层硅光PIC芯片和一层EIC芯片构成。 (图片来自文献1) 研究人员在40微米厚的SiO2包覆层中加工出3D的S型波导。将S型波导与SiN基片进行耦合,实验测得的插损是2.8dB。主要损耗来源于两个芯片间的空气隙。 该文献没有给出整个3D PIC最终的工作性能,仅贴出了芯片的结构图,如下图所示, ? (图片来自文献1) 期待整个3D LIDAR系统进一步的实验结果。 几点看法: 目前2D 硅光芯片的集成度其实还没有那么高,对器件密度提高的需求不是主要矛盾。虽然3D PIC的想法很好,有很好的前瞻性,但从应用需求和加工难度来看,还是实用性不够强。
10月6日消息,据路透社援引知情人士的话指出,生成式AI领域的领头羊、ChatGPT开发商OpenAI正在探索AI芯片的可能性,并已评估潜在的收购目标,以加速自研芯片的研发。 报道称,OpenAI至少从去年就已经开始讨论各种解决方案,以解决AI芯片成本高昂、短缺等问题,其中就包括自研AI芯片、与英伟达(NVIDIA)在内的AI芯片厂商更密切合作、推动AI芯片供应来源更多元化, 虽然还不清楚OpenAI是否会持续推进自研芯片计划,但资深产业人士指出,OpenAI 若是投入自研AI芯片将是一项重大战略,同时也将是一项巨额投资,每年研发投入成本可能高达数亿美元,但无法保证自研AI芯片一定成功 目前面向服务器的AI芯片市场处于英伟达的统治之下,市占率超过80%。特别是自去年年底以来,生成式AI热潮兴起之下,英伟达的AI芯片(GPU)便持续供不应求,价格也是水涨船高。 目前包括谷歌、亚马逊AWS、阿里巴巴、百度、华为等云服务大厂都已有自研 AI 芯片用于数据中心,微软和Meta也有相关计划。所以对于头部的AI技术大厂来说,自研AI芯片已经是一大趋势。
AI概念在几年前火爆全球,科技巨头们纷纷投入AI芯片的研发,小公司也致力于提出概念靠AI浪潮融资,为了快速在AI市场上立足,也为了让市场和用户能记住自家的产品,各家在芯片命名方面都下了点功夫,既要独特, 不管怎样,这些芯片都没占用BPU或BRPU这个宝贵位置。 3、CPU Central Processing Unit CPU就不多说了,中央处理器。不会有AI公司将自己的芯片命名为CPU的。 作为一家做矿机芯片(自称是区块链专用芯片)和矿机的公司,嘉楠耘智累计获得近3亿元融资,估值近33亿人民币。2020年,嘉楠耘智公司内部出了问题,财报很难看。 云知声获得了3亿人民币战略投资,其中一部分将用来研发其稍早公布的AI芯片计划,命名“UniOne”。据官方透漏,UniOne将内置DNN处理单元,兼容多麦克风、多操作系统。 Movidius早期做的是将旧电影转为3D电影的业务,后期开始研发应用于3D渲染的芯片,并开始应用于计算机视觉应用领域(这说明:1,芯片行业才是高技术含量、高门槛、高价值的行业;2,初创公司要随着发展调整自己的战略
摩尔定律的终结与AI的崛起随着摩尔定律逼近物理极限,工程师正转向人工智能等创新方法。 某机构在其存储芯片中集成AI以实现内存计算,既提升机器学习速度又降低能耗;某中心的TPU V4 AI芯片处理能力较前代翻倍。 AI在芯片设计中的核心应用MathWorks MATLAB平台高级产品经理Heather Gorr指出:缺陷检测:贯穿制造全流程,包括光学元件与传感器设计阶段预测性维护:通过历史数据分析设备停机根本原因数字孪生 :替代传统物理建模,快速完成参数扫描与蒙特卡洛模拟技术优势与挑战效率革命:基于AI的替代模型使仿真速度提升百倍数字孪生技术降低90%原型试制成本精度局限:AI模型准确度仍逊于传统物理模型需融合多传感器数据源 ,系统集成复杂度高工程师的实战建议利用GitHub等开源社区的成熟工具链高频传感器数据需结合频域分析技术明确问题边界,建立模块化测试流程人机协作的未来图景AI将释放工程师生产力:处理材料优化等重复性工作人类专注关键决策与跨系统整合需构建全流程可解释性模型