首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Java项目实战

    【玩转 GPU英伟GPU架构演变

    图片一、GPU架构发展历史 1999年,英伟发布第一代GPU架构GeForce 256,标志着GPU时代的开始。 当前英伟显卡的内存主要分为两种:GDDR5和GDDR6。 英伟显卡的显存一般分为两种:GDDR5和GDDR6。GDDR5显存通常用于中低端显卡,而GDDR6显存则主要适用于高端的游戏和图形应用。 可以看出,英伟显卡在GPU应用和体系结构上不断创新,推动着整个GPU技术发展。二、运行原理 英伟显卡属于并行结构的高性能计算设备。 5) 加强及时的产品更新,推出新一代GPU架构和显卡产品。及时更新产品是显卡市场的重要规则,这将使英伟显卡始终处于技术前沿。

    14K50编辑于 2023-06-08
  • 来自专栏GPUS开发者

    英伟机器学习5大网红GPU

    小编结合工作中客户咨询的经验,总结出英伟5大热门机器学习用GPU卡。 英伟号称Tesla M40 GPU 加速器是全球快的深度学习训练加速器,专为显著缩短训练时间而定制。 同样采用了完整的麦克斯韦架构大核心GM200,3072个CUDA核心,单精度浮点计算7TFlops,12GB显存,再加上同时发布的英伟DIGITS深度学习GPU训练系统的加持,更是让数据科学家和研究人员如虎添翼 而本月英伟最新的cuDNN5开放下载,可以在单一NVIDIA Pascal GPU上最高实现44%的训练速度提升,这使得GTX1080充满了期待。 英伟声称将推动深度学习和HPC应用性能跨越式发展:其中,全新的Pascal架构实现了巨大的性能飞跃,半精度指令为深度学习提供了超过 21 Teraflops 的峰值性能;NVLink 将CPU与GPU

    11.1K50发布于 2018-03-30
  • 来自专栏DearXuan的博客文章

    python调用英伟GPU加速方法

    调用GPU的本质其实是调用CUDA的dll 如果你对CUDA编程不熟悉,可以参考CUDA并行编程概述 生成CUDA dll 调用显卡的方法是调用CUDA的dll,因此首先要使用CUDA生成dll 下面是示例

    1.8K30编辑于 2022-02-21
  • 来自专栏CVer

    英伟的这款GPU太强了!

    NVLink 全新 DPX 指令 NVIDIA H100 GPU 硬件上的参数太炸裂,比如有:英伟定制的台积电4nm工艺、单芯片设计、800 亿个晶体管、132 组 SM、16896 个 CUDA 图4 GH100 Full GPU with 144 SMs 图5 GH100 Streaming Multiprocessor (SM) 更多硬件参数这里就不展开说了,感兴趣的同学可以直接看 NVIDIA 图7 H100 FP8 和 A100 FP16 FP8 Tensor Core 支持 FP32、FP16 累加器和两种新的 FP8 输入类型:E4M3 和 E5M2。 E5M2 是与 FP16 保持相同的动态范围,但精度大大降低,而 E4M3 精度稍高但动态范围较小。 H100 包含 18 条第四代 NVLink 链路,可提供 900 GB/秒的总带宽,是 PCIe Gen 5 带宽的 7 倍。

    2K20编辑于 2022-06-13
  • 来自专栏专知

    英伟GTC大会:迄今最强GPU发布

    【导读】当地时间3月27日,英伟在美国圣克拉的 GTC 大会上推出多款产品。英伟CEO黄仁勋在会上推出多款产品,包括新一代Quadro GV100卡显、医疗图像处理的超级电脑CLARA。 我们知道,随着近年来AI技术火爆,GPU价格也是水涨船高,虽然各大巨头也有推出对应的AI芯片,但是英伟的低位仍难以动摇,此次大会也着实带给观众不少震撼,下面我们来一一解读。 ▌Quadro GV100卡显 ---- 英伟新推出的这款QuadroGV100GPU,使用RTX技术进行实时光线追踪,这将为动画产业提供一种更有效的3D图形和场景制作方法。 ▌迄今最大GPU:DGX-2 ---- DGX-2是这次英伟演讲的重点产品,DGX-2 是首款能够提供每秒两千万亿次浮点运算能力的单点服务器,它有16个VoltaGPU,具有 300 台服务器的深度学习处理能力 300万美元,英伟的售价只是1/8的花费。

    92960发布于 2018-04-08
  • 来自专栏人工智能快报

    谷歌开放TPU应对英伟GPU挑战

    该公司的软件自主驾驶5级主管阿南塔·坎切拉(Anantha Kancherla)说:“自从与谷歌云TPU合作以来,我们对他们的速度印象非常深刻——通常需要几天时间才能完成的工作现在可能需要数小时。” 尽管谷歌目前没有直接向客户销售TPU芯片,但它们的可用性对英伟(Nvidia)仍是一个挑战,英伟GPU目前是世界上使用最多的AI加速器。 甚至Google也使用了大量的英伟GPU来提供加速的云计算服务。然而,如果研究人员像预期的那样从GPU切换到TPUs,这将减少Google对英伟的依赖。 在机器学习训练中,云TPU的性能(180比120TFLOPS)比Nvidia最好的GPU Tesla V100的内存容量(64GB比16GB)高4倍。

    1.1K80发布于 2018-03-30
  • 英伟拿下全球94%的独立GPU市场!

    具体到2025年第二季度,英伟以 94% 的巨大市场份额再次位居榜首,较上一季度增长 2.1%。 与此同时,英伟的竞争对手,如 AMD 和英特尔,的 GPU 市场份额分别为 6%(-2.1%)和 几乎为0%。 鉴于英伟最近在财报电话会议上的声明,GeForce RTX 50 系列显卡继续上涨并且销量非常好。鉴于游戏领域的收入创下历史新高,并且随着第四季度假期的临近,我们可以预期这些数字会攀升。 入门级和中端 GPU 仍然可以以较低的价格购买,但看起来不同地区关税的异常变化促使买家以合理的价格购买新的 GPU。 在接下来的几个月里,英伟和AMD不打算推出新款GPU英伟RTX 50“Blackwell”和AMD Radeon RX 9000“RDNA 4”系列已基本完成,唯一的惊喜可能是英特尔新的Battlemage的推出。 编辑:芯智讯-林子

    29510编辑于 2026-03-19
  • 来自专栏纯洁的微笑

    英伟、AMD恐断供高端GPU

    图:英伟向SEC提交的文件 NVIDIA(英伟)8 月 31 日向美国证券交易委员会(SEC)提交的一份文件披露,美国政府于 8 月 26 日通知该公司,未来若要出口 A100 和 H100 芯片至中国 此次管制涉及英伟 A100 和即将出货的 H100 两款芯片,以及英伟未来推出的峰值性能等同或超过 A100 的其他芯片。 英伟应用这些高性能 GPU 芯片的系统级产品,也均在美国政府新的管制范围内。 英伟 A100 芯片 目前看,咱们民用系列 RTX 这些显卡不受影响,对游戏佬还好。 受此影响,8月31日,英伟股价下跌 2.42% ,收报 150.94 美元/股;盘后交易中,英伟股价继续下跌 6.56%。 参考资料: https://mp.weixin.qq.com/s/xwHFlHwKkonfiv1Z2YDS_A https://mp.weixin.qq.com/s/A5XSOpWtfm1dLsmRO3Pppw

    82220编辑于 2022-09-06
  • 来自专栏AI研习社

    5 年提速 500 倍,英伟 GPU 创纪录突破与技术有哪些?

    AI 研习社按,2017 年 5 月,在 GTC 2017 上,英伟 CEO 黄仁勋发布 Volta 架构 Tesla V100,它被称为史上最快 GPU 加速器。 日前,英伟 Developer Blog 上一篇博文详细陈述了英伟 Volta Tensor Core GPU 在深度学习社群取得的巨大突破,以及种种突破背后的技术细节。 英伟 CUDA GPU 的可编程性在这里也非常重要。 V100 Tensor Core 打破了单处理器的最快处理速度记录 英伟 Volta GPU 中引入了 Tensor Core GPU 架构,这是英伟深度学习平台的巨大进步。 英伟 NVLink 高速互连结构允许我们将 8 个 GPU 作为单服务器运行,实现性能扩展。

    58240发布于 2018-07-26
  • 来自专栏AI科技大本营的专栏

    GPU对决TPU,英伟能否守住领先地位?

    在多年的耕耘之后,英伟的凭借着先发优势和快速迭代在AI时代迅速崛起。如今,英伟GPU几乎垄断了AI芯片市场,着实让人眼红。 那么类似TPU这种的专用芯片真的能对英伟GPU产生威胁吗? 奇怪的是,这两家公司生产的新芯片都没有被广泛地使用,这或许表明TPU的实际表现并不如GPU。 TPU之所以没能超越GPU英伟GPU架构进化得非常快是其中的一个重要原因。 在过去几年间,英伟将其GPU 的架构性能提升了大概10倍,这就是TPU到现在还无法替代GPU的主要原因。 软件很重要 就算初创公司在深度学习硬件上可能占有优势,但是在软件上英伟依旧遥遥领先。 2017年5月,英伟宣布将开源其深度学习加速器(DLA)的设计,DLA是Xavier芯片上一种类似于TPU的单元。

    1.3K100发布于 2018-04-27
  • 魏少军:中国应放弃采用英伟GPU

    9月11日消息,据《彭博社》报道,中国半导体行业协会集成电路设计分会理事长、清华大学教授魏少军近日在新加坡召开的一个行业论坛上表示,包括中国在内的亚洲国家应该放弃将英伟GPU用于人工智能开发,以减少对英伟的依赖 “不幸的是,我们亚洲国家,包括中国,在开发AI算法和大模型方面正在效仿美国(利用英伟GPU),”魏少军说,他作为一名学者,多年来一直为官方提供建议。 由于美国近年来持续加码限制措施,以阻止中国公司获得最尖端的AI芯片,中国本土公司也一直在努力解决英伟达人工智能加速器短缺的问题。目前中国自己的芯片制造技术仍落后于当今世界上最先进的芯片制造技术几年。 虽然英伟的H20芯片在今年被禁数个月之后,又重新获得了对华出口的许可,但是其安全性却遭到了中国官方的质疑,这也使得中国科技公司不得不对继续采购H20芯片持保留态度。 魏少军指出说,中国应该专注于创造一种专为大模型开发而设计的新型芯片,而不是继续依赖最初设计用于为游戏和工业图形提供动力的GPU架构,但他并没有详细说明新架构的具体细节。

    7910编辑于 2026-03-20
  • 来自专栏计算机视觉战队

    英伟A100 Tensor Core GPU架构深度讲解

    这种密集的应用包括人工智能深度学习训练和推理、数据分析、科学计算、基因组学、边缘视频分析和5G服务、图形渲染、云游戏等。 NVIDIA GPU加速了许多人工智能系统和应用,包括:深度学习推荐系统、自动驾驶机器(自动驾驶汽车、工业机器人等),自然语言处理(会话AI,实时语言翻译等)、智能城市视频分析、5G网络(可以在边缘提供基于 对于FP16/FP32混合精度DL,相比于V100,A100 Tensor Core提供2.5倍的性能,增加到5倍的稀疏性。 5、A100 GPU Streaming Multiprocessor (SM) NVIDIA安培体系结构中的新的SM基于A100 Tensor Core GPU显著提高了性能,建立在Volta和Turing 由于每个GPU和交换机有更多的链路,新的NVLink提供了更高的GPU-GPU通信带宽,并改进了错误检测和恢复功能。

    4K31发布于 2020-07-14
  • 来自专栏量子位

    英伟版ChatGPT来了,PC端部署,很GPU

    金磊 发自 凹非寺 量子位 | 公众号 QbitAI 英伟推出了自家版本的ChatGPT,名字很有GPU的味道—— Chat With RTX。 英伟的这款AI聊天机器人和目前主流的“选手”有所不同。 它并非是在网页或APP中运行,而是需要下载安装到个人电脑中。 英伟版ChatGPT 首先,值得一提的是,Chat With RTX并非是英伟自己搞了个大语言模型(LLM)。 不然就会出现各种各样的悲剧了: 不过实测被吐槽 The Verge在英伟发布Chat With RTX之后,立即展开了一波实测。 不过结论却是大跌眼镜。 那么你会pick英伟版的ChatGPT吗?

    74710编辑于 2024-02-22
  • 来自专栏大语言模型,算力共享

    英伟A100 GPU的核心数,Tesla系列

    ​ 目录GeForce RTX 什么意思英伟A100 GPU的核心数A100概述NVIDIA GPUGeForce系列(消费级)Quadro系列(专业级)Tesla系列(数据中心和AI)AMD GPURadeon 系列(消费级)注意GeForce RTX 什么意思GeForce RTX是英伟(NVIDIA)公司旗下的一个高端显卡系列。 其中,“GeForce”是英伟推出的显卡品牌,广泛应用于游戏、图形设计、视频编辑等多个领域,以其出色的图形处理能力和性能而著称。 英伟A100 GPU的核心数相当可观,具体来说,它拥有6912个CUDA核心。这些CUDA核心使得A100在高性能计算和人工智能任务中表现出色。 总的来说,英伟A100 GPU以其强大的核心数量、先进的架构和高速的内存,成为了高性能计算和人工智能领域的佼佼者。

    1.8K20编辑于 2024-07-31
  • 来自专栏AI科技评论

    干货 | 5年提速500倍,英伟GPU创纪录突破与技术有哪些?

    英伟 Volta Tensor Core GPU 在深度学习社群取得了哪些巨大突破?这些突破背后有什么核心技术? AI 科技评论按,2017 年 5 月,在 GTC 2017 上,英伟 CEO 黄仁勋发布 Volta 架构 Tesla V100,它被称为史上最快 GPU 加速器。 日前,英伟 Developer Blog 上一篇博文详细陈述了英伟 Volta Tensor Core GPU 在深度学习社群取得的巨大突破,以及种种突破背后的技术细节。 英伟 CUDA GPU 的可编程性在这里也非常重要。 V100 Tensor Core 打破了单处理器的最快处理速度记录 英伟 Volta GPU 中引入了 Tensor Core GPU 架构,这是英伟深度学习平台的巨大进步。

    60830发布于 2018-07-26
  • 来自专栏新智元

    Google Colab现已支持英伟T4 GPU

    之前只提供英伟Tesla K80,现在已经支持TPU了!英伟T4 GPU耗能仅为70瓦,是面向现有数据中心基础设施而设计的,可加速AI训练和推理、机器学习、数据分析和虚拟桌面。 运行命令 ! GPU的型号正是Tesla K80,可以在上面轻松地跑Keras、Tensorflow、Pytorch等框架;最近新增加的TPU是英伟T4,可以在更广阔的天地大有作为了。 免费用GPU 在笔记本设置中,确保硬件加速选择了GPU。 = '/device:GPU:0': raise SystemError('GPU device not found') print('Found GPU at: {}'.format(device_name )) 顺利的话会出现: Found GPU at: /device:GPU:0 不顺利的话: 谷歌允许你一次最多持续使用12小时的免费 GPU

    5.3K80发布于 2019-05-14
  • 来自专栏深度学习自然语言处理

    英伟、AMD断供高端GPU

    图:英伟向SEC提交的文件 NVIDIA(英伟)8 月 31 日向美国证券交易委员会(SEC)提交的一份文件披露,美国政府于 8 月 26 日通知该公司,未来若要出口 A100 和 H100 芯片至中国 此次管制涉及英伟 A100 和即将出货的 H100 两款芯片,以及英伟未来推出的峰值性能等同或超过 A100 的其他芯片。 英伟应用这些高性能 GPU 芯片的系统级产品,也均在美国政府新的管制范围内。 英伟 A100 芯片 目前看,咱们民用系列 RTX 这些显卡不受影响,对游戏佬还好。 受此影响,8月31日,英伟股价下跌 2.42% ,收报 150.94 美元/股;盘后交易中,英伟股价继续下跌 6.56%。 参考资料: https://mp.weixin.qq.com/s/A5XSOpWtfm1dLsmRO3Pppw https://www.caixin.com/2022-09-01/101934154.html

    1.3K20编辑于 2022-09-02
  • 由于成本飙升,英伟GPU涨价10-15%

    5月12日消息,据台媒Digitimes发布的一份新的报告称,人工智能(AI)芯片大厂英伟(Nvidia)最近提高了几乎所有产品的官方价格,以应对美国关税和芯片制造成本飙升对其业务的影响,其中游戏显卡价格上涨了 5%至10%,而AI GPU价格上涨了15%。 此外,英伟还将部分Blackwell GPU的生产转移到了台积电美国亚利桑那州晶圆厂,这也加剧了其生产成本、材料和物流成本大幅上涨。 这一系列的因素都造成了英伟综合成本的上升,而“为了保持稳定的盈利能力”,英伟最近提高了几乎所有产品的官方价格,并允许其合作伙伴相应提高价格。 报道称,在H20芯片的禁令之后,英伟RTX 5090的价格进一步攀升,一夜之间上涨了约10%,其他RTX 50系列显卡也上涨了5-10%。

    30910编辑于 2026-03-19
  • 来自专栏腾讯大讲堂的专栏

    英伟 GPU 十年架构演进史

    计算用的硬件也在加速从 CPU 到 GPU 等迁移。本文试图整理从英伟 2010 年开始,到 2020 年这十年间的架构演进历史。 可以在上面右图看到,GPU 的 Core 数量要远远多余 CPU,但是有得必有失,可以看到 GPU 的 Cache 和 Control 要远远少于 CPU,这使得 GPU 的单 Core 的自由度要远远低于 随着单 GPU 的计算能力越来越难以应对深度学习对算力的需求,人们自然而然开始用多个 GPU 去解决问题。从单机多 GPU 到多机多 GPU,这当中对 GPU 互连的带宽的需求也越来越多。 为了解决这个问题,NVIDIA 提供了 NVLink 用以单机内多 GPU 内的点到点通信,带宽达到了 160GB/s, 大约 5 倍于 PCIe 3 x 16. 最后一个比较重要的特性就是 MIG(Multi-Instance GPU)了,虽然业界的计算规模确实越来越大,但也存在不少的任务因为其特性导致无法用满 GPU 导致资源浪费,所以存在需求在一个 GPU

    5.1K52发布于 2021-10-20
  • 来自专栏AI科技评论

    微软为什么要用英伟GPU来支持CNTK?

    今天下午,在北京举行的GTC CHINA 2016(GPU技术大会)中,英伟深度学习研究院对CNTK中图像识别功能进行了简单介绍。 首先,我们来了解下CNTK。 在微软最新发布的CNTK1.7版本中,CNTK已经支持英伟的最新的深度神经网络资料库cuDNN5.1。 其实在Facebook、百度等巨头的人工智能研究中,经常用到英伟GPU。 Facebook的Big Sur服务器是围绕本来为图片处理而开发的大功率处理器——GPU来设计的。 每8个GPU就配置一台Big Sur服务器,Facebook使用的正是擅长于图像识别的英伟制造的GPU。 百度将把英伟GPU应用到其无人驾驶系统的车载电脑中。

    1K30发布于 2018-03-07
领券