首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Java项目实战

    玩转 GPU】英伟达GPU架构演变

    图片一、GPU架构发展历史 1999年,英伟达发布第一代GPU架构GeForce 256,标志着GPU时代的开始。 随后,英伟达推出了Tesla、Fermi、Kepler、Maxwell、Pascal、Volta、Turing和Ampere等GPU架构,不断增强GPU的计算能力和程序性,推动GPU在图形渲染、人工智能和高性能计算等领域的应用 GPU核心的运行方式与CPU略有不同,在GPU核心中,CPU将数据和指令传送到GPU中去,GPU再将数据加载到GPU的内存中,并利用内部的流处理器执行计算任务。执行完成后,将计算结果传回CPU中。 最近几年,英伟达还在GPU中加入了张量核心和RT核心,可以支持 AI和神经网络计算等新型工作负载。可以看出,英伟达显卡在GPU应用和体系结构上不断创新,推动着整个GPU技术发展。 六、多模态构成 英伟达GPU通过流处理器、张量核心和RT核心实现了多模态设计,可以支持多种工作负载:1) 流处理器用于支持传统的图形渲染和通用GPU计算,代表了英伟达GPU的渲染和计算能力。

    13.8K50编辑于 2023-06-08
  • 来自专栏防止网络攻击

    玩转 GPUGPU加速的AI开发实践

    一、GPU的数据匮乏Google、Microsoft以及世界各地其他组织最近的研究表明,GPU花费了高达70%的AI训练时间来等待数据。看看他们的数据管道,这应该不足为奇。 图片如上图所示,在每个训练Epoch开始时,保存在大容量对象存储上的训练数据通常被移动到Lustre存储系统层,然后再次移动到GPU本地存储,用作GPU计算的暂存空间。 HK-WEKA将典型的GPU匮乏的“multi-hop”AI数据管道折叠成一个单一的、零拷贝的高性能AI数据平台—其中大容量对象存储与高速HK-WEKA存储“融合”在一起,共享同一命名空间,并由GPU通过 如上图所示,HK-WEKA人工智能数据平台支持英伟达的GPUDirect存储协议,该协议绕过了GPU服务器的CPU和内存,使GPU能够直接与HK-WEKA存储进行通信,将吞吐量加速到尽可能快的性能。 与 NVIDIA V100 GPU 上的 Tacotron 2 和 WaveGlow 模型相比,它使用非自回归模型在 NVIDIA A100 GPU 上提供 12 倍的性能提升。

    1.6K00编辑于 2023-05-27
  • 来自专栏云上修行

    玩转 GPU】DragGan初体验

    图片 图片 图片 图片 图片 图片 安装 购买腾讯云CVM云服务器 我是购买了腾讯云亚太区-新加坡-GPU计算型GN7服务器。选择公共镜像CentOS-64位-CentOS 8.4 64位。

    83540编辑于 2023-06-26
  • 来自专栏自动化办公

    玩转GPU】不懂就问,为什么GPU比CPU更快?

    最近ChatGPT大火,背后训练大模型的硬件设备GPU也达到了一片难求的地步。 你有没有好奇:为什么必须要用GPU?CPU被淘汰了吗? 今天我们就来一起学习一下,为什么GPU比CPU更快。 GPU是图形处理单元的英文缩写,是一种专门用于处理图像和视频数据的处理器。 GPU最初是用来加速3D图形的渲染,但随着技术的发展,GPU已经可以执行各种类型的计算任务。 此外,GPU还支持并行计算,这意味着GPU可以同时执行多个指令流,从而加速计算过程。 图片 2、什么场景下适合GPU? 因此,GPU在处理图形和视频数据时速度更快。 能耗:由于GPU的特殊结构和指令集,它的能耗比CPU低。在某些情况下,使用GPU可以节省能源成本。 3、GPU推荐 想体验GPU的同学,可以考虑腾讯云提供的GPU 云服务器 除了价格便宜,还有以下几个优势。

    2.7K00编辑于 2023-06-24
  • 来自专栏GPU炼丹

    玩转GPU】基于GPU的人脸识别模型训练实践

    三、GPU加速模型训练使用GPU云服务器import tensorflow as tf# 创建一个GPU设备列表gpus = tf.config.experimental.list_physical_devices ('GPU')if gpus: # 对需要使用GPU的代码块进行设备指派 try: tf.config.experimental.set_visible_devices(gpus[0], ' GPU') logical_gpus = tf.config.experimental.list_logical_devices('GPU') print(len(gpus), "Physical GPUs,", len(logical_gpus), "Logical GPU") except RuntimeError as e: print(e)我使用了腾讯云的GPU云服务器,配置了2 图片四、总结通过上述实践,我对GPU加速深度学习训练有了更直观的理解。GPU强大的并行计算能力可以极大缩短模型训练时间。要发挥GPU最大性能,需要从模型、算法和部署等各个方面进行优化。此

    1.7K60编辑于 2023-08-17
  • 来自专栏公众号:程序员荒生

    深度总结,带你玩转 NVIDIA GPU

    (计算模式) 下面一张表为:每个GPU Processes的资源占用情况 「注」:显存占用和 GPU 占用是两个不一样的,显卡是由 GPU 和显存等组成的,显存和 GPU 的关系可简单理解为内存和 CPU GPU 的可用时钟频率信息 nvidia-smi -q -d SUPPORTED_CLOCKS 三、获取 GPU ID 信息 nvidia-smi -L 从左到右分别为:GPU卡号、GPU型号、GPU 用于在 Python 中以编程方式使用 nvidia-smi 从 NVIDA GPU 获取 GPU 状态。 GPU 设备 ID memory:通过升序内存使用来排序可用的 GPU 设备 ID limit:将返回的 GPU 设备 ID 数量限制为指定数量,必须是正整数。 (默认 = 0.5) excludeID:ID 列表,应从可用 GPU 列表中排除。见GPU类描述。

    1.9K30编辑于 2022-05-19
  • 来自专栏Web 技术

    玩转 GPUGPU 服务器类型众多,该怎么选?

    本文,我们将探讨当今市场上可用的各种类型的 GPU 服务器,重点介绍它们的主要功能和用途。图片单 GPU 服务器:单 GPU 服务器是最基本的 GPU 服务器类型,配备单个 GPU。 单 GPU 服务器为需要 GPU 加速但不需要多个GPU 提供额外功率的用户提供了经济高效的解决方案。多 GPU 服务器:多 GPU 服务器设计用于在单个服务器机箱中容纳多个 GPU。 多GPU 服务器通常用于金融、医疗保健和科学研究等行业,在这些行业中,复杂的模拟和数据分析至关重要。虚拟化 GPU 服务器: GPU 服务器虚拟化,允许多个用户共享单个物理 GPU。 通过将 GPU 的资源划分到多个虚拟机中,虚拟化 GPU 服务器可以在不需要每个用户都使用专用 GPU 硬件的场景下提供高性价比的 GPU 访问。 云服务提供商(例如, 腾讯云 GPU 云服务器)按需提供 GPU 实例,允许用户访问强大的 GPU 资源,而无需投资物理基础设施。

    3.3K21编辑于 2023-06-25
  • 来自专栏Java项目实战

    玩转 GPUGPU加速AI开发:硬件技术与实践探索

    本文将介绍基于GPU的AI技术开发实践和场景应用,并深入了解GPU硬件相关的技术知识。 人工智能的成功离不开GPU,因为GPU是现代人工智能算法最重要的计算硬件。 因此,在计算密集型任务中,GPU通常比CPU快上许多。由于GPU的计算核心可以执行多个操作,这使得一张卡的计算能力远大于单个CPU。尤其是在许多具有多种任务的应用程序中,GPU通常都会取得优势。 2.3 性能测评在进行CPU和GPU的比较时,GPU的浮点计算性能总是值得关注的重要指标。当处理非常大、需要高速浮点操作处理的问题时,GPU可以使用在速度和图像处理方面的优势来大幅降低计算时间和成本。 图片结语GPU加速的AI开发和实践探索,不断创新的GPU硬件技术,以及对这些技术进行量身定制以满足特定市场需求的技术创新都表明,GPU将会成为未来人工智能领域最重要的设备之一。

    1.9K00编辑于 2023-05-25
  • 来自专栏北京宏哥

    玩转 GPU】深入剖析GPU硬件架构及运行机制

    前言公司安排这一周要给新的毕业应届生和实习的学弟学妹们进行内部培训GPU知识准备的PPT课件,没有想到刚好可以参加这个活动,而且不是什么保密资料,索性就拿出来参加这个活动吧,考虑写文本来说明,但是文本太 好了,赶快开启深入剖析GPU硬件架构及运行机制的学习之旅吧。深入解剖GPU硬件架构及运行机制.pptx

    794140编辑于 2023-08-07
  • 来自专栏Java项目实战

    玩转GPU】部署使用Stable Diffusion 模型

    根据腾讯云公众号教学,部署到云上服务,现在开始跟我玩转AI绘画 官方链接:https://mp.weixin.qq.com/s/nhB7Hsjz_aLkSrUT0mqHWw 主页面: 图片 认识主页面

    3.4K31编辑于 2023-07-10
  • 来自专栏漫天雨落

    玩转GPU】完美去除图片杂乱水印

    首先选购GPU服务器,当然你本地配置够好也可以本地,我这里选择腾讯云的竞价GPU。好处是价格低,如果你想长期使用可以选择包年包月。 install lama-cleaner # Models will be downloaded at first time used lama-cleaner --model=lama --device=gpu ://服务器ip即可访问(成功后会给出访问地址) 注意: 使用过程不要退出连接终端 退出终端,再次使用,依然需要先在终端命令行输入lama-cleaner --model=lama --device=gpu rm cwq1913/lama-cleaner:cpu-0.26.1 \ lama-cleaner --device=cpu --port=80 --host=0.0.0.0 Run Docker (gpu /docker/CPUDockerfile -t lamacleaner . gpu & cpu docker build -f --build-arg version=0.x.0 .

    1.1K10编辑于 2023-08-20
  • 来自专栏云上修行

    玩转 GPU】Penless.ai海报放大

    在数字时代,海报作为一种重要的宣传和展示媒介,扮演着不可忽视的角色。然而,由于传统海报设计的限制,我们常常面临着一个共同的问题:低分辨率的海报图像无法满足高质量打印和展示的需求。为了解决这一问题,我们很荣幸地介绍Penless.ai网站,它的海报放大功能为我们提供了一种简单而高效的解决方案。通过Penless.ai网站,我们可以轻松将512x512像素的海报放大到2048x2048像素,从而显著提升图像的质量和细节。本文将深入探讨海报放大的需求和重要性,以及Penless.ai网站(https://penless.ai)在这一领域的突破性贡献。让我们一起来了解这个令人兴奋的技术吧!

    39930编辑于 2023-07-05
  • 来自专栏windows下tensorflow的使用

    玩转GPU-Windows下tensorflow-gpu2.10看图急速入门

    1.2按照下表查询本机的nvidia GPU算力,若有适合的nvidia的gpu(建议算力3.5以上),安装gpuGPU算力GPU算力GPU算力GPU算力NVIDIA A1008RTX A50008.6GeForce 运算 def gpu_run():     with tf.device('/gpu:0'):        gpu_a = tf.random.normal([100000, 1000])         gpu_b = tf.random.normal([1000, 1000])        c = tf.matmul(gpu_a, gpu_b)    return c# 默认运算 def pu_run (gpu_run, number=10)pu_time=timeit.timeit(pu_run, number=10)# print("cpu:", cpu_time, "  gpu:", gpu_time GPU带来的性能提升才是主要的。3. 若无合适的本机GPU,可以登录https://cloud.tencent.com/act/pro/gpu-study?

    2.7K31编辑于 2023-08-14
  • 来自专栏小白实例

    玩转GPUGPU云服务器的功能与用途详解

    GPU云服务器的功能,并快速上手应用。 第一章 GPU云服务器简介 1.1 GPU云服务器定义 GPU云服务器是指整合了GPU(图形处理器)的云虚拟机服务,相比于传统的CPU云服务器,其显卡具备大规模并行计算能力,能够大幅提升图像处理、科学计算等特定应用场景下的计算性能 1.2 GPU云服务器的特点 计算能力强大:单个GPU拥有数以千计的算力核心,支持海量并行计算。# 导入PyTorch等深度学习框架 数据处理高效:GPU内存带宽远超CPU,大幅加速数据交换与传输。 1.3 GPU类型 常见的GPU主要有NVIDIA、AMD两大品牌,其中NVIDIA在深度学习等应用领域占据主导地位。 本文首先介绍了GPU云服务器的定义、特点、主要GPU类型以及云服务提供商,让用户对GPU云服务器有一个整体认识。

    5.5K10编辑于 2023-07-18
  • 来自专栏用户8320413的专栏

    玩转 GPU】Windows系统下tensorflow-gpu2.10看图急速入门

    1.2按照下表查询本机的nvidia GPU算力,若有适合的nvidia的gpu(建议算力3.5以上),安装gpuGPU算力GPU算力GPU算力GPU算力NVIDIA A1008RTX A50008.6GeForce 运算def gpu_run():with tf.device('/gpu:0'):gpu_a = tf.random.normal([100000, 1000])gpu_b = tf.random.normal ([1000, 1000])c = tf.matmul(gpu_a, gpu_b)return c# 默认运算def pu_run():gpu_a = tf.random.normal([100000, 10)# print("cpu:", cpu_time, " gpu:", gpu_time)print("cpu:", cpu_time, " gpu:", gpu_time," pu:", pu_time GPU带来的性能提升才是主要的。若无合适的本机GPU,可以登录 https://cloud.tencent.com/act/pro/gpu-study?

    1.8K30编辑于 2023-08-15
  • 来自专栏Java项目实战

    玩转 GPUGPU开发实践:聚焦AI技术场景应用与加速

    摘要:本文将探讨GPU开发实践,重点关注使用GPU的AI技术场景应用与开发实践。 首先介绍了GPU云服务器在AIGC和工业元宇宙中的重要作用,然后深入讨论了GPU在AI绘画、语音合成等场景的应用以及如何有效地利用GPU进行加速。 本文将聚焦于GPU开发实践,介绍使用GPU的AI技术场景应用与开发实践,以期为相关领域的研究者和开发者提供有益参考。图片2. GPU作为一种高效的并行计算设备,在HPC领域也有广泛的应用。许多高性能计算软件包(如LAMMPS和PETSc)都支持GPU加速,以提高计算效率和性能。图片3为什么有CPU还需要GPU? GPU加速技术的应用GPU加速技术在AI领域具有广泛的应用,以下是一些常见的应用场景: 1. 深度学习模型训练:GPU可以显著提高深度学习模型的训练速度。

    1.6K00编辑于 2023-05-27
  • 来自专栏云上修行

    玩转GPU】控制Stable Diffusion的光效

    光在图像中扮演着不可或缺的角色,对于图像的整体品质和情感表达起着至关重要的作用。通过巧妙运用各种光线,我们能够突出主体,创造出深度和层次感,以及传递深情厚意,更好地凸显关键细节。

    2.8K51编辑于 2023-07-18
  • 来自专栏云上修行

    玩转 GPU】ControlNet 初学者生存指南

    这是一个充满文艺气息的 ControlNet 快速指南和绘画技巧,本文档的目标是通过描述一张二次元的照片是如何通过ControlNet生成一张满意的三次元照片,来帮助你初步了解如何使用ControlNet。本文假设你已经有使用stable-diffusion-webui的经验。

    1.7K190编辑于 2023-06-13
  • 来自专栏Java项目实战

    玩转 GPU】AI绘画、AI文本、AI翻译、GPU点亮AI想象空间

    本文将从使用 GPU 的 AI 技术场景应用与开发实践、如何有效地利用 GPU 进行加速、为什么有 CPU 还需要 GPUGPU 为什么快等多个方面,逐步深入探讨 GPU 开发实践的相关知识点。 下面我们将分别介绍 GPU 加速的前置条件和 GPU 加速的技术实现。 2.1 GPU 加速的前置条件 首先,需要在计算机中安装支持 GPU 的框架。 这些框架都可以利用 GPU 进行加速。同时,需要在计算机中安装 GPU 驱动程序和 CUDA 工具包,使其可以向 GPU 发送任务。最后,需要选择合适的 GPU 硬件设备。 在选择 GPU 设备时,需要考虑 GPU 设备的计算能力和内存大小等因素。 2.2 GPU 加速的技术实现 图片 GPU 加速可以通过并行计算来提高算法的速度和效果。 图片 总结 本文从使用 GPU 的 AI 技术场景应用与开发实践、如何有效地利用 GPU 进行加速、为什么有 CPU 还需要 GPUGPU 为什么快等多个方面,深入探讨了 GPU 开发实践的相关知识点

    3.3K192编辑于 2023-05-27
  • 来自专栏用户10616523的专栏

    推动网络创新的利器:GPU加速的AI开发实践【玩转 GPU

    在当前人工智能(AI)蓬勃发展的背景下,GPU加速的AI开发实践成为推动网络创新的一项强大工具。在本文中,我将分享关于GPU加速的AI开发实践,以及其在网络领域的应用和影响。 一、GPU加速的AI开发实践GPU(图形处理器)作为强大的并行计算设备,具备卓越的计算性能和内存带宽。 而GPU以其并行计算的能力,能够高效执行这些计算任务,极大地加速了深度学习模型的训练过程。通过GPU加速,网络工程师可以更快速地训练和优化模型,推动AI在网络领域的创新应用。 GPU加速可以提供更高的计算效率和吞吐量,加快NLP任务的处理速度。网络工程师可以通过GPU加速,实现更高效的文本处理和语义分析,提升网络应用的性能和用户体验。 二、GPU加速的AI应用在网络领域的影响2.1 网络性能提升GPU加速的AI应用可以加速数据处理和决策过程,提升网络应用的性能。

    61430编辑于 2023-07-04
领券