首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 910b训练环境配置

    首先需要了解CUDA和CANN以及pytorch和pytorch-npu之间的关系:

    97510编辑于 2025-06-04
  • 来自专栏along的开发之旅

    Ascend 910b上 paddle安装及运行报错排查

    910b上安装paddle最新版还是比较容易的.安装参考官网:pip install paddlepaddle==3.0.0 -i https://www.paddlepaddle.org.cn/packages

    1.2K10编辑于 2025-04-25
  • 来自专栏芯智讯

    中国市场需求不佳,传英伟达下调H20芯片价格!

    在某些情况下,英伟达H20芯片的售价已经比华为Ascend 910B低10%以上。 相较之下,华为Ascend 910B售价约在12万元人民币左右。 需要指出的是,英伟达H20是受美国出口管制影响下,英伟达针对中国市场推出的一款“阉割”产品。 部分性能甚至不及Ascend 910B。显然,这样性能并不能满足中国AI厂商的需求。 报道显示,在过去六个月中,只有五个买家或附属买家表示有兴趣购买H20芯片,而同期Ascend 910B芯片的购买者则达到十几个。 相比之下,分销商销售的Ascend 910B单卡价格超过12万元,而八卡服务器的单卡价格为130万元至150万元。 需要指出的是,去年Ascend 910B才开始加入AI市场竞争,并且供应量相对有限。

    1.6K10编辑于 2024-05-28
  • 来自专栏数通

    架构之争:探秘英伟达与华为/海思GPU性能差异

    英伟达GPU L2/T4/A10/A10G/V100对比: 英伟达A100/A800/H100/H800/华为Ascend 910B对比: 一句话总结,H100 vs. 对于 8 卡 A800 和 910B 模块而言,910B HCCS 的总带宽为392GB/s,与 A800 NVLink (400GB/s) 相当。然而,两者之间也存在一些区别。 ,8*A800也是类似的全网状拓扑); 华为HCCS采用对等拓扑(没有 NVSwitch 芯片之类的东西),所以(双向) GPU-to-GPU 最大带宽是56GB/s; H20/L20/Ascend 910B

    2.2K10编辑于 2024-12-03
  • 来自专栏along的开发之旅

    Ascend 910b vllm运行报错: cannot import name log from torch.distributed.elastic

    在Ascend 910b上运行vllm报错.

    66710编辑于 2025-04-24
  • 来自专栏along的开发之旅

    Ascend 910b 运行vllm报错 libatb.so: cannot open shared object file

    ascend上运行vllm报错, 说找不到 so库OSError: libatb.so: cannot open shared object file: No such file or directory

    92910编辑于 2025-04-24
  • CANN:华为全栈AI计算框架的深度解析(终极扩展版 · 完整篇)

    在昇腾生态中的战略定位 CANN位于昇腾AI全栈架构的中间层,向上支撑MindSpore、PyTorch、TensorFlow等主流框架,向下对接Ascend 310/910/910B等AI芯片。 FP16) 典型应用场景 CANN支持情况 Ascend 310 8 TOPS 边缘推理、摄像头、无人机 ✅ 完整支持 Ascend 910 256 TOPS 数据中心训练 ✅ 完整支持 Ascend 910B data); hcclCommDestroy(comm); aclrtResetDevice(deviceId); return 0; } 性能分析: 带宽利用率:在Ascend 910B causal=True, # 是否启用因果掩码(用于Decoder) softmax_scale=1.0 / math.sqrt(head_dim) ) 性能对比(Ascend 910B 链接到用户程序 g++ -o my_app main.cpp libmatmul.a -lacl -lhccl 应用场景与行业案例 案例1:千亿参数MoE大模型训练 硬件:1024 × Ascend 910B

    60710编辑于 2025-12-23
  • 来自专栏福大大架构师每日一题

    华为将大规模推出AI芯片,助力替代英伟达H100,打破限制!

    据消息透露,910C芯片采用先进的集成工艺,将两个910B处理器集成在同一封装内,性能表现与英伟达H100相当,其计算能力和内存容量均为910B的两倍,并具备逐步优化的特点。

    50510编辑于 2025-04-24
  • CANN 技术全景图:构建自主可控的 AI 全栈底座

    二、逐层解析:CANN 的核心技术能力 第 5 层:Ascend 芯片 —— 算力之源 达芬奇架构 NPU:Cube 单元支持 INT8/FP16/FP32 混合计算; 高能效比:910B 达 256 FP32) 运行时:Medical SDK + DICOM-SR 输出 合规:等保三级 + 模型加密 效果:22 秒/例,医生采纳率 89% 案例 2:L4 无人配送车感知系统 芯片:双 Ascend 910B

    13310编辑于 2026-02-09
  • CANN 能效分析:如何实现 10 TOPS/W 的极致能效比

    NX 2.1 TOPS/W 边缘推理 Apple M3 Neural Engine 8.5 TOPS/W 移动端 Ascend 310P(CANN) 10.2 TOPS/W 工业边缘 Ascend 910B yolov8_int8 效果: 模型 FP16 功耗 INT8 功耗 能效比提升 ResNet-50 8.2W 5.1W +58% BERT-base 12.4W 7.3W +69% 此外,Ascend 910B

    19610编辑于 2026-02-09
  • 来自专栏轻咨询服务

    近海区域的海流指标监控实战分享-需要什么配置的AI服务器和云平台

    从项目配置来看,往往同时训练多个指标,800T的算力满足一个指标足够,如果要并行多指标运算,建议配置910B,甚至910C 4核 512G内存,它们的性能才是工程之选。

    22200编辑于 2025-04-09
  • 来自专栏烧结银

    纳米烧结银:“养龙虾OPENCLAM”背后铲子的铲子

    一、逻辑链条的逐层验证1.纳米烧结银是AI服务器散热的核心材料AI服务器,如搭载英伟达H100、昇腾910B等AI芯片的服务器是高功率电子设备,其GPU、CPU等核心芯片功耗可达700W以上,需高效散热材料保障稳定运行 例如:英伟达DGXH100服务器搭载8颗H100GPU,单柜算力达640PFLOPS,可支持大模型的分布式训练;华为昇腾910B服务器采用7nm工艺,单芯片算力达256TFLOPS,为大模型的推理提供高效算力

    5910编辑于 2026-03-12
  • 来自专栏轻咨询服务

    气象全球基础要素模型配置AI服务器实战术分享

    综上,共要15+15+5=25P INT8算力,必须用910B/910C这些AI服务器,如果需要实时推理,还必须16个芯片,64核/片,并行计算,也就是64*16=1024核的AI服务器才能满足。

    23700编辑于 2025-04-10
  • 腾讯云运营商行业人工智能解决方案:从基础设施到场景落地的全栈重构

    包含TACO加速、自研紫霄AI芯片、910B/H20算力支持,以及星脉高性能计算网络架构和向量数据库,确底层算力底座的稳健与高效(来源:P9, P13)。 适配国产 910B算力,具备多租户能力,核心功能包括多轮问答与意图理解。 成效:构建了从知识生产到运营的端到端流程,不仅消耗了自建算力池,还实现了研发管理的精细化与智能化(来源:P28)。 3.

    27710编辑于 2026-02-04
  • 近期科技新闻大盘点:AI、芯片、互联网巨头最新动态

    华为推出全新 AI 计算平台,挑战国际巨头 华为近日发布了最新的 AI 计算平台“昇腾910B”,在算力和能效方面取得了重大突破。

    22710编辑于 2026-01-21
  • 来自专栏程序员成长指北

    居然有比 npm link 更好的调试?

    versions ✔ Run 0 scripts ✔ All packages installed (used 213ms(network 209ms), speed 4.25KB/s, json 1(910B

    1.9K20发布于 2021-07-08
  • DeepSeek R2 要来了?

    难怪@Neuralithic直呼这是要"掀桌子"的节奏 • 中国芯加持:5.2PB的训练数据全靠华为Ascend 910B芯片撑着,效率居然能达到A100集群的91%,这数据看得@iruletheworldmo

    36611编辑于 2025-06-09
  • 来自专栏along的开发之旅

    ascend pytorch 踩坑.

    910b上安装pytorch 和 pytorch_npu, 因为后续准备装vllm, 所以torch_npu是特殊的版本.pip install torch==2.5.1 --extra-index

    1.3K10编辑于 2025-04-23
  • 来自专栏前端三元同学

    我曾为 npm link 调试过程感到痛不欲生,直到我遇到这个宝藏神器

    versions ✔ Run 0 scripts ✔ All packages installed (used 213ms(network 209ms), speed 4.25KB/s, json 1(910B

    9.3K50发布于 2021-07-06
  • 《初探CANN模型适配:手把手带你跑通第一个AI模型》

    性能参考(Ascend 910B):单次前向耗时从 45ms 降到 4.2ms,吞吐量提升 10 倍,显存占用不变。

    27710编辑于 2025-12-24
领券