首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 应对仿真力潮汐,构建“存分离”混合云架构

    突破力瓶颈与数据合规限制作为国内首家同时拥有高性能云端训练和推理产品的AI芯片设计企业,燧原科技致力于成为人工智能力基础设施领域的领军企业。 在推进第二代人工智能训练推理产品组合的过程中,企业面临着严峻的研发效能与架构挑战:●应对仿真力潮汐:在芯片仿真验证阶段,力需求呈现爆发式增长(潮汐效应),导致本地资源短缺,系统稳定性下降,急需提升力供给的弹性与稳定性 ,实现云端数百台大规格实例的在线仿真,解决本地资源瓶颈。 云端力节点通过专线VPN网络访问本地服务器进行鉴权与数据读取,确保资产不离境。●自动化混合调度:芯片仿真验证集成平台通过调度Job任务,自动构建并并行分发作业到云端各个节点。 ●敏捷响应机制:具备随时响应需求的团队经验,能够协助客户快速排障,确保云上仿真验证的成功率与连续性。stru

    28910编辑于 2025-12-22
  • 来自专栏芯智讯

    Cerebras推出全球最强AI:5400万个AI内核,力高达4 exaFLOPS!

    目前,该网络上的第一台AI超级计算机——“Condor Galaxy 1(CG-1)”开始部署,AI力高达4 exaFLOPS(每秒4百亿亿次),这也是目前性能最强的AI超级计算机。 而为了推动WSE-2的商用,Cerebras还宣布推出了CS-2 AI超级计算机,其基于单个WSE-2芯片打造,不仅比任何其他AI系统使用空间更少、功耗更低、但运算性能更高。 △CS-2 AI超级计算机 此次,Cerebras携手G42打造的力高达4 exaFLOPS的最强AI超级计算机CG-1,正是由64台CS-2 AI计算机组合而成。 5400万个AI内核,AI4 exaFLOPS 据介绍,CG-1与任何已知的GPU集群不同,其由64台CS-2 AI计算机组成,每台CS-2 AI计算机则是由一个WSE-2芯片所驱动,这也使得整个 CG-1系统当中的AI内核数量达到了5400万个,总的AI力(FP16)达到了惊人的4 exaFLOPS(400万万亿FLOPS),总体的片上内存容量达到了82TB,各个CS-2系统间的带宽速率高达388Tbps

    64420编辑于 2023-08-09
  • 来自专栏新智元

    NASA「史上最强」投入使用,碾压老霸主Pleiades

    不过,这次这个Aitken,其实不是新造的,而是对老系统的一次升级。 此前,这台一直是数百名与NASA有关的科学家和工程师的关键资源,为该机构的太空探索、地球科学和天体物理学方面的研究项目提供重要的力支持。 此前,Aitken在去年6月的Top500榜单中排名第 72 位,今年上升至第 58 位。 「模块化」升级,经济又实用 由于任务需要,NASA要的不是单体的、独立的大型系统,比如最近刚刚登顶Top500榜单的「E级」Frontier,而是采取了类似于最近欧洲设计(如LUMI)的 据悉,该系统的最初设计 「仅有」46080个英特尔Cascade Lake核心,也是由HPE提供的。

    74820编辑于 2022-07-21
  • 来自专栏新智元

    全球TOP500最新排名:搭载ARM日本Fugaku首次夺冠!中国总数实力霸榜

    日本Fugaku首次搭载ARM芯片夺冠。中国总数持续占据500强主导地位,共有226台算上榜。 最近,TOP500超级计算机排名最新出炉。日本Fugaku首次搭载ARM芯片夺冠! 无独有偶,在最新的TOP500排名中,使用48核ARM芯片的日本Fugaku位列世界第一。 去年,K退役。 Fugaku由日本理化研究所联合富士通打造,此前的代号叫Post-K,也就是京后一代的意思,最终以富士山的名字正式命名为Fugaku。 与现有相比,这代最大的变化就是采用ARM架构,由富士通的48核A64FX SoC提供支持。 Fugaku的浮点部分是与ARM合作的SVE指令扩展,使用了512bit浮点运算单元,每个节点使用48核+4辅助核,IO及计算节点则是48核+4辅助核结构。

    2.4K20发布于 2020-06-29
  • 来自专栏镁客网

    500强榜单发布,美国“Summit”重回第一 | 热点

    时隔五年,美国“Summit”终于超越中国神威·太湖之光,重回第一。 ? 据悉,本次的榜单的前三名依次是美国“Summit”、中国“神威·太湖之光”和来自美国的“Sierra”。 随后排在第四和第五位的分别是中国“天河二号”、日本“人工智能桥接云基础设施”(ABCI)。 基于Linpack基准测试评定,“Summit”的浮点运算速度为每秒12.23亿亿次,峰值接近每秒18.77亿亿次;排名第二的是曾4次蝉联冠军的中国“神威·太湖之光”,其浮点运算速度没有变化,仍维持在每秒 目前,因半导体产业起步早,在方面,美国仍然占据主要地位,但是中国算数量也在持续增加,其跻身500强的比例逐年增高。 数据显示,中国算数量已经从2017年的201台增加到了206台,现在仍有更多在建的,未来有望在力上再次赶超美国。

    66130发布于 2018-07-31
  • 来自专栏镁客网

    日本“京”即将永久退役,7年前曾为第一

    日前,日本理化学研究所称超级计算机“京”将于今年8月正式停用,然后进行撤除。而作为替代方案,日媒报道称日本也将投入1300亿日元(约12亿美元)启动下一代国产超级计算机计划,并于2019财年开始打造,2021财年投入运行。

    1K30发布于 2019-03-08
  • 来自专栏新智元

    较量】美国时隔六年重回榜首,中国如何前行

    不过,在上榜总数上,中国仍居第一。中科院计算机研究所并行软件实验室主任张云泉对此发表了一定的见解:对美国算是如何反中国、中国存在的问题以及中国的未来做出了分析。 而特朗普就任以后,却对极其重视,在砍掉了很多科学研究预算的情况下,的预算不但没砍,反而增加了。 美国超级计算机Summit 此前中国的如何夺得多次冠军? 如果画一条中国的性能发展曲线的话,可以看到,中国的实际上是从一穷二白做起的。 TOP500中美国与中国的份额对比 中国的存在哪些问题? 中美的竞争还将继续。 中国何时可以重夺榜首之位? 美国重回排名榜首的新闻发布后,很快有消息说,别担心,中国9月份就可以重回TOP500的榜首了。 这个绝对是谣言。

    89100发布于 2018-07-31
  • 来自专栏新智元

    【技术解密】比美国快5倍,神威凭何登上全球榜首

    3 大突破 神威太湖之光由国家并行计算机工程技术中心研发,在无锡国家中心安装完成,2015年12月21日完成整机系统性能测试,目前由清华大学负责运营。 虽然我国处理器设计制造起步较晚、基础薄弱,但通过近十年政府支持和大力投入,目前我国在领域已经处于世界领先水平,也是继美国、日本之后,第 3 个研发出超级计算机的国家。 1993年至今美国TOP500超级计算机数量 但由于天河 2 号采用了英特尔处理器,2015年4月,美国宣布对中国禁售高性能处理器。 4个内存控制器总共提供了136.5GB/s的带宽。 每组内部有自己的专属内存空间,组间通过片上网络(NoC)进行通讯。片上网络还连接着系统接口(SI),供芯片同外部设备通讯。 ? 神威太湖之光采用中国自主设计和研发的芯片,在领域树立了新的标杆,在美国 X86 之外建立了新的生态,可以说中国有了自己的产业链,未来还可能向其他国家输出。

    1.8K70发布于 2018-03-27
  • 来自专栏HyperAI超神经

    NVIDIA 联合创始人回报母校,捐款 4 亿建学界最快

    By 神经 内容提要:7 月 21 日,佛罗里达大学与英伟达宣布,建立公私合作伙伴关系,双方联合投入 7000 万美元(约合人民币 4.88 亿元),打造全球高等院校最快 AI 超级计算机。 关键词:佛罗里达大学 校友 英伟达 AI 7 月 21 日,佛罗里达大学宣布,与英伟达建立公私合作伙伴关系,为学生、教职员工和研究人员提供最强大的 AI 训练和工具,打造全球高校最快 AI 超级计算机 投 7000 万美金,力求高校最快 AI 此次合作,佛罗里达大学共获得了 7000 万美元(约合人民币 4.88 亿元)的投资。 6 月底出炉的最新一届 Top500 排名前十 在最新 Top500 排名中,日本富岳 Fugaku 以 415 petaFLOPS 的运算速度位列第一,而新一代 HiperGator 的

    1.5K20发布于 2020-07-23
  • 来自专栏大数据在线

    美国斥巨资研发E级Frontier,中美竞争再度白热化!

    可以说,未来2-3年时间内,中国与美国各自三台E级超级计算机将会把中美之间的竞争再度推向白热化。 神威E级原型机由国家并行计算机工程技术研究中心联合国家超级计算济南中心等团队联合研制,该原型机硬件、软件和应用三大系统中,处理器、网络芯片组、存储和管理系统等核心器件全部为国产化,分别是神威26010 据悉,神威E级原型机预计于2020年完成研制部署,建成之后将性能会是“神威·蓝光”的三倍,体积仅为后者的九分之一,能耗同比下降75%。 目前,神威E级原型机已完成包括全球气候变化、海洋数值模拟、生物医药仿真、大数据处理和类脑智能等12个领域的35项重大计算任务。 ?

    1.8K20发布于 2019-07-08
  • 来自专栏自然语言处理(NLP)论文速递

    GPT-4又被?Inflection新一代大模型,40%力直逼GPT-4

    又一个媲美 GPT-4 的大模型出现了? 本周四,美国 AI 创业公司 Inflection AI 正式发布新一代大语言模型 Inflection-2.5。 机器之心也简单测试了下,觉得确实还只是「逼近」(不如)GPT-4,感兴趣的读者可以自行体验下。 链接:https://pi.ai/talk 值得注意的是,Inflection-2.5 实现了接近 GPT-4 的性能,而训练过程却仅使用 GPT-4 40% 的力。 Inflection-2.5 vs GPT-4 Inflection-1 训练使用的 FLOP 约为 GPT-44%,在各种「IQ 导向」型任务中,其平均性能约为 GPT-4 水平的 72%。 现在,Inflection-2.5 尽管只使用 GPT-4 40% 的 FLOP 来进行训练,但其平均性能却达到了 GPT-4 的 94% 以上。

    29210编辑于 2024-03-11
  • 来自专栏新智元

    地表最强AI震撼发布!4 ExaFLOPs力破天,6000亿参数模型10天训完

    新智元报道 编辑:拉燕 Lumina 【新智元导读】Cerebras联手G42打造了地表最强——Condor Galaxy 1(CG-1)。 2024年,这样的将有6个,最高可提供36 ExaFLOPs力。 Cerebras又放大招了! 拥有64个CS-2节点、5400万核心、4 ExaFLOPs力、并支持6000亿参数模型,第一次训练运行时间只需要10天。 CG-1旨在使大型突破性模型的训练更加轻松快速,从而加速创新。 - 第二阶段: Cerebras将把CG-1的规模扩大一倍,将其扩展到64个CS-2系统,速度为4 exaFLOPS。一个64节点系统代表一个完整的实例。 2024年全面部署Condor Galaxy后,其将成为世界上最大的云AI之一。运算能力达到36 exaflops,是英伟达以色列一号的9倍,是谷歌已发布的最大TPU v4 pod的4倍。

    86910编辑于 2023-08-07
  • 来自专栏新智元

    AMD将成全球首个E级供应商?美国Frontier全AMD架构,千万GPU核心

    ---- 新智元报道   编辑:LRS 【新智元导读】最近几年E级的呼声越来越高,但始终还没有哪个国家推出百亿亿次。 美国Frontier近期开启公开测试,采用全AMD的架构,含千万GPU核心,美国能全球首发E级吗? 排行榜,明年可能要迎来大变化! 但各个国家对的需求没有止步,各种科学仿真实验都需要更强大的,负责ORNL计算设施的Justin Whitt表示,Summit需求量大概相当于实际能力的4-5倍,所以组装新Frontier 一位不愿透露姓名的权威人士表示,去年3月,在申威Sunway Oceanlite架构上跑过一次LINPACK,也就是目前排行榜排名第4的神威太湖之光的下一代产品,其峰值计算性能达到了1.3 exaflops 前面提到的Aurora设计功率就是40MW,而欧洲更是致力于将其首套E级能耗控制在10MW内。 还有近两年芯片行业短缺、产能不足也会影响的组装和研发进展。

    1.2K10编辑于 2022-04-06
  • 来自专栏新智元

    美国再砸6亿美元造E级,2023年问世,力盖世抵现Top10总和

    ---- 新智元报道 来源:tomshardware 编辑:大明 【新智元导读】美国能源部宣布建设新的“E级”El Capitan,力将达到1.5EP,预计2023年上线,是现有最快算算力的 10倍,超过目前“500”榜单上前10名的力总和,同时实现了4倍的能效提升。 但新将使用什么CPU和GPU,目前尚不得而知。 美国能源部(DOE)和国家核安全局近日宣布,制造商Cray的Shasta超级计算平台将成为El Capitan的支柱。 目前的超级计算机在性能最高可达400petaFLOPS,可在200petaFLOP级别上内提供持续力。(1E=1000P) 目前世界上最快的10台中,有4台归美国能源部所有。 美国能源部尚未透露El Capitan将使用多少机架,如果该的刀片机架首尾相连,长度将比优胜美地国家公园中的3600英尺高的酋长岩(El Capitan)山峰高三倍。该的名字正是由来于此。

    1.1K10发布于 2019-08-15
  • 来自专栏技术杂记

    反作弊如何检测系统仿真4

    RDTSC / CPUID / RDTSC EasyAntiCheat还使用标准定时攻击,使它们可以通过适当的TSC仿真(在前面的小节中进行了描述)被规避。 4.png 我们还确认了它正在检查的位是中的系统调用启用位(SCE)IA32_EFER。由于使用了Daax和ajkhoury的博客上发布的EFER的syscall挂钩方法的发布,它会检查此位。 ( NtDeviceIoControlFile ) { OutputBufferLength = 6; InputBufferLength = 4; 我们为他们的检查提供了规避方法,并计划将来发布用于TSC仿真的完整,完善的解决方案。但是,如果读者不热衷于等待,我们提供了如何实现的逻辑演练。

    2K140发布于 2021-01-05
  • 全球Top500公布:El Capitan蝉联第一,中国跌至20名之外!

    Capitan以1.742 exaFLOPS的峰值力蝉联全球性能榜首。 4、JUPITER Booster以793.4 Petaflop/s 的HPL性能排名第四。该系统安装在德国于利希的 EuroPHC/FZJ,由于利希超级计算中心运营。 该安装在微软Azure云平台上,并且它依然是Top500中最高排名的云计算系统。 它是一套Atos BullSequana XH2000系统,处理器为英特尔Xeon Platinum 8358 32C 2.6GHz,并配备了英伟达A100 SXM4 40 GB,互连接口为四轨英伟达HDR100 总结来看,在本次公布的全球TOP500性能榜单前十当中,AMD为其中5个系统提供了助力,并且还占据了前二。

    57410编辑于 2026-03-19
  • 来自专栏服务端技术杂谈

    马斯克:3-4年内,“太空”将是成本最低的

    SpaceX新一轮估值达8000 亿美元 但马斯克说,Space X的价值来自于太空中心。 而且这是 4 年内实现扩展的最快方式,因为地球上已经很难找到便捷的电力来源。 AI第一阶段竞争是力,第二阶段竞争是能源。 马斯克的太空,一举两得。 对别人来说太科幻,但对马斯克来说,怎么感觉很现实呢,这就是马斯克的魅力吧。

    14810编辑于 2026-03-11
  • 来自专栏时间之外沉浮事

    CrystalNet:逼真地仿真大型生产网络

    5.1 静态仿真边界 在CrystalNet中,我们将仿真设备定义为运行实际设备固件和生产配置的设备。例如,在图7a中,T1-4和L1-4都是仿真设备。 例如,在图7a中,在使用边界网关协议(BGP)的数据中心网络上,我们运行T1-4和L1-4作为仿真设备,运行S1-2作为speakerdevices。 例如,假设操作员只想仿真L1-4而不是T1-4,图7c给出了一个安全边界。这是因为边界设备S1-2、L1-2、L3-4处于三个不同的AS中,如果不通过仿真网络区域,则它们彼此之间将无法到达。 集成P4 ASIC仿真器。虽然来自三大厂商的映像都带有ASIC仿真器,但开源交换机OS CTNR-B却没有。 如表4所示,算法1找到的最终仿真网络有4个叶子和16个TOR,它们位于目标吊舱内,外加64个脊椎和4个边界。仿真设备总数为88台,不到整个网络的2%。

    3.6K41发布于 2020-02-25
  • 来自专栏智能相对论

    力形态进化后,AI能解开数据科学团队的力桎梏吗?

    AI——人工智能数据中心的小型化, 问题的答案? 从具体参数看,AI表现出十分超前的性能。 而在具体场景中,很多组织也在通过AI获得力。 中科院深圳先进技术研究院医工所在医疗影像图谱分析领域借助AI算进行神经网络训练,相比传统CPU计算方案,单台搭载4个V100 GPU的DGX产品,提升训练速度 40 倍以上,大大减少了模型训练的时间。 可以看到,AI正在满足不同类型组织中的数据科学团队需要。 除了力,AI 还将解决数据团队的“要素配置”难题?

    1.4K30发布于 2021-07-22
  • 来自专栏机器之心

    亚洲最大AI,商汤智中心AIDC今天启动运营

    作为 SenseCore 商汤 AI 大装置计算基础设施的重要组成部分,AIDC 一期工程的设计算力为每秒 3740 Petaflops(1 Petaflops 为每秒千万亿次浮点运算),是亚洲最大的中心之一 在报道的新闻中,我们经常会见到 Petaflops 这个单位,其代表每秒一千万亿次单精度浮点运算(10 的 15 次方)。 目前国内已知最大的人工智能的力中心是鹏城实验室的「鹏城云脑 II」,输出 1000 Petaflops 力。商汤 AIDC 的力,每天可处理时长 23600 年的视频。 自成立之初,商汤便一直深耕力基础设施建设,已在主要区域市场建立了 23 个 AI 超级计算集群。 商汤构建 AIDC 的计划始于 2018 年 4 月,当时该公司开始布局原型机研制项目。 AIDC 启动运营后,将进一步扩展商汤的 AI 规模,使商汤的总算力超过每秒 4910 Petaflops。 在短时间内建设如此大规模的 AI 计算中心,在国内范围内尚属首例。

    1.6K20编辑于 2022-02-23
领券