首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 垂直堆叠3D芯片突破AI瓶颈

    研究人员创造了一种新型的3D计算机芯片,该芯片将存储和计算元件垂直堆叠,极大地加快了芯片内部的数据移动速度。与传统平面设计不同,这种方法避免了制约当前AI硬件的“交通拥堵”问题。 在硬件测试和模拟中,这款3D芯片的性能比2D芯片高出一个数量级。研究人员之前在学术实验室中制造过实验性3D芯片,但该团队表示,这是第一次在商业代工厂中生产出性能明显提升的芯片。 像这样的突破是我们实现未来AI系统所需的1000倍硬件性能提升的方式。” 平面芯片为何难以应对现代AI像ChatGPT和Claude这样的大型AI模型,不断地在存储信息的内存和处理信息的计算单元之间穿梭大量数据。 如果我们能制造出先进的3D芯片,我们就能更快地创新、更快地响应,并塑造AI硬件的未来。”这项研究在某大学、某机构、某大学和某理工学院进行,所有制造工作均在某机构的代工厂完成。资金来自多个机构和项目。

    20910编辑于 2026-03-26
  • 来自专栏创作是最好的自我投资

    AI时代,存 or 哪个更重要

    然而,在AI技术如此迅猛发展的今天,我们不禁要问:究竟是还是存储能力,是推动AI技术飞速发展的关键核心呢?,即计算能力,是指在进行数学运算、逻辑运算以及数据处理等操作时所具备的计算效能。 在云计算环境下,面对海量的数据库,需要强大的来高效执行诸如数据挖掘、机器学习模型训练等复杂任务,这涉及到大规模矩阵运算、深度神经网络的前向传播与反向传播计算等,对的要求极高。 总的来说至此,我们能够清楚地认识到,存对于AI技术的发展而言,有着同等的重要意义。若缺乏AI就会失去从海量数据里迅速挖掘有效信息的能力,这就好比轮船没有了驱动自身向前航行的螺旋桨一样。 从另一方面来说,要是没有存AI发展所依存的海量数据就没有地方存放。一旦失去数据这个支撑,AI就如同轮船脱离了能够航行的海水,最终只能停滞在原地,无法前行。 总的来说,AI技术的快速发展就像鸟儿飞翔需要一双有力的翅膀一样,绝对离不开存这两者如同双翼般的支撑。这就如同行人在进行长途跋涉时,必须要依靠双脚的力量一样,缺一不可。

    47820编辑于 2025-01-12
  • 来自专栏新智元

    「2020中国AI报告」重磅出炉:中国怎么解决GPT-3难题?

    报告从AI产业发展趋势、市场规模、区域分布和行业AI力保有程度等多个角度进行全面综合评估,旨在评估中国人工智能发展的现状,为推动产业AI化发展提供极具价值的参考依据和行动建议。 而且,随着模型参数和训练数据越来越大,若跟不上,GPT-3根本「跑」不起来。 我们可以用petaflops/s-day这个单位来衡量,可以玩「变脸」的生成对抗网络(GAN)大概需要3petaflop,目前全球第一快的超级计算机日本的富岳Fugaku ,每秒550petaflop ,也就是数据的处理能力,与数据、算法,并称为AI三要素。从GPT-3中可以见得,如果没有强大的处理能力,模型的规模再大、再全面,也是纸上谈兵。可以说,已经成为制约AI产业化发展的关键因素。 如果智能计算中心成为全行业的提供者,以中国AI市场的规模,类似GPT-3、谷歌T4的超大AI模型的出现将被提上日程,届时,我们就会真正感受到「改变中国,驱动未来,是生产」。

    61350编辑于 2023-05-22
  • 来自专栏IT创事记

    AI催生供给侧变革

    金融行业需要分析复杂系统中的数据变量,寻求应对跨区域、跨品种风险的最优投资组合;医药行业通过运用HPC和AI,能够大幅缩短DNA测序、基因表达、3D建模、药物研究等工作的探索时间;制造业则借助强大的计算和分析能力 需求端的红火固然可喜,但有效的供给难免出现结构性短缺的问题。对应的产品、服务和解决方案,与客户需求之间时常存在错配现象。人们期待HPC和AI的供给侧,也能来一场轰轰烈烈的变革。 发生供给侧变革 身处HPC和AI的风口浪尖,很多设备商和服务商已经感受到了供给的痛点,积极进行相关的战略布局和产品研发。 改变世界 到底是如何改变世界的呢?再回到本文开头提到的零售业——这是人们日常生活中最容易触摸到的行业,其演变轨迹处处闪现着的魔力。 强大的正在改变零售业,改造所有传统行业,最终也将创建一个全新的世界。

    47120编辑于 2022-08-30
  • 来自专栏智能相对论

    形态进化后,AI能解开数据科学团队的桎梏吗?

    几乎所有AI场景对的需求都在加速膨胀,过去一些年,市面上能够提供给数据科学团队的形态,在一定的条件下都未必能很好地满足需要,尤其是主流的基于CPU的庞大数据中心,在计算能力上离支撑快速迭代要求的水准还有较大差距 而在具体场景中,很多组织也在通过AI获得。 可以看到,AI正在满足不同类型组织中的数据科学团队需要。 除了AI 还将解决数据团队的“要素配置”难题? 小结 如同PC的发展,从一间房到半张桌,从KB到GB到TB,从专业团队操作到人人可用,AI设备也在经历类似的过程,高能力、低门槛,优质资源正在实现更好的触达,让组织的数据科学团队更好地获取匹配的 AI成为了AI应用创新的起点,但它也是AI应用落地的结果,市场需求始终“水涨船高”,形态的进化,还将继续。

    1.4K30发布于 2021-07-22
  • 来自专栏科技云报道

    “大建设”时期,AI何去何从?

    就是生产,得者得天下。 随着新一代人工智能技术的快速发展和突破,以深度学习计算模式为主的AI需求呈指数级增长。 AI进入“大建设”时期 AI对于提升国家、区域经济核心竞争的重要作用已经成为业界共识。 近年来,随着“东数西”工程的启动以及智中心的建设,从国家层面实现有效的资源结构整合,目前全国已有8地启动建设国家枢纽节点,并规划了10个国家数据中心集群,以推进集约化、绿色节能、安全稳定的基础设施的建设 2020,OpenAI推出的GPT-3大模型拥有1750亿参数,训练成本达到了1200万美元。 因此,智能驾驶AI模型对于汽车从L1/L2辅助驾驶阶段走向L3/L4自动驾驶阶段,并最终实现“智能决策、实时控制”的功能具有重要作用。

    48330编辑于 2023-02-14
  • 来自专栏新智元

    即王道!千亿级AI大模型,没有「网」怎么行?

    ---- 新智元报道 编辑:好困 yaxin 【新智元导读】就是生产,得者得天下。千亿级参数AI模型预示着大爆炸时代来临,不如织起一张「网」试试? 得者得天下。 为了训练GPT-3,微软新建了一个搭载了1万张显卡,价值5亿美元的中心。 模型在训练上则消耗了355个GPU年的,而成本超过460万美元。 通过自动混合并行模式实现了在2048卡集群上的大规模分布式训练。 在预训练阶段,模型学习了40TB中文文本数据,并通过行业数据的样本调优提升模型在场景中的应用性能。 人工智能计算中心的关键技术 以MindSpore(昇思)来说,作为一个自研的AI框架,已经在2020年3月全面开源。 人工智能计算中心具有了训练、推理能力以及供AI开发的平台,自然也就有了能够向外输出的强大了。 那么问题又来了,建设这么一堆人工智能计算中心就够了么? 不如把连成「网络」?

    2K60发布于 2021-10-12
  • 来自专栏科技云报道

    “吞金兽”ChatGPT背后:AI告急!

    据上文,我们已知训练一次1746亿参数的GPT-3模型需要3640 PFlop/s-day的及460万美元的成本,假设单位成本固定,测算ChatGPT单月运营所需约 4874.4PFlop/ AI霸权时代的到来 模型需求增速超越芯片性能增速,霸权时代或将到来。 据OpenAI测算,自2012年以来,全球头部AI模型训练需求3-4个月翻一番,每年头部训练模型所需增长幅度高达10倍。 而摩尔定律认为,芯片计算性能大约每18-24个月翻一番。 因此,AI训练模型需求增长与芯片计算性能增长之间的不匹配,或将带来对基础设施供给需求的快速增长。 考虑到对于AI模型训练效果的关键性作用,拥有更丰富资源的模型开发者,或将能够训练出更优秀的AI模型。

    1.5K90编辑于 2023-02-23
  • 来自专栏人工智能头条

    如何提升AI?他们这样说......

    7 月 21 日,“决胜算时代 ”AI 高端闭门分享会在北京天使汇极客咖啡举办。本次分享会由 CSDN 发起,由 CTO 俱乐部,深脑链、AI 科技大本营和区块链大本营协办。 分享会从 AI 的现状和趋势谈起,并从硬件设计和算法优化两个层面切入,剖析提升的最新落地经验和误区,最后针对成本居高不下的普遍现状,引入的新型协作方式---借用区块链生态的分布式协作,大幅降低企业成本 AutoML 的整个过程需要大量的计算,它对需求分为两部分,第一部分是本身的模型评估,这与平时模型的训练类似。 ▌3. PerfXLab澎峰科技联合创始人张先轶分享了主题为《InferXLite:轻量级深度学习推理框架》的内容。 由于爆炸增长的 AI 需求是目前制约人工智能发展的主要瓶颈,所以他谈到了区块链如何以分布式协作,将“挖矿”和 AI 训练结合在一起,将汇集闲散的用于 AI 训练中,以及如何将区块链浪费资源的计算转化为高效率的人工智能深度学习

    1.1K10发布于 2018-08-03
  • DeepSeek自研AI芯片,AI新变革?

    AI告急,成本掣肘发展当下,AI技术迅猛发展,从科研领域的复杂模型训练,到日常生活里智能语音助手的实时交互,成了决定AI发展的关键因素。 近年来,已有至少16家国产芯片厂商与DeepSeek展开适配合作,显示其在构建多元生态上已有所布局。 对开发者来说,更高效的模型意味着更低开发成本和更高效率;对企业用户而言,强大的AI性能能为业务创新提供有力支持,提升竞争。 若DeepSeek自研AI芯片成功,将为AI应用提供更高效、经济的支持,推动AI在智能交通、医疗、金融等领域落地,加速各行业智能化升级。不过,该计划尚处早期,还有技术难题待攻克。 但无论如何,DeepSeek这一举措已在AI领域播下极具潜力的“种子”,其未来发展值得持续关注。公众号:之光

    38810编辑于 2025-02-17
  • 来自专栏深度学习与python

    当 GPU 成为主角:解锁 AI 集群中那 85% 的闲置 CPU

    作者 | 棱镜 近年来,全球 AI 规模按接近指数级的幅度增长,GPU 已然是整个数据中心的绝对主角,而 CPU 一般被认为只是承担数据预处理、任务调度和通信协同的次要部分。 如意 (RUE) 的在离线混部技术吸引了行业目光,采用深度改造 Linux 内核调度体系的办法,它可以把 GPU 节点闲置的 CPU、网络、IO、内存资源再次激活,使一台服务器可安全承载两类任务,实现的高效释放 3 生产环境的验证:从 15% 到 45% 的资源利用率跃迁 任何创新最终都要接受生产环境的检验。 在成为基础设施的今天,其价值是无限的。随着 GPU 计算能力的提升,CPU 在训练路径中的占比逐渐下降。但这不意味着 CPU 不重要,相反,CPU 对于实时性、同步性任务的支撑需求反而越来越高。 因此,如意在离线混部的价值不只是体现在节省成本上,更在于对供给方式进行重构,为未来大规模智基础设施打造可靠的基础支撑能力。

    38210编辑于 2025-12-31
  • 来自专栏腾讯云原生团队

    TKE 集群:新一代跨集群混部资源引擎

    引言 在云原生技术席卷千行百业的今天,企业业务早已从单一微服务转向 “在线服务 + AI 训练 + 大数据处理” 的多元形态。 2 新一代资源管理范式,集群 集群是 TKE 面向跨集群资源混部场景推出的首个全栈式产品化解决方案,旨在充分挖掘集群中的闲置,让资源成本迈向全局最优。 3 架构拆解:如何做到全域协同 如下图所示,集群的资源管控能力主要由 Kubeocean 套件承载,包括负责业务集群注册和生命周期管理的 Manager、资源计算和业务创建的 Syncer 和请求代理 通过将全局抽象为“已占用”和“可复用”,用户不需再执着于如何将单一业务类型在集群中装得更满,集群可以帮助用户整合多元化业务,让离线任务填补闲置的空缺。 集群主要适用以下场景: 多集群资源割裂:业务分散在不同部门/集群,GPU等昂贵资源跨集群迁移成本高; 潮汐型业务负载:存在在线业务波峰波谷明显(如广告、AI推理),离线任务(数据清洗、模型训练)需填补闲置

    71520编辑于 2025-10-31
  • 来自专栏产品经理的人工智能学习库

    – computation

    文章目录 人工智能里的是什么? 在普通电脑中,CPU就提供了帮助电脑快速运行。玩游戏的时候需要显卡提供,帮助电脑快速处理图形。 而在 人工智能中,需要有类似CPU和GPU的硬件来提供,帮助算法快速运算出结果。 之前在算法里讲过,在制造木桌的过程中,工厂的流水线就是算法。 在那个例子中,工厂中的机器就像,机器越好越先进,制造的过程就越快。 ? 越大,速度越快 维基百科版本 Techpedia版本 是使用计算机技术完成给定目标导向任务的过程。 可以包括软件和硬件系统的设计和开发,用于广泛的目的 – 通常构建,处理和管理任何类型的信息 – 以帮助追求科学研究,制作智能系统,以及创建和使用不同的媒体娱乐和交流。 查看详情 维基百科版本 是使用计算机的任何活动。它包括开发硬件 和软件,以及使用计算机来管理和处理信息,进行交流和娱乐。是现代工业技术的一个至关重要的组成部分。

    2.6K30发布于 2019-12-18
  • 来自专栏新智元

    AI 2027研究揭秘美国真相!中国全球AI专利Top1,但美国或以取胜

    既然美国的是中国的5倍,为什么在他们的预测里,中国「仅仅」落后3-6个月呢? 两位作者解释道,目前,美国和中国的芯片资源都被分散到了众多AI公司和非AI应用上。 比如,谷歌作为美国最强的公司,也只占全球先进的15%左右(并非全部用于AI研发);OpenAI的占比更是只有5-10%。 而AI竞争的关键,就在于能否将集中投入到特定项目中。 在他们的推演中,中国将在2026年开始集中资源,把15%份额中的10%集中到一个单一的大型AI项目中;而美国的资源则依然处于分散状态。 由于中国的AI项目将占用全球10%的,而美国领先的项目将占用全球15-20%的3. 影响更大 一种观点认为,无论当前情况如何,最终中国人才都将占据主导地位。 中国人口是美国的4倍,STEM专业的博士毕业生数量是美国的2倍。这意味着,有大量聪明人有潜力进入AI领域。

    71610编辑于 2025-04-30
  • 来自专栏科技云报道

    之战,英伟达再度释放AI“炸弹”

    在当前生成式AI不断激增的需求下,GH200超级芯片的推出,进一步吹响了AI之战的号角。 一场新的之战已经拉开帷幕,如果说是一个江湖,那么此刻英伟达就是一名绝世高手。 它身怀加速计算的绝技,尤其在AI战场上一骑绝尘,似乎每一次都能精准地踏在浪潮的节奏上。 从游戏PC市场、到深度学习的崛起、到云计算的普及、再到生成式AI的降临,英伟达的技术所向披靡。 回头看,英伟达早已超越了GPU本身的概念,AI成为最大的标签,的绝世武功撑起了新的万亿帝国。 换言之,在他看来,AI江湖已经是GPU的主场。 围绕着的权力游戏还将继续。 【科技云报道原创】

    35720编辑于 2023-08-18
  • 来自专栏大语言模型,算力共享

    共享:环形结构的分配策略

    ​目录共享:环形结构的分配策略方法签名方法实现注意事项nodes.sort(key=lambda x: (x[1].memory, x[0]), reverse=True)end = round (start + (node[1].memory / total_memory), 5)共享:环形结构的分配策略这段代码定义了一个名为RingMemoryWeightedPartitioningStrategy 这种策略可能用于分布式系统或集群管理中,以便更好地平衡工作负载和资源利用率。 topology: Topology: 方法的输入参数,代表集群或系统的拓扑结构。这里假设Topology是一个包含系统中所有节点的容器,并且每个节点具有内存大小等属性。 由于使用了浮点数运算,可能存在微小的精度误差,这在处理大规模集群时可能需要注意。此策略假设节点的内存大小是固定的,不考虑动态变化的情况。在实际应用中,如果节点的内存大小会变化,可能需要定期重新分区。

    95620编辑于 2024-07-26
  • 来自专栏科技云报道

    之后,“存”上位

    芯片的摩尔定律逐渐逼近物理极限,存开始从幕后走向台前,成为AI领域下一个关键赛点。 长期以来,伴随企业数字化转型所建设的“烟囱式”AI基础设施各自为战,数据奔流,价值却困于“堰塞湖”。 存中心作为新型的数据基础设施,正成为AI时代数据流通和融合应用的破题关键。 AI时代的 “数据决定论” AI技术的发展离不开三大要素:数据、算法和。 然而,中国仅有3%左右的数据被有效保存,数据存留率只有美国等发达国家的三分之一。海量数据如指间流沙般“产而未采、采而未存”,其中蕴含的巨大价值最终消散于无形。 在训练方面,高性能并行文件系统可以提升大模型训练效率,超大带宽和容量支持超万卡集群无瓶颈扩展,EB级扩展能力适应海量数据,加速卡直通技术使数据从存储到“一跳直达”。 构建AI时代新型 “数据粮仓” 与聚焦在“”不同,数据存聚焦在“数”和“存”,是数据生产要素处理的综合能力体现,肩负着为数字经济各种场景提供源源不断的“生产资料”的使命。

    41800编辑于 2025-06-19
  • 来自专栏机器之心

    玩大模型,如何越过AI门槛

    现在,AI 服务器厂商宁畅(Nettrix)推出了「畅快」计划,面向互联网、教育、科研、金融等重点行业需要 AI 的企业和机构,提供价值百万的免费 AI 试用活动。 该计划旨在打造便捷的 AI 平台,让更多有需求的行业用户可以流畅、快速地试用体验 AI 。 该平台基于宁畅 AI 服务器打造,NVIDIA 则为开发者准备了基础应用场景和技术支持、工具包。 在管理部署层面,宁畅可为用户提供稳定灵活的支持,以池化,弹性扩容,充分提升利用率。此外,宁畅还能够实现集群部署,按需调整,以集群水平支持大应用。 解决方案,降低 AI 门槛,让 AI 创新、创业更为方便。 宁畅推出的这项「畅快」计划,无疑让更多有心尝试的企业和机构能一试身手,更好了解自身所需。 目前活动正在火热进行中,自 4 月 10 日起,限时 3 个月免费体验。

    99430编辑于 2023-04-21
  • 美国AI新基建是“泡沫”吗?

    行业对当前AI领域循环投资的质疑AI是否有真需求?要看AI基建是否有泡沫,首当其冲的问题就是看市场是否有足够的需求,去支撑数百万卡甚至更大规模的数据中心建设。 Sam Altman认为,基于当前观察到的 AI 使用趋势及用户需求规模, OpenAI面临不足的风险,远比过剩更为严峻且更可能发生。 11月1日,Sam Altman和微软CEO纳德拉在共同接受的访谈中表示,过去一年Open AI已经扩展了 10 倍,但如果再拥有10倍的,收入几乎能增10倍。 针对未来需求,黄仁勋提出了3个Scaling Law的观点,认为在预训练、后训练强化学习,以及推理过程中,均存在规模法则,从而支撑的持续增长。 未来几年,美国AI的故事,也许不只是“泡沫”的故事,更是一次关于生产新边界的集体试验。

    41810编辑于 2025-11-25
  • 来自专栏腾讯云服务器团队的专栏

    独家支持|腾讯“开悟”AI大赛启动

    “开悟” AI 开放研究平台依托于腾讯太极机器学习平台,基于平台拥有的算法、、脱敏数据等资源优势,为学术研究人员和算法开发者开放国际一流的研究与应用探索平台。 参赛队伍需要在指定的时间内,在给定的资源下训练出最优模型,并最终部署好使用最优模型的 AI 服务器,提交系统完成1V1、3V3对局挑战。 以强化学习为例子,每个要素都有很多挑战,比如研究场景稀缺,没有数据,算法测试困难到昂贵等。 、评估工具、腾讯云计算的支持等,帮助参赛者开发、测试和提升 AI 在复杂环境中的多维度决策水平。 作为参赛队伍指导老师,电子科技大学谢宁教授表示:“开悟平台提供游戏 AI 框架、强化学习算法框架及基础等资源/服务,解决了我们 AI 教育中面临的 AI 应用与实训平台的缺口。

    1.4K50发布于 2021-08-19
领券