首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CNCF

    原生AI平台的加速与实践

    : ---- 前言:12月19日,在 Cloud Native Days China -云原生AI大数据专场,腾讯技术事业群高级工程师薛磊发表了《云原生AI平台的加速与实践》主题演讲。 ? 演讲主要包含五部分的内容: Kubernetes介绍 AI离线计算 AI场景下Kubernetes的不足 Kubeflow 星辰算力平台的架构 Kubernetes介绍 K8s是生产级的容器编排系统,它也是云原生应用最佳的一个平台 因此,对于我们而言在AI平台上面也可以基于K8s的架构进行额外的开发。 AI离线计算 ? 典型的AI场景 ? ? AI场景下K8s局限性 – 调度 ? Defros无法进行批量调度,但在多机的场景下,是需要多机调度的。 提供TensorFlow原生PS-worker架构 的多机训练 推荐将PS和worker一起启动 通过service做服务发现 在社区中最早期的Operator 星辰算力平台的架构 它为私有云的一个离线计算平台

    2.5K31发布于 2021-01-27
  • 来自专栏大魏分享(微信公众号:david-share)

    爆款:K8S原生应用管理平台

    一、如何在K8S集群上部署应用? 首先,需要说明的是:Openshift是K8S集群,但K8S集群不是Openshift集群。K8S集群是Openshift集群的真子集。 在K8S上除了需要部署应用,很多时候还要部署应用集群,对集群进行扩缩容等。这时候,我们大多是调整应用dc。嗯,听起来有一定技术含量。 那么,有没有一种方式,可以专门与K8S API集群对接,实现K8S原生应用的管理? 二、Operator 有,Operator就是。 Operator是一种打包、部署和管理Kubernetes原生应用程序的方法。 能不能利用K8S便捷的特性去把这些复杂的东西简单化呢?这就是Operator想做的事情。

    4K31发布于 2018-12-07
  • 来自专栏精益码农

    原生AI算力平台 阶段性解读

    给近半年做的云原生AI算力平台做一个回顾, 思考和实践参考了云溪大会上的分享:为大模型工程提效,基于阿里云 ACK 的云原生 AI 工程化实践[1],全文很长,我这边做一个牵引和解读。 1. 大模型带来的挑战 AI有工程化的要求,同时也对基础设施提出挑战。 3. 云原生AI的能力 最近在做的“AI大模型基础设施”, 宏观目标也是帮助AI工程从小作坊向端到端云原生解决方案演进。 云原生AI的架构实践 我们的云原生AI算力平台, 有参考上面的实践,针对企业业务的现状和侧重, 技术调研上做了调整和裁剪。 kubeflow[2]是一个包含多个开源项目的AI生态组合, kubeflow以Kubernetes为底座,目标是成为部署、扩展和管理AI平台的系统。 糟糕,我实现的k8s informer好像是依托答辩 参考资料 [1] 为大模型工程提效,基于阿里云 ACK 的云原生 AI 工程化实践: https://developer.aliyun.com/article

    20010编辑于 2026-01-16
  • 来自专栏深度学习与python

    vivo AI 计算平台原生自动化实践

    2018 年底,vivo AI 研究院为了解决统一高性能训练环境、大规模分布式训练、计算资源的高效利用调度等痛点,着手建设 AI 计算平台。 经过两年的持续迭代,平台建设和落地取得了很大进展,成为 vivo AI 领域的核心基础平台。 云原生基础:Autorke 自动化平台管理的目标对象:k8s、calico、docker。在物理机上安装配置 docker 环境,使用 docker api 接口部署和管理 k8s 组件。 白屏化阶段实现变更云原生组件平台化,制定标准流程,降低变更门槛和风险。 AI 计算平台组的资深工程师,参与平台中调度、容器网络、自动化等方向建设。

    1.5K20发布于 2021-06-08
  • 来自专栏架构驿站

    K8sGPT,基于 AI 的云原生终极工具

    Hello folks,我是 Luga,今天我们来聊一下云原生生态排障大杀器-基于AI 的云原生终极工具:“K8sGPT”。 对于 AI 后端,K8sGPT 使用 OpenAI 作为默认后端平台。我们可以切换到其他后端,例如 Azure OpenAI 提供商或 FakeAI 提供商等。 从而可以帮助我们,特别是 SRE、平台和 DevOps 工程师快速了解其集群中发生了什么,并找到问题的根本原因。 from k8sgpt-ai/k8sgpt /opt/homebrew/Cellar/k8sgpt/0.3.0: 6 files, 55.5MB, built in 3 seconds ==> Running kubectl apply -f - << EOF apiVersion: core.k8sgpt.ai/v1alpha1 kind: K8sGPT metadata: name: k8sgpt-sample

    5.3K60编辑于 2023-05-22
  • 腾讯云TAPD:云原生AI驱动的研发效能平台

    一、产品定位与核心亮点 腾讯云TAPD(Tencent Agile Product Development)是一款基于容器化技术的云原生研发协作平台,核心定位为面向开发团队的高性能、智能化研发基础设施。 其差异化优势在于深度融合项目管理(需求/任务/缺陷跟踪)与工程实践(代码管理/持续集成/自动化测试),通过云原生架构与AI能力提升研发全流程自动化与协作效率。 自动化与AI能力:自动化规则引擎、AI代码助手、流程阻塞自动预警。 数据分析模块:研发效能度量看板、业务-研发数据整合分析。 计算资源:云原生构建CPU资源 6,400核时/月,云原生开发资源 64,000核时/月。 AI辅助开发:集成AI代码助手,提供智能代码建议与缺陷检测。 荣誉背书 (注:原文未提及具体荣誉奖项,此部分暂缺) 四、典型案例 (注:原文未提供具体客户案例名称及详细背景,仅强调平台能力。

    15910编辑于 2026-04-11
  • 来自专栏七禾页话

    原生|一个在线的K8s免费练习平台

    —— 琉璃康康 技术的学习唯手熟尔,必须要在理论的基础上实际操作,才能加深印象,之前分享了使用VMWare创建VM的方式安装K3s来做实验,最近发现了一个在线的k8s练习平台叫做Play with Kubernetes with Kubernetes是Docker通过使用Docker-in-Docker(DinD)技术模拟了多个虚拟机的效果,从而提供了一个在浏览器中免费使用CentOS Linux虚拟机的接口和体验平台 ,Play with Kubernetes有如下几个优缺点: 优点 免费体验:每次登录后都有4个小时的体验时间,可以做想做的实验; K8s环境使用kubeadm直接部署(使用 weave 网络); 平台共提供了 总体来说,Play with Kubernetes是一个很好的免费体验平台,对于日常学习、理解和实践基础概念是完全够用了。 下边介绍下如何使用。 @七禾页话 实例化一个Nginx Ngnix作为云原生界的hello world常常被用来验证集群是否好用,所以我们也继续用Ngnix来验证Cluster的基础功能是否好用: ####左右滑动 kubectl

    4.6K10编辑于 2024-01-22
  • 来自专栏Juicedata

    小米云原生文件存储平台化实践:支撑 AI 训练、大模型、容器平台多项业务

    小米作为全球知名的科技巨头公司,已经在数百款产品中广泛应用了 AI 技术,这些产品包括手机、电视、智能音箱、儿童手表和翻译机等。这些 AI 应用主要都是通过小米的深度学习训练平台完成的。 另外,随着公司云原生化进程的推进,越来越多的应用从物理机迁移到容器平台,这进一步增加了对文件存储和多节点共享访问数据的需求。 我们预期中的存储平台需要具备如下特性: 功能丰富,拥有完善的存储功能,支持 POSIX 等多种访问协议,同时具备易用性,面向云原生平台设计。 基于这些产品能力及云原生 CSI Driver 的功能,我们已经对接了小米容器平台及机器学习 PaaS 平台,业务根据需要选择不同的集群与存储类型使用我们的 JuiceFS 文件存储服务。 另外,对于更底层的 Kubernetes 平台,我们也为该服务提供了静态卷和动态卷两种接入方式。目前,我们的大部分服务都是以原生方式提供的。

    1.2K20编辑于 2023-09-23
  • 基于云原生架构的高校AI教学实验平台建设与优化

    容器封装不同版本的Python包(如TensorFlow 1.x/2.x) • 通过Kata Containers实现硬件级隔离,保障生物信息学等敏感数据安全 • 技术实现:某容器管理平台通过 集群与公有云算力动态调配 • 调度算法:采用DRF(Dominant Resource Fairness)算法实现多维度资源调度,任务排队时间减少58% 工具可扩展性 • 通过Helm Chart规范AI 工具部署流程,支持自定义Operator扩展学科专用组件 • 案例验证:某高校利用开源编排工具实现量子计算模拟器的自动化部署,环境准备时间从3小时缩短至8分钟二、核心组件技术实现1. kernel_provisioner": { "provisioner_type": "docker", "image": "pytorch/pytorch:2.0.1-cuda11.8-cudnn8- 分布式训练加速 采用Horovod框架优化ResNet-50训练: horovodrun -np 8 -H gpu01:4,gpu02:4 \python train.py --batch-size

    51410编辑于 2025-03-20
  • AI原生开发范式

    AI原生开发范式的核心概念 AI原生开发范式(AI-Native Development)指以AI为核心构建应用程序的设计方法,其特点包括数据驱动、模型即服务(MaaS)、自动化工作流和持续学习。 与传统开发相比,AI原生应用将机器学习模型作为基础组件,而非附加功能。 典型行业案例分析 金融领域-智能风控系统 某银行采用AI原生架构重构信贷审批流程,实现实时风险评估。 医疗领域-影像辅助诊断 一家医疗科技公司开发AI原生影像分析平台,整合多种医学影像模型(CT、MRI)。 平台支持DICOM标准,通过微服务架构实现模型热更新,肺结节检测准确率达到96%,较传统软件提升20%。 零售领域-动态定价引擎 某电商平台部署强化学习定价系统,每小时处理10TB用户行为数据。 = torch.quantization.quantize_dynamic( model_fp32, {torch.nn.Linear}, dtype=torch.qint8 )

    23910编辑于 2026-01-20
  • 来自专栏个人路线

    平台开发鸿蒙原生应用

    平台开发鸿蒙原生应用 uniapp for HarmonyOS uni-app uni-app 是一个使用 Vue.js[1] 开发所有前端应用的框架,开发者编写一套代码,可发布到 HarmonyOS uni-app在开发者数量、案例、跨端抹平度、扩展灵活性、性能体验、周边生态、学习成本、开发成本等 8 大关键指标上拥有更强的优势。 ,且能达到原生性能。 Flutter 也可以与平台原生代码进行混合开发。在全世界,Flutter 正在被越来越多的开发者和组织使用,并且 Flutter 是完全免费、开源的。 原生性能:React Native 应用程序的业务逻辑是使用 JavaScript 编写的,但它可以调用原生平台提供的 API 和使用原生 UI 组件。

    1.5K10编辑于 2024-11-12
  • 来自专栏深度学习与python

    vivo AI 计算平台的K8s填坑指南

    作者 | 吴梓洋 背 景 在 2018 年底,vivo AI 研究院为了解决统一的高性能训练环境、大规模的分布式训练、计算资源的高效利用调度等痛点,着手建设 AI 计算平台。 白驹过隙,将近两年时间过去了,平台的建设和落地取得了很大的进展,成为了 vivo AI 领域的核心基础平台平台现在已经有超过 500 多个用户,来自人工智能、影像、互联网等多个部门。 本文是 vivo AI 计算平台技术演进系列文章之一,着重分享了平台在 Kubernetes 上遇到的疑难杂症和解决方法。 平台上用户可以使用自己打包的镜像,这涉及太多镜像的改造。我们发现了一种改造成本更小的方案。k8s 启动的 Pod 在主机上除了业务容器还会有 pause 容器。 研究院计算平台组的资深工程师,也是 kube-batch, tf-operator 等项目的 contributor,关注 K8s、容器等云原生技术。

    1.6K10发布于 2020-11-05
  • 来自专栏阿泽的学习笔记

    原生AI漫谈

    和持久化走 cloud DB…… 云原生时代的系统开发 对于系统开发人员来说(比如云数据库,云 AI 平台),云原生的趋势也会产生相应的影响。 具体的例子比如我们可以通过用户的数据查询看到经常使用的过滤维度,来重新安排数据的排序和分区,这样在同样的数据量情况下,系统可以花更少的计算资源来完成查询,增加系统的利润 :) 云原生+AI 最后再来看下跟 AI 相关的部分。 而前面讲的“云原生语言”,则更关注在程序具体执行层面的关注点分离。 把两者结合起来看,云原生时代的 AI 平台开发会是一片巨大的未开垦之地,对于云和算法各自都有很宽很长的路可以走。 目前云原生AI 结合的一个比较好的学习样例是 Kubeflow,之前春节期间读了一本《Kubeflow for Machine Learning[3]》,感觉收获还是挺多的,如Istio,CRD的应用等

    96330发布于 2021-07-06
  • 如何构建AI原生应用?从大模型到知识中台,从数据到规则逻辑。AI原生=模型原生+知识原生+价值原生

    今天继续聊AI和大模型方面的话题。即什么是AI原生,如何构建一个真正意义上的AI原生系统? 对于这个问题,我们先看下AI大模型自己给出的答案。 AI原生必须是土生土长的,系统一开始构建就原生在系统里面的能力,而不是已有系统后简单嫁接或集成AI大模型能力。那些把传统IT系统改造集成AI大模型能力后叫AI原生是相当错误的说法。 AI原生-大模型原生+知识原生+价值原生 一个系统能够称之为叫AI原生系统呢?这里面核心的一个关键就是整个系统核心的能力是架构在底层的AI大模型和底层的知识层上面的。 你如果满足这么一个条件,那你们做一个系统就可以叫做AI原生系统。 我原来谈AI原生的时候谈到过,AI原生核心是知识原生,为何你当前企业有数据库数据,有资料文档,不能快速的构建AI原生应用? 注意这个说法只解决了AI原生应用的大模型原生问题,并没有解决知识原生的问题。如果按这个说法所有的AI智能体应用都是AI原生应用,但是我的理解,AI原生应用的核心重点应该是在知识原生上面。

    66420编辑于 2025-11-17
  • 来自专栏Rainbond开源「容器云平台」

    如何建设私有云原生 Serverless 平台

    然而,如何构建一套完整的云原生 Serverless 平台,依然是一个需要考虑的问题。 因此,建设私有化的云原生Serverless平台需要企业在技术、资源、人才和经济等多方面进行全面的规划和考虑,确保平台的稳定性和可持续性。 一般情况下,我们认为一个云原生的 Serverless 平台应该提供以下能力: 弹性伸缩:平台应该支持应用自动扩缩容,以便应对变化的负载和流量。 Rainbond 作为一个开源的云原生应用管理平台,能够帮助企业应对建设私有化的云原生 Serverless 平台的难点。 写在最后 通过借助 Rainbond 建设私有化的云原生 Serverless 平台,企业能够更好地应对技术难点,提高平台的稳定性和可持续性。

    13.9K30编辑于 2023-03-13
  • 来自专栏深度学习与python

    vivo AI 计算平台的 K8s 分级配额管理实践

    作者 | 刘东阳 审校 | 赵钰莹   2018 年底,vivo AI 研究院为了解决统一高性能训练环境、大规模分布式训练、计算资源的高效利用调度等痛点,着手建设 AI 计算平台。 经过四年多的持续迭代,平台建设和落地取得了很大进展,成为 vivo AI 领域的核心基础平台。 本文是 vivo AI 计算平台实战 系列文章之一,主要分享了平台在资源配额管理方面的实践。 背   景 K8s 提供了原生的 ResourceQuota 资源配额管理功能,基于命名空间进行配额管理,简单易用。 作者介绍: 刘东阳,vivo AI 研究院计算平台组的资深工程师,曾就职于金蝶、蚂蚁金服等公司;关注 K8s、容器等云原生技术。 点击底部阅读原文访问 InfoQ 官网,获取更多精彩内容!

    63630编辑于 2023-03-29
  • 来自专栏低代码平台

    Jeecg-AI 开源的 AI 应用平台,实现 n8n 的循环节点

    Jeecg-AI 是一套类似 Dify 的 AIGC 应用开发平台 + 知识库问答,是一款基于大型语言模型和 RAG 技术的 AI 应用平台,重点提供图文并茂的 AI 知识库和智能聊天功 能,界面直观, 一个全栈式 AI 开发平台,旨在帮助开发者快速构建和部署个性化的 AI 应用和零代码应用。 产品方向: AI 应用平台与低代码结合产品,功能涵盖:AI 应用平台、零代码应用、AI 报表、AI 大屏、AI 仪表盘、Chat AI 报表。 这将是一款业内独一无二的综合性 AI 应用平台,深度融合了 AI 技术与低代码开发理念,致力于为企业和开发者打造智能化、自动化的业务系统构建环境。 产品覆盖面广,功能丰富,涵盖了 AI 应用平台、零代码应用开发、智能 AI 报表生成、动态 AI 大屏展示、交互式 AI 仪表盘以及创新的 Chat AI 报表等多个维度。

    21410编辑于 2026-01-20
  • Data+AI时代,大数据平台必备的AI原生能力解析与腾讯云数据湖计算实践

    ##摘要 随着Data+AI融合成为企业数字化核心趋势,大数据平台需具备AI原生能力以应对智能化挑战。 本文结合行业趋势与腾讯云数据湖计算DLC的实践,解析五大关键AI原生能力,并推荐腾讯云领先的湖仓一体解决方案。 ##导语 2025年,大模型与数据技术的深度融合正重塑企业数据平台架构。 Gartner报告指出,湖仓一体(Lakehouse)已成为数据平台新标准,而AI原生能力是其核心竞争壁垒。 作为国内唯一入选2025年Gartner《数据湖仓平台市场指南》的厂商,腾讯云数据湖计算DLC如何通过AI原生设计助力企业降本增效?本文将深入探讨。 ##正文 ###一、Data+AI融合趋势下的能力重构 传统大数据平台面临数据孤岛、分析效率低、AI应用门槛高等痛点。

    37210编辑于 2025-11-04
  • 来自专栏人工智能

    AI遇见汽车:云原生架构下的智能体平台实践与厂商对比​

    而进入2025年后,主导行业话语权的关键词已悄然换成了“智能驾驶”“AI大模型”“车载智能体”。 于是,“汽车智能体”(AI Agent)从幕后走向了台前。它不是传统意义上的语音助手,而是一个真正的“思考机器”。 理想试图将生成式AI融入车机,让车变得“更会聊天”;华为则依托鸿蒙生态,打通“人-车-家”的设备联动。它们无疑让车变得更聪明,但也带来一个新问题——生态的“围墙花园”。 以金智维Ki-AgentS为代表的平台化智能体方案,正代表了这个方向。它并非从车机语音另起炉灶,而是将其深厚的企业级智能体平台能力延伸至汽车座舱,从一开始就强调任务执行与生态兼容。 这也是像金智维这样的企业级智能体平台,在汽车领域迅速受到关注的核心原因。这一模式的好处是显而易见的:灵活与开放。

    29810编辑于 2025-10-30
  • 来自专栏DevOps

    原生AI 加持下,DevOps平台的演进趋势、选型建议与推荐指南

    而随着云原生(弹性伸缩、容器化、微服务架构)的普及,以及AI(智能自动化、故障预判、效能分析)的深度渗透,DevOps平台不再是简单的 “工具集成器”,而是要具备 “云原生适配能力” 和 “AI 驱动的智能决策能力 本文将结合云原生AI的核心需求,对比主流竞品,给出可落地的选型建议与平台推荐方向。01. 新时代DevOps平台的核心能力要求在云原生AI的浪潮下,一个优秀的DevOps平台不应仅仅是工具的集合,而应具备以下关键能力:1)云原生基因无缝集成 Kubernetes:平台原生支持K8s,提供从部署 三大主流DevOps平台横向对比1)嘉为蓝鲸DevOps平台核心定位:企业级一体化DevOps解决方案。云原生支持:深度集成K8s,提供开箱即用的全套能力。 在云原生AI的浪潮下,DevOps平台的边界正在不断扩展。未来理想的平台,必然是既能提供开箱即用的一体化便利,又能通过开放API和AI智能实现高效、自主、安全的软件交付。

    54610编辑于 2025-09-08
领券