首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏DDD

    架构架构2

    最近闲了,看了几次李运华关于架构的视频,不禁再次反问架构是什么?架构师的职责是什么? 对于这两个问题,之前也总结过一篇《架构架构师》[1],再结合他的专栏文章和视频,补充一下 架构 李运华给架构的定义:软件架构指软件系统的顶层结构,缩句成架构指结构,而结构的修饰语蕴含了太多东西,抽象不够直白 ,得行多少路,抽象了多少回,才有的认知,所以我也不打算靠记忆了,不过对于模块和组件的认知很独到 虽然架构定义众家纷说,但对于如何描述架构还是有共识的,那就是“4+1视图”,在《架构架构师》[2]也描述了 架构师在国内,大多时候可能不是个岗位,而是个角色。大厂还有架构师一说,小厂难得有专职架构师,所以架构师职能还得多多取经大牛,学习一下大牛 架构师能力模型 ? 这个过程,回顾最近几个系统设计的确是这样的 1.业务方提出一个业务,刚开始可能只是个目标,轮廓2.与业务方、产品不停的交流,交流得越深入,需求就越明确3.理解业务并明确需求后,划分模块,不管是传统画ER

    56210发布于 2021-03-23
  • 来自专栏存储公众号:王知鱼

    Agentic AI 时代的内存(2)-从HBM到分层存储架构

    阅读收获 掌握智能体AI的三层记忆架构:深入理解工作记忆、程序性记忆和语义记忆的技术差异及其在AI推理中的协同作用 了解RAG系统的硬件需求:学习大规模向量数据库对TB级内存容量和高带宽的具体技术要求 获得内存技术选型指导:掌握HBM、MRDIMM、CMM-D等不同内存技术的适用场景和性能特点 构建分层存储架构能力:学会设计热-温-冷三层内存架构,优化AI系统的性能与成本平衡 全文概览 随着大模型参数量的指数级增长和 本文将带您深入探讨智能体AI如何通过HBM、MRDIMM和CMM-D等创新内存技术,构建分层存储架构来应对这些挑战,实现精准可靠的AI推理能力。 量化了“TB级”容量需求: 通过图表数据明确指出,一个商业规模(10亿条目,1k维度)的向量数据库索引,其内存占用会轻松超过 2TB。 第2层 (Cold Tier): 通过CXL连接的CMM-D,构成海量的内存池,用于存储完整的、超大规模的向量数据库。

    52910编辑于 2025-11-20
  • 来自专栏ops技术分享

    Angular 2 架构(上)

    Angular 2 应用程序应用主要由以下 8 个部分组成: 1、模块 (Modules) 2、组件 (Components) 3、模板 (Templates) 4、元数据 (Metadata) 5、数据绑定 实例 @Component({ selector : 'mylist', template : '<h2>菜鸟教程</h2>' directives : [ComponentDetails

    2.2K10发布于 2021-07-26
  • 来自专栏ops技术分享

    Angular 2 架构(下)

    ---- 服务(Services) Angular2中的服务是封装了某一特定功能,并且可以通过注入的方式供他人使用的独立模块。 服务分为很多种,包括:值、函数,以及应用所需的特性。

    3.2K20发布于 2021-07-26
  • 来自专栏charlieroro

    Cilium架构 (Cilium 2)

    Cilium架构 译自:http://docs.cilium.io/en/stable/architecture/ 本文档描述了Cilium的架构

    2.5K21发布于 2020-04-24
  • 来自专栏java学习java

    MySQL逻辑架构2

    缓冲池的预读特性: 2. 查询缓存 那么什么是查询缓存呢? 查询缓存是提前把 查询结果缓存 起来,这样下次不需要执行就可以直接拿到结果。 set global innodb_buffer_pool_size = 268435456; 3.4 多个Buffer Pool实例  innodb_buffer_pool_instances = 2 这样就表明我们要创建2个 Buffer Pool 实例。

    61820编辑于 2022-11-15
  • 来自专栏AI系统

    AI系统】AI系统架构的组成

    不同的 AI 框架类型决定了其使用静态还是动态图进行构建,静态图有利于获取更多信息做全图优化,动态图有利于调试,目前实际处于一个融合的状态,如 PyTorch2.X 版本后推出 Dynamo 特性支持原生静态图 AI 编译与计算架构AI 框架充分赋能深度学习领域,为 AI 算法的开发者提供了极大便利。 ;2)在底层算子性能优化时,可以打破算子的边界,从更细粒度的循环调度等维度,结合不同的硬件特点完成优化。 DSA 芯片架构支持:AI 训练和推理对性能和时延都非常敏感,所以大量使用专用的 AI 加速芯片进行计算,而 AI 编译器其实是以 DSA 架构AI 加速芯片作为为中心的编译器,这也是区别于通用编译器的一个特征 AI 编译与计算架构负责 AI 模型在真正运行前的编译和系统运行时的动态调度与优化。

    1.4K11编辑于 2024-11-26
  • 来自专栏学习笔记持续记录中...

    应用的架构演变(2

    应用的架构演变图 ? 上图描述了从单一应用架构-->垂直应用架构-->分布式服务架构-->流动计算架构,应用的发展演变过程 单一应用架构 当网站流量很小时,只需一个应用,将所有功能都部署在一起,以减少部署节点和成本。 ,降低了维护和部署的难度,团队各司其职更易管理性能扩展也更方便,更有针对性 缺点: 每个应用的完整性,比如页面的修改都要重新部署,没有做到界面+业务逻辑的实现分离 2.每个应用无法做到完全的独立,比如订单可能要用到用户的信息 分布式服务架构图 分布式服务架构拆分不同的功能业务,并且不同的功能页面又将界面与业务逻辑分离,业务逻辑和界面是部署到不同服务器,不同的服务器之间的服务调用通过RPC(远程过程调用)调用(同一台服务器是简称件通信 流动计算架构图 流动计算架构引入调度中心,维护注册中心的所有服务调用关系,实时管理服务集群,根据不同的服务的访问请求量调整服务器数量,并且根据相同服务不同服务器请求的数量调整下次访问哪台服务器处理请求,

    1.1K20发布于 2020-03-17
  • 来自专栏大数据进阶

    flink系列(2)-基础架构

    上一篇从宏观上说了一些基础组件,这一篇,我们来说一下flink架构中涉及的一些组件 ? 和大多数的分布式系统一样,flink也是分层的,每一层所包含的组件都提供了抽象接口,用于服务于上层组件。 Deploy, core,APIS & Libraries Deploy: 该层主要涉及了Flink的部署模式,Flink支持多种部署模式:本地、集群(Standalone/YARN)、云(GCE/EC2

    51630发布于 2019-09-17
  • 来自专栏linux技术分享

    mysql架构sql基础2

    查询中国广东省城市信息 select * from city where countrycode='CHN' and district='guangdong'; from 表名 where 条件1 and 条件2 group_concat() 统计每个国家有多少城市 select countrycode,count(*) from world.city group by countrycode; 1先from 表拿数据 2 加起来 统计每个国家的人口总数 select countrycode,sum(population) from world.city group by countrycode; 1先from 表拿数据 2然后 select countrycode,count(*) ,group_concat(name) from world.city group by countrycode; 1会将原表数据页取出来 2按照 select student.sname,count(*) from student join sc on student.sno = sc.sno group by student.sno; 2

    54441编辑于 2021-12-24
  • 来自专栏cloudskyme

    shiro(2)-架构与配置

    } 2,使用注释方式  判断用户是否有 创建账户权限 //Will throw an AuthorizationException if none //of the caller’s roles imply 然后看一下详细的架构图: ? Subject (org.apache.shiro.subject.Subject) 主题:与系统交互的第三方如(用户,cron服务,第三方应用)等。 available to the entire application via static memory: SecurityUtils.setSecurityManager(securityManager); 2, 1800000); 引用其它的属性 sessionListener1 = com.company.my.SessionListenerImplementation ... sessionListener2 anObject.mapProperty = key1:$object1, key2:$object2 2) [users] 在用户比较少的情况下这种配置信息是有效的 [users] admin =

    1K110发布于 2018-03-20
  • 来自专栏全栈程序员必看

    J2EE架构简介_手机架构

    J2EE 体系结构简介 J2EE (Java 2 Platform, Enterprise Edition)即Java2平台企业版,它提供了基于组件的方式来设计、开发、组装和部署企业应用。 JavaBean组件架构 在服务器和客户端两层中也可能包括了基于JavaBean的组件架构,通过JavaBean来实现数据的流动,可以是在应用程序客户或Applet与运行在 J2EE服务器上的组件之间 归纳几个概念: ① EJB : 即Enterprise JavaBean,一种组件架构,用于开发和部署面向对象的、分布式的、企业级的应用程序。 所开发的应用程序使用EJB架构来实现可扩展性及管理事务和安全。 其中,EJB容器和Web容器都运行在J2EE服务器中。 ④ J2EE: 即Java 2 Platform Enterprise Edition,Java 2 平台企业版。

    1.5K30编辑于 2022-11-10
  • 转载:【AI系统】AI系统架构的组成

    不同的 AI 框架类型决定了其使用静态还是动态图进行构建,静态图有利于获取更多信息做全图优化,动态图有利于调试,目前实际处于一个融合的状态,如 PyTorch2.X 版本后推出 Dynamo 特性支持原生静态图 AI 编译与计算架构 AI 框架充分赋能深度学习领域,为 AI 算法的开发者提供了极大便利。 ;2)在底层算子性能优化时,可以打破算子的边界,从更细粒度的循环调度等维度,结合不同的硬件特点完成优化。 DSA 芯片架构支持:AI 训练和推理对性能和时延都非常敏感,所以大量使用专用的 AI 加速芯片进行计算,而 AI 编译器其实是以 DSA 架构AI 加速芯片作为为中心的编译器,这也是区别于通用编译器的一个特征 AI 编译与计算架构负责 AI 模型在真正运行前的编译和系统运行时的动态调度与优化。

    2.1K10编辑于 2024-12-11
  • JBoltAI:事件驱动 AI 架构,重构 Java AI

    企业级 AI 应用开发中,多模块耦合、高并发响应延迟、流程异常难以排查等问题,成为 Java 团队落地 AI 能力的核心阻碍。而事件驱动架构,正是解决这些痛点的关键思路。 某企业反馈,使用 JBoltAI 处理 1000 份 PDF 知识库构建,时间从传统同步方案的 8 小时缩短至 2 小时,且不影响系统同时处理智能问数、智能问答等其他 AI 请求。 事件生命周期管理,是 JBoltAI 事件驱动 AI 架构保障企业级稳定性的核心抓手,让 AI 流程彻底摆脱 “黑箱” 状态。 此外,事件驱动架构的高可扩展性,完美支撑企业 AI 能力的渐进式升级:从初期的文案生成(L1 级),到中期的私有化知识库(L2 级),再到后期的跨系统 AI 智能体(L4 级),仅需新增对应的事件与处理器 作为 AIGS 范式的核心实践者,JBoltAI 的事件驱动 AI 架构,重新定义了企业级 Java AI 开发的模式。

    12310编辑于 2026-03-13
  • 来自专栏AI系统

    AI系统】推理系统架构

    推理系统架构AI 领域中的一个关键组成部分,它负责将训练好的模型应用于实际问题,从而实现智能决策和自动化。 在本文中,我们将主要以 NVIDIA Triton Inference Server 为基础深入探讨推理系统架构的各个方面。 多框架支持:兼容 TensorFlow、PyTorch、ONNX 等主流 AI 框架。模型优化:集成 TensorRT 等优化工具,进一步提升模型推理性能。 作为一个强大的推理框架,Triton 能够满足多样化的 AI 应用需求,帮助企业和开发者构建高效、可靠的推理服务。 资源高效利用:多后端架构使得 Triton 能够根据模型特性和硬件资源情况智能选择最合适的推理引擎。

    1.6K10编辑于 2024-12-02
  • 来自专栏韩曙亮的移动开发专栏

    AI 大模型】大模型应用架构 ( 业务架构 - AI Embedded、AI Copilot、AI Agent | 技术架构 - 提示词、代理 + 函数调用、RAG、Fine-tuning )

    知道 " 链接按钮 , 点击 " C 知道 " 按钮 , 跳转到 GPT 大模型对话界面 , 这种应用就是 在传统应用中 , 嵌入了 GPT 大模型应用 , 仅仅是在某个环节中使用了大模型 ; 2、 ; 三、大模型应用 - 技术架构 1、提示词 技术架构 传统的 ChatGPT 和 文心一言 的用法 , 用户发一句 " 提示词 Prompt " , 大模型 回一句 " 输出结果 " ; 这是在 AI " , 得到的结果是 解码器 针对提示词 以及综合 训练的大模型向量数据 根据概率生成的 " 输出结果 " ; 示例说明 : ChatGPT 一问一答 , 在 GPT 大模型上套了一层聊天的壳 ; 2AI 大模型 执行 就相当于 Agent + Function Calling 技术架构 的执行过程 ; 4、Fine-tuning 微调 技术架构 Fine-tuning 技术架构 , 是在一个已有的 输出要求 评估指标 最后 , 验证数据集评估模型性能 , 如果对结果不满意 , 持续进行 超参数调整 和 Fine-tuning 策略的优化 , 直到得到满意结果为止 ; 该技术架构AI 大模型最全面的技术架构

    1.6K21编辑于 2024-07-09
  • 来自专栏AI

    深入解析,AI 架构揭秘

    [AI Perplexica] AI驱动的开源搜索引擎上一篇文章,我们对 Perplexica 做了个基本介绍,包括特点,以及如何安装。今天,我们来深入看下 Perplexica 的架构。 Perplexica 的架构Perplexica 的架构由以下关键组件组成:用户界面: 一个基于网页的界面,允许用户与 Perplexica 互动以搜索图像、视频等内容。 gitlabAI 博客 - 从零开始学AI公众号 - 从零开始学AI

    84110编辑于 2024-07-03
  • 来自专栏AI系统

    AI系统】推理引擎架构

    在深入探讨推理引擎的架构之前,让我们先来概述一下推理引擎的基本概念。推理引擎作为 AI 系统中的关键组件,负责将训练好的模型部署到实际应用中,执行推理任务,从而实现智能决策和自动化处理。 其核心优势不仅仅局限于体积小和资源占用低,更在于如何在有限的资源约束下,最大化地发挥出 AI 模型的潜力。 零依赖 轻量级推理引擎从架构设计之初就追求极致的纯净与独立,确保主体功能无任何外部依赖。 应对 AI 推理引擎在需求复杂性与程序大小之间权衡的挑战,可以采取一系列综合策略和技术革新,确保在满足日益增长的模型复杂性需求的同时,保持程序的高效和精简: 模块化与插件化设计:设计高度模块化的架构,使得每个模块专注于处理特定类型的计算或操作 整体架构 推理引擎作为 AI 应用的核心组件,其架构设计直接关系到模型在实际部署环境中的效率、灵活性和资源利用率。 模型压缩 模型压缩作为 AI 领域的一项核心技术,也是推理引擎架构中不可缺少的一部分,它旨在通过一系列精巧的策略减少模型的大小,同时保持其预测性能尽可能不变,甚至在某些情况下加速训练和推理过程。

    1.6K21编辑于 2024-12-05
  • 来自专栏AI系统

    AI系统】Kernel 层架构

    Kernel 层的优化主要体现在各种高性能算子和算子库的设计上,这些算子和算子库通常针对不同的 AI 加速芯片进行了优化,以提高计算速度和效率。 推理架构如图所示,下面分别从 CPU 和 GPU 的角度介绍一下几种人工实现的高性能算子和封装的高性能算子库:CPU 优化:NEON:NEON 是 ARM 架构上的 SIMD(单指令多数据)扩展,用于提高多媒体处理和浮点运算的性能 对于支持硬件加速的推理引擎,这一步可能还包括为特定 AI 加速芯片生成优化的执行代码。 Im2Col/Col2Im:将输入图像和卷积核转换为列向量形式,使用矩阵乘法来实现卷积,可以利用高效矩阵乘法库。 这种布局是针对特定硬件(如某些 AI 加速器)优化的,其中 C 被分割为 C1 和 C0,C1 代表通道的分组数,C0 代表每个分组中的通道数。

    47410编辑于 2024-12-06
  • 云端 AI Agent 架构实战

    云端 AI Agent 架构实战:Google ADK 5 种 Skill 编排模式的工程化落地Agent 技术栈正在经历从原型验证到生产部署的跨越。 映射到云架构中,本质就是一条同步处理流水线。 valid = [r for r in results if r["data"] is not None] priority = {"cache": 0, "db": 1, "api": 2} 2. 如果基础设施在 GCP 上,ADK 与 Vertex AI 的原生集成更丝滑。LangChain 生态更广泛但框架层抽象较厚,调试成本更高。

    24010编辑于 2026-03-26
领券