首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏互联网运维杂谈

    IT:从运营

    “诗和远方”:-) 总体来看,大多数人认为两者含义并不完全一样,很多人都认为IT运营比IT的层次更高,有些成熟度较高的大型IT组织已经提出并在执行“从ITIT运营”的发展规划。 BSM、云计算、大数据等新的理念、技术和工具的出现、发展和变迁,都和IT正逐步开始从走向运营有密切关系,时至今日,从全局角度来看,可以说企业IT已经站在了从运营的一个重要拐点上。 IT阶段,IT组织更多地还是在解决三类人的基本需求,让用户能用,让老板批钱,让员工干活,当然也希望大家更满意,但受限于阶段性能力和各方面因素,先能保证这些基本需求就已经很不容易了,而做到这些,在相当长时间内也已经足够 假如IT部门不能与时俱进,还是停留在满足基本需求上,而不主动向追求卓越的运营迈进,提供更有竞争力的优质IT服务,那就很可能会在几年后会碰到更大的挑战。 以上是关于ITIT运营的一些不成熟的思考,抛砖引玉,希望能得到大家的批评和指教。

    7.5K54发布于 2019-11-20
  • 来自专栏前沿技墅

    从ITOMAIOps:IT管理向智能的进化

    当前传统的 ITOM 工具往往缺乏分析能力,虽然也能采集数据,但无法对这些数据所包含的信息进行洞察,更加无法将数据进行知识化的本质提升。 AIOps 为IT提供了全新的管理思路。AIOps 的定义涵盖的两个阶段,可概括为两个层次的提升:数据信息分析层次的提升;信息知识提取层次的提升。 ? 从数据信息的分析,更多的是采用数据统计方法,帮助相关人员更好地从众多运数据中了解系统的运行状态,分析并定位故障,实时获取统计数据。 2022年,40% 的大型企业会通过大数据和机器学习的能力来帮助甚至逐渐取代传统中的监控、服务台及自动化流程。 在信息架构与应用系统日渐庞大的今天,如果再通过人工分析定位的方式,很难适应目前日益快速增长的业务需求

    5.7K50发布于 2018-06-08
  • 来自专栏嘉为动态

    工具】因为K8s,人员遇到职业危机....

    点击立即体验WeOps众所周知容器(docker)是一艘航行在IT大海里的“轮船”为了驶向彼岸,需要一个“船舵”(K8S)那如何更好更快地前行呢? 你需要“We Operations”统一管理,让船上的“货物”井井有条统一监控,“货物”故障提前感知,更快解决问题下面正式介绍多才多艺的:嘉为蓝鲸一体化平台WeOps! 成熟稳定腾讯每年3亿重金打造+超10年持续迭代+支撑30w节点实践,构建成熟稳定的平台。轻量部署轻量化,支持单机部署,20+年专家经验沉淀+10万用户的市场验证,内置场景,一键启用。

    81210编辑于 2022-09-27
  • 来自专栏学习计划

    篇 k8s(Kubernetes)

    什么是k8s? k8s是kubernetes的简称,即字母“k”到最后一位相隔8位字母。名字来源于希腊语,意思是“舵手”或“领航员”。 十多年前就开始使用容器技术,最初,google开发了一个叫borg的系统(现在命名为Omega)来调度如此庞大数量的容器好工作负载,在积累了这么多年的经验后,google决定重写这个容器管理系统,并将其贡献开源社区 怎么样从AC并不重要,达到目的就好,当然几种控制也是必不可少,方法更像排舞的过程。这使得系统更加易用、强大、弹性和可扩展。 2. 匹配 labels 的 Pod IP 和端口列表组成 endpoints,由 kube-proxy 负责将服务 IP 负载均衡这些 endpoints 上。 192.168.17.129:6443 --token abcdef.0123456789abcdef \ --discovery-token-ca-cert-hash sha256:6a051b8d0b670f357fe0d8e6a282b062b6f090d1b90968d6c3f3cea8dd33d104

    4.3K10发布于 2021-01-29
  • 来自专栏腾讯专有云

    专题第8期:软件源

    云平台的研发和人员可以通过软件源管理系统快速搭建和维护 YUM、APT 等软件源,以便满足研发和人员在环境搭建、开发、构建、测试、运行等环节的组件和工具依赖需求,提升整体研发和效能。 yum-oss设计 yum-oss接受前端的请求,下发任务zookeeper,记录数据数据库。 接受agent回传的任务状态,更改数据库的状态标识字段。 历史记录 用于人员查看指定软件源的同步操作事件,便于判断软件源的整体工作状态。 操作记录 用于人员或者审计人员来查看指定软件源的操作记录(新建、修改和删除)。 这也是我们专题的最后一期了,小编这里将系列专题做个汇总,方便大家系统的回顾云,如:统一配置信息管理的CMDB、监控告警自动化的云哨系统、混沌工程故障演练平台等等: 第一期 专题第一期:数据中枢 第二期 专题第二期:警戒哨兵 第三期 专题第三期:诊断专家 第四期 平台第四期:数据掘金者 第五期 平台第五期:业务永续 第六期 平台第六期:混沌工程,助力系统稳如磐石 第七期‍

    82920编辑于 2022-06-24
  • 来自专栏云计算与大数据

    :记录因grpc需求而引发的glibc故障

    背景需求: 准备使用grpc作为服务组间的服务通信协议 问题发生: 本地开发采用mac开发,依赖如下: <dependency> <groupId>org.lognet</groupId blog.csdn.net/zxyuying/article/details/44085753 https://help.aliyun.com/knowledge_detail/41478.html#%E9%80%9A%E8% BF%87%E5%9B%9E%E6%BB%9A%E7%A3%81%E7%9B%98%E6%81%A2%E5%A4%8D

    1.1K20发布于 2018-12-17
  • 日志服务 MCP Server,让大模型 “听懂” 需求

    日常工作中,及研发同事经常需要查询日志来排查系统异常问题,每次查询日志都需要登录监控系统、查找监控资源、编写日志查询语句,最后再逐行查看日志。这实在是太麻烦了,严重影响了工作效率。 无论是技术小白还是资深,都能轻松上手,大幅提升日志查询效率。 自然语言生成查询语句:只需用日常语言描述需求,MCP Server自动生成精准的日志查询语句典型使用场景 1. 排障:当系统出现异常时,大模型智能分析当前错误日志,快速定位问题 2. 上报日志腾讯云日志服务:您可将日志上报至日志服务,使用真实的日志进行查询。也可使用日志服务免费的Demo日志,开启方式详见产品文档。本文以负载均衡CLB Demo日志为例进行演示。 2.

    1.8M34编辑于 2025-08-08
  • 来自专栏若尘的技术专栏

    k8s命令大全

    k8s常用命令 node 查看服务器节点 kubectl get nodes 查看服务器节点详情 kubectl get nodes -o wide 节点打标签 kubectl label nodes pods --all-namespaces #查看具体pods,记得后边跟namespace名字哦 kubectl get pods kubernetes-dashboard-76479d66bb-nj8wr --namespace=kube- system 查看pods具体信息 kubectl get pods -o wide kubernetes-dashboard-76479d66bb-nj8wr - ,启用本地 80 端口连接到容器上的 8000 端口 kubectl expose rc nginx --port=80 --target-port=8000 更新单容器 pod 的镜像版本(tag) # 标记 my-node 不可调度 kubectl drain k8s-node # 清空 my-node 以待维护 kubectl uncordon k8s-node # 标记 my-node 可调度

    5.4K86编辑于 2021-12-04
  • 来自专栏华汇数据服务

    数字经济浪潮下的国产化需求

    基于IT、动环、智能物联网、工业物联网的一体化监控需求,不断涌现。这与近两年技术和产品的升级换代,以及越来越多的智能终端在极短的窗口期进入各行业有很大关系。 平台需要满足新增需求并服务于各种应用场景,一个无可回避的问题已经浮上水面: 如何有效这些基础设施? 当前市场上的应对方式,是加大在IT服务方面的投入。 根据前几年中国IT服务市场的发展形式和对未来发展趋势的分析,我国IT服务市场未来几年需求仍然会比较旺盛,前瞻产业研究院预测 2025 年我国IT服务市场规模将达到 3668 亿元左右。 除了产业升级、扩大产能等客观需求,一些外在因素使得国内的IT升级较之西方发达国家,面临更为猛烈、也更为无序的开局。 科技因素。 老旧的模式、维系统早已完成IT从无有的历史使命,成为鸡肋;新的模式缺少“吃螃蟹”验证。无数的行业需求举棋不定,以至于还在复刻“流程和标准规范化”的模式,争取让业务增量跑赢人力成本。

    80720编辑于 2022-09-01
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(二)

    许多Ceph新手在测试环节以及预生产的时候会对Ceph集群的部署以及调优产生困扰,A公司小哥也遇到了部署和调优问题。下面来看看A公司小哥是如何解决这个问题的。 关卡二:部署调优关(部署) 难度:三颗星 上篇文章开头我也说到了,部署Ceph是新手的噩梦,对于传统来说部署一套Ceph是很难的事情,A公司小哥在官网以及Ceph中国社区的相关资料和帮助下才渐渐熟悉了什么是 图1:网络问题 第二回合:磁盘问题 解决了网络问题又迎来了磁盘分区的问题,小哥折腾了半天没弄好,后来在Ceph中国社区群友的帮助下解决了此事。 而此时就是考验一个人员的处理故障的基本素质,好在这个小哥有过一两年的经验,经过基本排查,最终确定了是时间问题。由于三个节点时间不一致而导致的这个问题,这里称之为“OSD打摆子”。 所以云平台也好存储也好,都会因为时间而产生不必要的故障问题,建议人员要注重时间问题。 ? 图8:Ceph集群 好了言归正传,上图是小哥新搭建好的集群。三节点、六个OSD的Ceph小集群。

    1.2K10发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(一)

    从横向、纵向分可以分为多个维度和层次,本文试图抛开这纷繁复杂的概念,讲述一个传统的企业级人员转型人员,尤其是软件定义存储的之间经历的沟沟坎坎。 随着云计算、大数据以及新兴的区块链等技术体系的迅猛发展,数据中心的扩容建设进入高峰期,云数据中心需求应运而生。 你应该在选择存储介质之前了解集群的工作负载和性能需求。Ceph使用存储介质有两种方法:OSD日志盘和OSD数据盘。Ceph的每一次写操作分两步处理。 下面贴出来A公司小哥根据自己场景需求选择的硬件配置。 欲知后事,且听下文《从传统演进历程之软件定义存储(二)》,主要讲述了A公司小哥在硬件选型完毕之后开始部署Ceph遇到的一些问题以及解决办法。

    1.7K20发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(四)

    2、影响性能的因素 传统存储的封闭特性带来的优势是从存储操作系统软件专用硬件的深度优化,而软件定义存储、Server SAN的目的是软件和硬件的解耦合,它们带来了灵活性,免除了硬件厂商锁定,但很多时候却不能充分发挥硬件的潜力 同时,由于网络交互在分布式存储中的引入,给存储的整体“时延(latency)”特性带来了挑战,很多分布式存储系统因没有恒定的低时延无法满足高实时性数据库等应用的需求。 numjobs=4 -runtime=600 -clientname=admin -pool=pool-f61ba147fd61441ab272ae96b09e4ee0 -rbdname=volume-fd8f04986a33465d9908f3f97500961b 在这里注意将之前在CEPH中分配的RGW用户的AK,SK,已经RGW启用的cvitweb域名端口设置正确:<storage type=”s3″ config=”accesskey=HX1XZCKWT6RDC8GA96AI ;secretkey=j0RR17r0yx5jsszstHCTl8bY1usJ4fs1mUJNw8BC;proxyhost=;proxyport=;endpoint=http://192.168.182.128

    2K20发布于 2019-04-09
  • 来自专栏IT大咖说

    谈AIOps基础-从自动化智能化

    在DevOps里面的维和技术运营部分,也没有要求一定要实现智能化程度。 对AIOps智能化的基础理解 ? 在这个阶段完成后我们进入自动化阶段。 而实际对于自动化可以分为以下三个大部分的内容 流程的自动化:包括了巡检,事件问题管理,变更管理,版本发布等 配置库:最基本的配置管理库,从物理资源逻辑资源源代码库服务库 监控的自动化 :自动化数据采集,监控预警,性能分析,后续触发的自动管控操作 对于流程最终往往都涉及操作,操作最终结果涉及配置库信息的变更,而对于监控本身有可能发现类问题并启动相应的流程进行处理 在自动化里面,我们会很强调工具链这个词,即要实现整个自动化涉及诸多的流程协同,底层更是涉及诸多的工具协同,而这些工具本身都是单一的完成一种类型的操作任务,如果这些工具间没有协同和集成起来,那么将直接导致我们整个过程是存在隔离和断点的

    8.6K31发布于 2020-11-03
  • 来自专栏Linux云计算及前后端开发

    曾老湿带你了解运需求-实现自动化平台

    自动化平台功能大纲 核心功能1-Dashboard及展示 核心功能2-资产管理及展示 核心功能3-SQL审核及展示 核心功能4-工具及展示 核心功能5-堡垒机及展示 ---- 自动化平台功能大纲  ---- 工作台  作用:这是我们人员平时写周报,日报,月总结,年总结,绩效考核的地方。 功能实现: 将TXT或者是EXECL集成页面当中即可。 在管理的页面中,也分为三个标签页: ---- 用户 第一个标签页,就是用户,也就是针对用户及用户组的管理,这里涉及用户的权限 员工权限: 1)维权限 2)开发权限 3)测试权限 管理员权限: 所有服务器的权限,都控制在运的手中,所以,所有服务器都看的。 而开发,或许只能看到开发环境的机器,测试只能看到测试环境的机器。 ---- 提交sql 那么问题来了,我开发在生产中,是有需求执行某一条SQL语句,来修改数据,或者修改字段,增加数据的。如何是好?

    88030编辑于 2022-10-31
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(六)完结

    回到最初的Ceph工程师的问题,本系列讲述的是传统向新一代云转型之软件定义存储部分的转型,是企业业务系统从规划、设计、实施、交付到的最后一个步骤,也是重要的步骤。 1.通过tell 命令在线修pool的副本数,并修改配置文件且同步所有节点。  #保险起见,最好把MON和OSD关于副本数的选项都修改。 2. 好了,最后一篇文章到此结束,在本系列开头讲到随着云计算、大数据以及新兴的区块链等技术体系的迅猛发展,数据中心的扩容建设进入高峰期,云数据中心需求应运而生。 因此,云数据中心的对于传统的人员提出了新的能力要求——不仅要熟悉传统硬件设备,同时要掌握虚拟化、云系统的部署、监控和管理等能力。 通过九篇文章简单介绍了下传统向云或者说是传统向SDS的转型之路。

    95220发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(五)中

    关卡五:Ceph灾备神兵利器-故障域 重要度:五颗星 转眼六篇文章过去了,还记得大明湖畔(本系列一)的小哥吗? 勿忘初心,咱们还是回到最初的小哥,小哥经历了硬件选型、部署、调优、测试的一系列转型的关卡,终于就要到最后的上线了。 小哥最初的梦想搭建一个Ceph存储集群,对接云服务,底层存储实现高可用的数据访问架构。 根据存储管理平台的需求和集群规模,需要实现: 将物理环境按高可用的拓扑架构规划好,并且完成存储集群部署。 将24台服务器分别规划在3个机架上,每个机架8台服务器,每个机架设置为一个故障域,创建一个3副本存储资源池,数据副本自动分布不同故障域中,也是分布在不同机架上,保障数据安全。

    82820发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(三)上

    上回书讲完了部署,部署完成之后,就开始了无休止的调优,对于Ceph人员来说最头痛的莫过于两件事:一、Ceph调优;二、Ceph。 调优是件非常头疼的事情,下面来看看小哥是如何调优的,小哥根据网上资料进行了一个调优方法论(调优总结)。 在Linux的各种发行版中,为了保证对硬件的兼容和可靠性,很多内核参数都采用了较为保守的设置,然而这无法满足我们对于高性能计算的需求,为了Ceph能更好地利用系统资源,我们需要对部分参数进行调整。 设定Linux操作系统参数:vm.swappiness=0,配置/etc/sysctl.conf。 (256KB) + L1d L#8 (32KB) + L1i L#8 (32KB) + Core L#8         PU L#16 (P#8)         PU L#17 (P#28)      

    1.3K20发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(五)上

    可以在多地间依据企业需求做到数据的实时或者异步的保护。 但是缺点同样显而易见,及存储网关作为一个总的数据流量出入口本身就可能成为一个瓶颈! 部分备份软件利用自身私有协议,将在本地的备份数据远程同步远端的备份节点上。 这种方式有效做到了带宽的有效利用和数据的高一至性。但是缺点也非常明显,既无法做到业务的实时可用。

    96420发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(三)下

    上回书讲到了小哥的调优方法论(上),对于Ceph人员来说最头痛的莫过于两件事:一、Ceph调优;二、Ceph。调优是件非常头疼的事情,下面来看看小哥是如何调优的。 Linux 2.4内核之后引入了将特定中断绑定指定的CPU的技术,称为中断亲和(SMP IRQ affinity)。 Linux中所有的中断情况在文件/proc/interrupt中记录: ?   TOE网卡在接收数据时,在网卡内进行协议处理,因此,它不必将数据复制服务器缓冲区,而是直接复制应用程序的缓冲区,这种数据传输方式减少了部分内存拷贝的消耗。 [global] fsid = 059f27e8-a23f-4587-9033-3e3679d03b31 mon_host = 10.10.20.102, 10.10.20.101, 10.10.20.100 size = 512 osd client message size cap = 2147483648 osd deep scrub stride = 131072 osd op threads = 8

    91110发布于 2019-04-09
  • 来自专栏云+技术

    从传统演进历程之软件定义存储(五)下

    具体实现 一个新的守护进程:rbd-mirror将负责把一个集群的镜像同步另一个集群。在这两集群中都需要配置守护进程,它会同时连接本地和远程集群。 在当前Jewel版本中,主要是实现两个守护进程之间一对一的关系,而在未来将会扩展1对N。这样,在Jewel以后的版本中,你将能够配置一个集群备份多个目标备份集群中。 实现原理 ? 具体的操作步骤可用查看: http://ceph.org.cn/2016/05/08/ceph-jewel-%E5%8A%9F%E8%83%BD%E9%A2%84%E8%A7%88-ceph-rbd-mirroring 而RGW异地同步方案,刚好就是为了解决互联网服务的上述需求,一方面在多个地理位置存放数据实现服务的高可靠和高可用,另一方面借助DNS负载均衡、CDN等成熟技术手段,提供近端访问从而实现客户端的高速接入。 转眼间第七篇文章也结束了,剩下最后的关卡了,预知后事如何,请期待最后的《 &演练》。

    78820发布于 2019-04-09
领券