文章目录 ConfigCommand 1 查询配置 Topic配置查询 其他配置/clients/users/brokers/broker-loggers 的查询 查询kafka版本信息 2 增删改 默认配置 附件 More 日常运维 、问题排查 怎么能够少了滴滴开源的 滴滴开源LogiKM一站式Kafka监控与管控平台 ConfigCommand Config相关操作; 动态配置可以覆盖默认的静态配置 sh bin/kafka-configs.sh --describe --bootstrap-server xxxx:9092 --version 所有可配置的动态配置 请看最后面的 附件 部分 2 增删改 配置 --alter –alter 删除配置: --delete-config k1=v1,k2=v2 添加/修改配置: --add-config k1,k2 选择类型: --entity-type value 示例 consumer_byte_rate producer_byte_rate request_percentage More Kafka专栏持续更新中…(源码、原理、实战、运维
新建aggr2 netapp>aggr create aggr2 3 ? ? 2. 在aggr2上新建卷vol2,大小为50m netapp> vol create vol2 aggr2 50m ? 2. 扩展和减小volume空间 将vol2增大20m netapp> vol size vol2 +20m ? 将vol2减小10m netapp> vol size vol2 -10m ? 查看vol2参数值 netapp> vol options vol2 ? 将minra设置为on netapp> vol options vol2 minra on 6. 2.
域是WebLogic应用服务器中最大的概念,WebLogic应用服务器启动的时候就是以某个域来启动的,它有一个中心配置文件叫config.xml. 2.cluster Cluster: 族也是一个逻辑概念 4.server Server: 服务器,也就是一个应用服务器的实例,用来部署和运行各种J2EE应用程序,也可以来配置各种服务程序。它是WebLogic应用服务器的基本服务单元。 [pvx0x9kk2m.png] 7.输入密码,本例为weblogic123(口令至少必须为 8 个字母数字字符, 且至少包含一个数字或一个特殊字符。) [vtx3rm17s2.png] 12.选择/usr/local/jdk1.6.0_27,输入1 [hcq4p2mg13.png] 13.选择管理服务器,输入1 [exxonrkm3t.png] 14. [475ldqsxa2.png]
配置查询 其他配置/clients/users/brokers/broker-loggers 的查询 broker-loggers 查询指定Broker的Logger相关配置 查询kafka版本信息 2 默认配置 附件 More 日常运维 、问题排查 怎么能够少了滴滴开源的 滴滴开源LogiKM一站式Kafka监控与管控平台 ConfigCommand Config相关操作; 动态配置可以覆盖默认的静态配置 sh bin/kafka-configs.sh --describe --bootstrap-server xxxx:9092 --version 所有可配置的动态配置 请看最后面的 附件 部分 2 增删改 配置 --alter –alter 删除配置: --delete-config k1=v1,k2=v2 添加/修改配置: --add-config k1,k2 选择类型: --entity-type
htm 五、测试 本次测试分三个场景,场景一为linux服务器上新建两个队列管理器QM1和QM2,QM1向QM2发送消息,观察消息是否正常送达QM2;场景二为windows服务器新建队列管理器QM3 ,向linux服务器上的QM2发送消息,观察消息是否正常送达QM2;场景三为编写java程序,通过调用QM1的相关参数向QM2发送消息,观察消息是否正常送达QM2。 1.在linux服务器192.168.0.151上新建两个队列管理器QM1和QM2: mqm@mq:~> crtmqm QM1 mqm@mq:~> crtmqm QM2 2.启动QM1和QM2 mqm (RCVR) TRPTYPE (TCP) REPLACE 6.创建QM2的队列和通道 mqm@mq:~/sh> runmqsc QM2 < define_qm2.tst > out 查看out --------- 免费下载地址在 http://linux.linuxidc.com/ 用户名与密码都是www.linuxidc.com 具体下载目录在 /2018年资料/8月/19日/IBM MQ运维使用手册
QM1向QM2发送消息,观察消息是否正常送达QM2;场景二为windows服务器新建队列管理器QM3,向linux服务器上的QM2发送消息,观察消息是否正常送达QM2;场景三为编写java程序,通过调用 QM1的相关参数向QM2发送消息,观察消息是否正常送达QM2。 1.在linux服务器192.168.0.151上新建两个队列管理器QM1和QM2: mqm@mq:~> crtmqm QM1 mqm@mq:~> crtmqm QM2 2.启动QM1和QM2 mqm@ mqm@mq:~/sh> runmqsc QM2 < define_qm2.tst > out 查看out文件,确认没有错误; 7.进入mqsc命令模式,在QM2上新建并启动监听 DEFINE LISTENER 1414,单击完成 2.
--sort -size | head -10 #占用cpu使用前10的进程 ps -eo comm,pcpu --sort -pcpu | head -10 一、Apache服务优化: 2 1.配置cronolog进行日志轮询 2 2.错误页面优雅显示 2 3.mod_deflate文件压缩功能 3 4.mod_expires缓存功能 4 5.更改apache的默认用户 5 6.worker SYN_RECV:一个连接请求已经到达,等待确认 ◆SYN_SENT:应用已经开始,打开一个连接 ◆ESTABLISHED:正常数据传输状态 ◆FIN_WAIT1:应用说它已经完成 ◆FIN_WAIT2: -v 127.0.0.1 |awk '{ print $5 }' | sort|awk -F: '{print $1,$4}' | uniq -c | awk '$1 >50 {print $1,$2} 计算带宽大小主要的有2个主要指标(峰值流量和页面大小),我们先做出必要的假设: 1. 峰值流量是平均流量的3倍; 2. 每次访问平均的页面大小是100KB左中。
服务器运维操作命令手册 适用对象:Linux 服务器运维工程师 / 网络工程师 / IT 运维人员 适用环境:CentOS / Rocky / AlmaLinux / Ubuntu / Debian(命令通用 进程查看 ps aux ps -ef | grep nginx top htop 2. 磁盘分区 fdisk -l parted /dev/sdb 2. 文件系统 mkfs.ext4 /dev/sdb1 fsck -y /dev/sdb1 3. 日志查看 journalctl -xe journalctl -u nginx journalctl --since "1 hour ago" 2. sar -u 1 free -h df -h 排障口诀: 负载 → CPU → 内存 → 磁盘 → 网络 → 应用 → 日志 十二、运维实战高频命令组合 # 找出占用 80 端口的进程 ss -lntup
2 安装与使用2.1 安装iptables环境在Linux操作系统中,可以使用yum管理来安装,也可以从官网下载后上传到服务器手动安装。 3.1 查看iptables已设置的规则查看已设置规则列表:iptables -L[root@otn2 ~]# iptables -LChain INPUT (policy ACCEPT)target policy ACCEPT)target prot opt source destination查看已设置规则详细列表:iptables -L -vn[root@otn2 190.168.1.200$ iptables -I INPUT -p icmp --icmp-type 8 -s 192.168.1.10 -j ACCEPT$ iptables -I INPUT 2
DB2维护手册 DB2日常维护日操作 1、检查管理服务器是否启动 用ps命令查看是否有dasusr1后台进程 #ps -ef | dasusr1 请确保管理服务器已经启动,如果没有启动 DB2实例是否已经启动 用ps命令查看是否有db2sysc后台进程 #ps -ef | db2sysc 也可以以DB2实例所有者登录,通过发出db2start命令来确保启动了实例(如果实例已经启动,则会告知 DB2日常维护月操作 查看DB2日志 请至少每月查看一次db2diag.log文件,看其中是否有异常。 一旦 DB2 的活动日志文件被删除,或者所在的存储设备出现问题,则不可避免地造成 DB2 数据库系统宕机。 控制 日志文件尺寸由参数 LOGFILSIZ 控制 LOGPRIMARY + LOGSECOND < 256 (不同的 DB2 版本略有不同,请参看相同版本的 DB2 手册确认)
集群监控管理 集群整体运行状态 # ceph -s cluster: id:8230a918-a0de-4784-9ab8-cd2a2b8671d0 health: HEALTH_WARN <ID>0.0 2、将osd进程stop systemctl stop ceph-osd@<ID> 3、将osd设置out ceph osd out<ID> 4、立即执行删除OSD中数据 ceph osd 2、在更改pool的PG数量时,需同时更改PGP的数量。PGP是为了管理placement而存在的专门的PG,它和PG的数量应该保持一致。 Ceph 需要 mon 中的大多数在运行并能够互相通信,比如单个 mon,或 2 个中的 2 个,3 个中的 2 个,4 个中的 3 个等。初始部署时,建议部署 3 个 monitor。 后续如果要增加,请一次增加 2 个。 #新增一个monitor # ceph-deploy mon create $hostname 注意:执行ceph-deploy之前要进入之前安装时候配置的目录。
# windows文本转linux文本 unix2dos # linux path' # 实时某个目录下查看最新改动过的文件 cp -v /dev/dvd /rhel4.6.iso9660 # 制作镜像 diff suzu.c suzu2. # 打开多个文件 vim -r file # 恢复上次异常关闭的文件 .file.swp vim -O2 file1 file2 # 垂直分屏 vim -dv 1.tar.bz2 # 解压bzip2 bzip2 -v 1.tar # bzip2压缩 bzcat # 查看bzip2 gzip file
前言 本文档从运维工程师视角出发,系统阐述 OpenClaw Workspace 的生产环境部署、配置管理、故障诊断、安全加固和自动化运维实践。 本文与《OpenClaw 进阶配置与自动化运维实战手册》形成互补:前者侧重 Gateway、渠道和 Cron 等系统级配置,后者聚焦 Workspace 这一 Agent 运行环境的规划与运维。 /init-workspace.sh work 标准化模板 标准 AGENTS.md 模板: # 工作手册 ## 职责范围 - 负责:运维自动化、故障诊断、配置管理 - 不负责:业务代码开发、硬件采购决策 文件运维:各配置文件承担不同职责——openclaw.json 是系统宪法,AGENTS.md 是工作手册,TOOLS.md 是安全边界。理解各文件的职责边界是故障排查的基础。 通过遵循本文档的实践,运维团队可以建立规范的 Workspace 运维体系,确保 OpenClaw 在生产环境中的稳定运行。
数据量庞大且类型丰富,复杂的多云环境,繁多的监控运维工具,超级多的无效运维事件,让该集团运维工作挑战巨大,运维人员日常工作中如坐针毡,“惶惶不可终日”。 类似情况在其他企业比比皆是。 同为打工人,运维人不该被这样对待。如何改变这种局面?近年来,智能运维异军突起,成为解救企业和运维人员的及时雨。 Gartner就预测设备和应用程序所产生的数据量正以每年2-3倍的速度增长,且数据类型多样。 “传统运维是建立在CMDB的基础之上,CMDB自身的限制性、时效性、可维护性、复杂性等决定了其无法给运维人员呈现不同运维工具之间的监控关系。”爱数运维技术专家透露道。 2 如何让智能运维1+1>2 爱数与听云在智能运维领域开启了新模式。今年1月份,双方携手正式推出了智能运维整合方案,旨在帮助客户全面管理、深度洞察海量、多源、异构的机器数据。
写在前面:为什么你需要“神器”而非“常用命令 这份手册更多是为了在突发的线上事故中,给 SRE 和运维工程师一条能立刻上手的“生路”。目标很直接——从问题出现到恢复可用,不超过半小时。 ago Process: 12345 ExecStart=/usr/bin/myapp (code=exited, status=1/FAILURE) 2. 若是内存泄露导致持续增长,临时在流量层做流量削峰(调度到备用节点或缩减并发),例如在 nginx 上限制: # nginx 示例片段(仅供运维在配置管理中应用) limit_conn_zone $binary_remote_addr 有请IT运维技术圈的波哥讲两句“ 这个氛围配这个称呼在互联网这行来讲就有点对不齐! 每次遇到这个情况我就想这么接话: “遇到各位是缘分,承蒙厚爱,啥也别说了,都在酒里了.我干了,你们随意!” 运维X档案系列文章: 从告警到CTO:一个P0故障的11小时生死时速 老杨的关于AI的号
http baseurl=http://10.0.0.1/centos5.5 #挂载iso #mount -o loop CentOS-5.8-x86_64-bin-DVD-1of2. -c 2 -d 4 -s 0 # 随机生成指定类型密码 echo 1 > /proc/sys/net/ipv4/tcp_syncookies # 使TCP SYN Cookie 保护生效 # "SYN Attack"是一种拒绝服务的攻击方式 grep Swap /proc/25151/smaps |awk '{a+=$2}END{print a}' # 查询某pid # 如果一个进程收到一个SIGUSR1信号,然后执行信号绑定函数,第二个SIGUSR2信号又来了,第一个信号没有被处理完毕的话,第二个信号就会丢弃。 * * * 命令或脚本 >> file.log 2>&1 echo "40 7 * * 2 /root/sh">>/var/spool/cron/work # 普通用户可直接写入定时任务
命令功能说明线上查询及帮助命令 (2 个)man查看命令帮助,命令的词典,更复杂的还有 info,但不常用。help查看 Linux 内置命令的帮助,比如 cd 命令。 dumpe2fs导出 ext2/ext3/ext4 文件系统信息。dumpext2/3/4 文件系统备份工具。fdisk磁盘分区命令,适用于 2TB 以下磁盘分区。 parted磁盘分区命令,没有磁盘大小限制,常用于 2TB 以下磁盘分区。mkfs格式化创建 Linux 文件系统。partprobe更新内核的硬盘分区表信息。 e2fsck检查 ext2/ext3/ext4 类型文件系统。mkswap创建 Linux 交换分区。swapon启用交换分区。swapoff关闭交换分区。sync将内存缓冲区内的数据写入磁盘。 resize2fs调整 ext2/ext3/ext4 文件系统大小。系统权限及用户授权相关命令(4 个)chmod改变文件或目录权限。chown改变文件或目录的属主和属组。chgrp更改文件用户组。
config = yaml.load(conf) except ruamel.yaml.YAMLError as e: print("解析错误:",e) #(2) print(i, config['obj'][i]) #数组Array print(config['array'][0]['key1'], config['array'][1]['key2' ], config['array'][2]['key3']) #(3)修改与添加 config['NAME'] = "WeiyiGeek" config['add'] = " ('love', ['Computer', 'Cook', 'car'])]) array : [ordereddict([('key1', 'I')]), ordereddict([('key2' return holderlist def main(): global destination,\ holderlist if len (sys.argv) > 2:
config = yaml.load(conf) except ruamel.yaml.YAMLError as e: print("解析错误:",e) #(2) print(i, config['obj'][i]) #数组Array print(config['array'][0]['key1'], config['array'][1]['key2' ], config['array'][2]['key3']) #(3)修改与添加 config['NAME'] = "WeiyiGeek" config['add'] = " ('love', ['Computer', 'Cook', 'car'])]) array : [ordereddict([('key1', 'I')]), ordereddict([('key2' return holderlist def main(): global destination,\ holderlist if len (sys.argv) > 2:
内部运维工具的访问路径重构,核心在于以“身份态锚定”为核心构建全链路信任校验体系,彻底摒弃传统架构中基于内网网段的准入逻辑,将每一次运维访问请求都拆解为身份、环境、操作三重态的综合核验。 在实际的技术落地中,运维人员对不同层级运维工具的访问,不再依赖固定的内网权限配置,而是需要先完成身份态的动态核验,涵盖人员身份的实时有效性、运维角色的权限匹配度,身份信息会与企业人员管理体系实时同步,确保权限与岗位状态完全绑定 ,彻底改变了传统运维访问的粗放模式。 传统架构中,运维人员的批量操作往往缺乏过程校验,一旦出现操作偏差难以及时干预,甚至会引发连锁性的运行问题,而零信任架构下,会基于运维人员的历史操作数据、岗位场景特征,生成专属的行为基线,基线会区分常规运维 这种重构要求让运维操作从“事后追溯”转变为“事中校准”,不仅强化了访问链路的安全性,更优化了运维操作的合规性与精准性。