80e0-2980b6c8dba6 2018-08-23 15:23:36.136 3558 INFO nova.compute.resource_tracker [req-f76d5408-00f8-4a67 | {} | 1 | RegionOne | | 58bd5f09811a4ebcb62a4b51fb7ae444 | NULL | admin | 960580852a594c078e68fe3683e35db5 | http://keystone-ha-vip:5000/v3/ | {} | 1 | RegionOne | | a0b10cb04a5b4ca3859aaf2ea4ca2a3b [root@EXTENV-194-18-2-11 ~]# systemctl restart httpd.service memcached.service 系列文章链接 Openstack运维常见问题记录 (3) Openstack运维常见问题记录(2) Openstack运维常见问题记录(1)
都会进行 DNAT,将原本访问 ClusterIP:Port 的数据包 DNAT 成 Service 的某个 Endpoint (PodIP:Port),然后内核将连接信息插入 conntrack 表以记录连接 # 启动第一个业务进程并记录 pid echo "app1 started with pid $pid1" /bin/app2 & pid2="$!" # 启动第二个业务进程并记录 pid echo "app2 started with pid $pid2" handle_sigterm() { echo "[INFO] Received SIGTERM
高并发场景,扩大源端口范围 高并发场景,对于 client 来说会使用大量源端口,源端口范围从 net.ipv4.ip_local_port_range 这个内核参数中定义的区间随机选取,在高并发环境下 通常 Pod 源端口范围默认是 32768-60999,建议将其扩大,调整为 1024-65535: sysctl -w net.ipv4.ip_local_port_range=”1024 65535 61000 61001 $ cat /proc/sys/net/ipv4/ip_local_port_range 61000 61001 实验1:相同目标 ip 和相同目标端口下的端口数量限制 16215 $ nohup: ignoring input and appending output to 'nohup.out' $ nohup nc 123.125.114.144 443 -v & [4] 123.125.114.144:80 SYN-SENT 0 1 10.0.2.15:61000 123.125.114.144:80 实验4:
文章目录 kafka-leader-election Leader重新选举 More 日常运维 、问题排查 怎么能够少了滴滴开源的 滴滴开源LogiKM一站式Kafka监控与管控平台 kafka-leader-election 进行Leader重选举 > sh bin/kafka-leader-election.sh --bootstrap-server xxxx:9090 --topic test_create_topic4 和分区进行Leader重选举 先配置leader-election.json文件 { "partitions": [ { "topic": "test_create_topic4" , "partition": 1 }, { "topic": "test_create_topic4", "partition": 2 } 三者互斥 --path-to-json-file 配置文件批量选举,此参数跟--topic和all-topic-partitions 三者互斥 More Kafka专栏持续更新中…(源码、原理、实战、运维
话不多说,开始分享最近在k8s使用和运维上遇到的一些问题和解决经验。 GitCommit:"19e47ee3283ae98139d98460de796c1be1e3975f", GitTreeState:"clean", GoVersion:"go1.13.5"} 三 运维工具 其中,我们通常在持续集成时会使用yaml文件做发布配置,运维时通过命令行操作来执行安装、重启、查看日志等常规操作;而dashboard则是日常观察和问题排查的简单且便捷的方式。 通过dashboard,我们可以查看各service、deployment、pod的健康状况,并在config map中查看已配置参数(运维中很重要,一些服务启动异常,往往是配置有误导致的)。
最近偶尔需要处理一些客户问题,这里记录更新下常用命令 OS tcpdump -i eth0 -s 0 -w s2_s.cap port 3006 strace -T -tt -e trace=all # Sample CPU stack traces for the entire system, using last branch record for stacks, ... (>= Linux 4. ~ $$^pg_$$ and nspname<>$$information_schema$$ group by 1,2,3,4 order by 5 desc; -- 库空间 select datname RowShareLock' then 2 when 'RowExclusiveLock' then 3 when 'ShareUpdateExclusiveLock' then 4 csv|awk -F "," '{print $1" "$2" "$3" "$8" "$14}' |grep "duration:"|grep -v "plan:"|awk '{print $1" "$4"
df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 50G 46G 4G
RAID 0结构图解 如图所示:系统向四个磁盘组成的逻辑硬盘(RADI 0 磁盘组)发出的I/O数据请求被转化为4项操作,其中的每一项操作都对应于一块物理硬盘。 从理论上讲,四块硬盘的并行操作使同一时间内磁盘读写速度提升了4倍。 但由于总线带宽等多种因素的影响,实际的提升速率肯定会低于理论值,但是,大量数据并行传输与串行传输比较,提速效果显著显然毋庸置疑。 (4) RAID 3 RAID 3是把数据分成多个”块”,按照一定的容错算法,存放在N+1个硬盘上,实际数据占用的有效空间为N个硬盘的空间总和,而第N+1个硬盘上存储的数据是校验容错信息,当这N+1个硬盘中的其中一个硬盘出现故障时 以四个硬盘组成的RAID 5为例,其数据存储方式如图4所示:图中,P0为D0,D1和D2的奇偶校验信息,其它以此类推。
| {} | 1 | RegionOne | | 58bd5f09811a4ebcb62a4b51fb7ae444 | NULL | admin | 因为在运维过程中,修改过glance的默认路径由/var/lib/glance/images修改为/data1/glance,并且将/var/lib/glance/images下的镜像都mv至/data1 /glance下了,而此时尽管数据已经前已过去了,但是image的元数据信息却牢牢的记录在glance的image_locations表中,查看得知: mysql> select * from glance.image_locations status: active 1 row in set (0.00 sec) 真像:原来原有目录/var/lib/glance/images目录下的镜像都已经mv至/data1/glance下,而数据库中却依旧记录着就的路径内容 compute节点的nova-compute.log报错如下: 2017-05-09 15:18:01.952 10888 ERROR nova.virt.block_device [req-344ed875-4bc4
在运维实战中,如果有若干台数据库服务器,想对这些服务器进行同等动作,比如查看它们当前的即时负载情况,查看它们的主机名,分发文件等等,这个时候该怎么办?一个个登陆服务器去操作,太傻帽了! ClusterShell就是这样一种小的集群管理工具,原理是利用ssh,可以说是Linux系统下非常好用的运维利器! 下面是ops-server1服务器上的操作记录: 1)做好主机映射关系,将ip和主机名对应起来,使用比较方便。 [root@ops-server1 ~]# cat /etc/hosts 127.0.0.1 localhost localhost.localdomain localhost4 localhost4 : Kernel \r on an \m ops-server2: ops-server4: CentOS release 6.8 (Final) ops-server4: Kernel \r on
['mysql','-u','root','-p123','-e','show processlist']
ECDSA key fingerprint is 05:51:e5:c4:d4:66:9b:af:5b:c9:ba:e9:e6:a4:2b:fe.
interface 不管 ARP 请求的内容,直接用自己的 MAC 地址作为应答的行为被成为 ARP proxy,是 calico 开启的,可以通过下面的命令确认: # cat /proc/sys/net/ipv4/
pool.yaml , 修改或新增:disabled: true apiVersion: projectcalico.org/v3 kind: IPPool metadata: name: default-ipv4- 删除旧的IP pool calicoctl delete pool default-ipv4-ippool 问题:Failed to mount API filesystems, freezing. ingress通过hostport暴露端口30067不能访问 检查发现ingress controller使用的80端口,与haproxy冲突 问题:不同节点的pod间无法通讯 /proc/sys/net/ipv4/ 问题:容器内访问不了集群节点的v6地址 calicoctl edit ippool default-ipv6-ippool 添加参数 natOutgoing: true Istio ipv4 v6 双栈部署有的环境 host上也尝试类似的规则,如: ip6tables -t nat -I OUTPUT -p tcp –dport 30022 -j REDIRECT –to-ports 22 然后验证 ssh fd15:4ba5
'$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" $request_time'; 记录的形式如下 " %>s %b \"%{Referer}i\" \"%{User-Agent}i\" %T " combined CustomLog log/access_log combined 记录的形式如下 4. 统计HTTP响应状态码 通过统计响应状态码可以看出服务器的响应情况,比如499较多时可以判断出服务器响应缓慢,再结合3可以找出响应慢的接口, 这样就能有针对性进行性能分析和优化。 ++}END{for( a in COUNT) print a,COUNT[a]}' |sort -k 2 -nr|head -n20 nginx转发请求时可以记录响应请求的服务器IP,先通过grep $4对应的是响应时间。当然,如果把grep的内容更换成某个接口也就可以统计出该接口对应的并发量了。
蓝屏是因为当时的镜像打的驱动是virtio的驱动,而磁盘设备所需的是scsi驱动,所以当时的镜像都会蓝屏,后来重制的镜像,磁盘驱动打的是scsi驱动,镜像上传时再加2个参数:hw_disk_bus=scsi,hw_scsi_model=virtio-scsi,后测试没有再蓝屏
Cname与A记录(Address)区别 A记录是解析域名到IP,Cname是解析域名到另外一个域名。 一台服务器可以布置多个网站,也可以有多个域名,如 如域名A----->A记录----->真正的服务器 域名B(也叫A别名) 域名C(也叫A别名) 如果B,C此时也是通过A记录的形式到真正的服务器,那么哪一天真正的服务器修改了
4 迁移键 redis中,提供了3中迁移键的方法: move dump+restore migrate 下面分别介绍: 1、move move命令用户在多个数据库中进行键迁移。
4) 泛域名解析 即将该域名所有未指定的子域名都指向一个空间。 在“主机名”中填入*,“类型”为A,“IP地址/主机名”中填入web服务器的IP地址,点击“新增”按钮即可。 4) 负载均衡 服务器负载均衡(Server Load Balancing,SLB)是指在一系列资源上面智能地分布网络负载。 当域名的MX记录有多个目标地址且优先级相同时,表示轮循,可以达到负载均衡的目的,但需要邮箱服务商支持。 4、NS记录 解析服务器记录。用来表明由哪台服务器对该域名进行解析。 记录优先于A记录。 即,如果一个主机地址同时存在NS记录和A记录,则A记录不生效。这里的NS记录只对子域名生效。
- name: "Demo 3" debug: msg: "{{ item }}" with_items: - 1 - 2 - 3 - 4 when: item > 1 and ( item == 3 or item ==5) #列表中的所有条件同时成立时,对应的任务才会执行 - name: "Demo 4" debug item=1) skipping: [local] => (item=2) ok: [local] => (item=3) => {"msg": 3} skipping: [local] => (item=4) testpath: /bin/bash teststr: "thisisstringdemo" testnum: 1024 a: - 2 - 5 b: [1,2,3,4,5 fail: #关键点 msg: "Interrupt running playbook" - debug: msg: "3" - debug: msg: "4"