<HHMISS>.dat rows=1000 有了以上的信息,就可以从cpu,io等方面来排查了。 测试2个文件,开始在150KB/秒的样子,过了一会速度就降下来了。最低的时候再20kb左右的样子。
项目使用了j2Caceh,异常是j2Cache的RedisCacheProvider抛出来的,如: Exception in thread "main" redis.clients.jedis.exceptions.JedisException (RedisCacheProvider.java:51) at com.xczysoft.ltl.core.support.j2cache.J2CacheRedisCacheChannel.main( (Pool.java:49) ... 3 more j2Cache:红薯开源的2阶段缓存框架:https://gitee.com/ld/J2Cache 问题分析 从异常日志表象上看,很明显是由于jedis 程序使用jedis的地方是j2Cache,红薯开源的一个2阶缓存框架,很可能是红薯的锅。 红薯表示这个锅我不背,肯定不是j2Cache的毛病了。
前言: 这篇文章介绍一下在调试camera驱动的过程,最常见的一个问题,i2c不通导致驱动注册不上,应该如何排查。 下面介绍一下常见的排查方向。 一、i2c地址问题: ①确认i2c地址是否配置正确: 一般sensor的datasheet都会明确给出i2c的地址,需要注意的是,大多数sensor都有SID选择引脚,有两个i2c地址可以选择,这里需要硬件确认选择是哪个地址 ②i2c总线地址是否正确: 需要根据硬件原理图明确i2c是挂载在哪路i2c总线下,并在DTS正确配置。 如下示例引用i2c6m4_xfer。
2021年11月24日,阿里云安全团队向Apache官方报告了Apache Log4j2远程代码执行漏洞。 所以,最近公司项目也要排查是否使用了log4j较低的版本,项目使用了maven,所以要一个一个检查也是麻烦,所以可以使用maven helper依赖,在idea编辑器里使用 安装插件,setting - log4j版本太低,要求高于2.15版本,右键jump to source,找到对应位置进行修改版本号 参考资料: https://github.com/apache/logging-log4j2
故障排查和日志 .NET 程序进行故障排查的方式有很多,笔者个人总结常用的有以下方式: IDE 调试、Visual Studio 中的诊断工具、性能探测器 一般来说,使用 IDE 进行断点调试和诊断只适合在本地开发环境 打印日志 日志是程序进行故障排查最常用最不可缺少的一部分,也是最简单的故障排查方法。程序输出的日志可以为故障排查提供有用的信息,同时通过日志观察程序的运行状态,日志也可以记录审计信息供日后回溯查找。 日志对于排查问题是很有帮助的,可是开发者往往不重视打印日志,或者只是打印一些信息。 在线上排查问题比较麻烦,生产环境不能直接使用开发工具调试,也不能因为排查问题影响到用户的体验,因此开发者必须在日志中预留足够多的信息,或者使用各种监控工具收集程序运行信息,同时开发者需要掌握多种诊断工具的使用方法 ", args: "error"); logger2.LogError(new Exception("报错了"), message: "Hello World!
(m) :30(62.5um/125um OM1) 80(50um/125um OM2) (m) :30(62.5um/125um OM1) 80(50um/125um OM2) 如果接收功率低(Current RX Power < Default RX Power Low Threshold),说明本端接收到的信号过低,则可能出现端口不UP或者UP后报文收发有丢弃,此时请先排查传输距离是否过远 ,超出了该光模块的传输距离,再排查光模块、光纤是否有损坏。 因此,在端口插入光模块并对接成功后,要对发送或接收光功率方面的告警信息进行排查,避免因功率过低或者过高造成流量或者光模块不正常。
bi 块设备每秒接收的块数量,这里的块设备是指系统上所有的磁盘和其他块设备,默认块大小是1024byte,我本机上没什么IO操作,所以一直是0,但是我曾在处理拷贝大量数据(2-3T)的机器上看过可以达到
, 0.9611877685128729] 第1幅图像的平移向量: [-76.45090666433144; -13.574103850496; 434.3319646871819] 第2幅图像的旋转向量 Rodrigues : [-0.1439470290365807; -0.01668449089763162; 0.2466768023889751] 第2幅图像的旋转矩阵: [0.9696439912038159 0.9594923296042489, 0.1399475657760062; -0.001175609778911589, -0.1440352472627967, 0.9895718596886195] 第2幅图像的平移向量
四、解决方案总结(排查清单)强制同频检查玩家的移动代码在哪里执行。 如果玩家在_physics_process中移动,必须选中Camera2D,将其ProcessCallback属性从Idle更改为Physics。 解决:在Godot4.3+项目设置中搜索并开启PhysicsInterpolation(2D物理插值)。引擎会自动在两个物理帧之间计算过渡画面。 解决:在项目设置->Rendering->2D中,勾选Snap2DTransformstoPixel。 在确保完成第1步之前,建议先暂时关闭平滑功能进行测试排查。
排查思路: 检查目标服务器防火墙配置,开启目标端口,重启防火墙 检查目标服务器服务状态 解决过程: 查看服务器调用者日志,当出现接口拒绝连接时,可参考以下方案: 使用ping IP命令查看目标服务器是否宕机
[] args) throws Exception { for (int i=0;i< 100; i++) { new Thread(new SynAddRunalbe(1, 2) ).start(); new Thread(new SynAddRunalbe(2, 1)).start(); } } 来源:https://www.tuicool.com/articles /JbaAf2j
今天发现服务器磁盘满了,使用du命令排查,首先找到根目录 du -h --max-depth=1 / 然后发现/usr下面最大,接着找/usr目录下 du -h --max-depth=1 /usr 发现/usr/local目录最大,我们挨个排查下去,发现是jpom的历史构建产物占用空间太多,去Jpom里删除就好了
2. jstat 监视虚拟机各种运行状态,命令参数有: -gc:监视堆状况 -gcutil:与-gc一致,不同于显示百分比 jstat -gcutil pid 时间间隔 查询次数 jstat -gcutil 排查总结 7.1 CPU过高 top P M X 找到占用高的进程id top -Hp pid 找到占用高的线程nid,转换16进制,(printf '%x\n' pid) jstack pid 来查看线程的详细信息 自动设置的快照-XX:-XX:+HeadDumpOnOutOfMemoryError 用分析工具分析:查看哪个类和实例数过大,本来就定位线程了,只需看该线程的对象信息即可 7.3 死锁 直接JConsole排查死锁
既然已知道异常服务,那可以从这里入手进行分析,又与同事沟通一番,确定了与该服务相关的一些后台模块,接下来重点排查这些模块。 排查方法 日志中出现了sync. B.Lock() // goroutine 2 B.Lock() ... goroutine 1和goroutine 2都在对lock1和lock2加锁,不过它们获取锁的顺序是不同的,一个先获取lock1在获取lock2,另一个先获取lock2在获取lock1.这会导致它们形成了一个环 Lock() defer lock2.Unlock() fmt.Println("func1 end") }() go func(){ lock2.Lock() defer lock2
-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/home/d5000/eas/easDmSync/heapdump.hprof
CPU飙升 线上资源cpu飙升是我们工作中常见的问题,一篇文章搞定排查方法 一、问题复现 现在我有两个接口,代码如下 @RestController public class CPUCheck { /run") public void run(){ while (true){ } } } 代码很简单 接口1“/hello” 返回“hello World”,接口2“ /run” 进入死循环,这样就保证了访问接口2cpu升高。 二、测试 我们将项目打包部署在服务器上,并启动 测试接口 curl http://localhost:9901/thing-test/hello pid 三、排查 通过top命令可以查看到有一个java
排查Maven问题 mvn dependency:tree 三大技巧 第一板斧:找到传递依赖的鬼出在哪里? com.fasterxml.jackson.module:jackson-module-jaxb-annotations:jar:2.2.3:compile [INFO] | \- org.codehaus.woodstox:stax2- api:jar:3.1.1:compile [INFO] | \- javax.xml.stream:stax-api:jar:1.0-2:compile 刚才吹嘘 mvn dependency
class占用) 1、jmap:生成dump文件 test05.txt:生成的文件 115025:PID jmap -dump:live,format=b,file=test05.txt 115025 2、
因为懒,很多时候排查问题起来太依赖可视化工具了,就导致很多Linux命令忘记了。
排查分析 经top 查看原来是一个叫269 的进程一直抢占CPU,占比高达4000%。而该269 进程则是挖矿病毒进行高度伪装,即使是kill 掉该进程也无济于事,后面又会自动跑起来。 top - 19:29:19 up 1:24, 2 users, load average: 41.71, 41.75, 41.46 Tasks: 891 total, 3 running, 0 0 S 0.0 0.0 0:00.00 migration/8 常规做法 针对该挖矿病毒,一般常规做法是 1、查找出具体哪个进程导致占比CPU;比如269; 2、 kill 掉该挖矿进程;sudo kill -9 48124; 3、通过关键词查找挖矿病毒,一般在/tmp 目录底下,如果不清楚查找,直接删除/tmp 目录底下的所有文件; 4、要排查和删掉相关的定时脚本 程序将自动连接EDR管理中心 通过云查杀病毒 口令检测 SSH策略检测 身份鉴别策略组检测 对一些已感染的文件进行隔离病毒 安全防护 1、修改管理员和root 账号的密码,复杂度要高些; 2、