, 车间生产设备运维的数据难以精确及时的反馈到企业的管理层, 在很大程度上严重影响管理决策的及时性和科学性。 设备点检巡检管理系统建立点检任务模式,保证点检监测的正常有效进行,该系统实现设备点检数据汇总分析功能,异常数据通知功能,及时反馈设备故障信息,为设备维修人员提供信息提示;通过有效的点检管理,可预防机械设备工作可靠性下降和故障的发生 ,提高设备生产率,降低设备运转费用和维修费用。 一、系统组成图片二、系统功能设备点检系统是一套专门针对制造企业的点检系统,可以对车间的设备、质量、5S管理、安全等进行巡检,将设备点检数据汇总分析,异常设备数据实时通知,故障信息实时告警,运维工单一键生成 ,有效预防设备可靠性下降和故障的发生,提高设备生产率,降低维修成本。
YOLOv8-Pose关键点检测✨✨✨手把手教你从数据标记到生成适合Yolov8-pose的yolo数据集;模型性能提升、pose模式部署能力;应用范围:工业工件定位、人脸、摔倒检测等支持各个关键点检测 ;实时更新中,模型轻量化创新结果如下:layersparametersGFLOPskbmAP50mAP50-95yolov8-pose18733794969.668420.9210.697yolov8- -C2f_DCNV3-pose34128959308.659700.9260.743yolov8-C2f_PConv-pose20530182968.561340.9250.695yolov8-C2f_BiLevelRoutingAttention-pose20530182968.561340.9260.734yolov8 -C2f_ScConv-pose2563188264964790.9210.7yolov8-slimneck-pose30933782008.969320.930.829yolov8-C2f_RepvggOREPA-pose28045651928.493590.9150.677yolov8 -C2f_OREPA-pose19645625048.293030.9310.691YOLOv8-C2f_LSKA_Attention-pose22629870008.560800.9250.652yolov8
本文解决什么问题:教会你如何用自己的数据集训练Yolov8-pose关键点检测 ✨✨✨手把手教你从数据标记到生成适合Yolov8-pose的yolo数据集; 模型性能提升、pose模式部署能力; 应用范围 :工业工件定位、人脸、摔倒检测等支持各个关键点检测; 1.YOLOv8 介绍 YOLOv8目前支持目标检测、实例分割、图像分类、目标跟踪、姿态估计,也许还有更多惊喜在后面。 pose.yaml即可 # Ultralytics YOLO , AGPL-3.0 license # COCO8-pose dataset (first 8 images from COCO train2017 pose.zip 2.2修改ultralytics/cfg/models/v8/yolov8-pose.yaml 修改为21个关键点和一个类别nc:1 # Ultralytics YOLO , AGPL Pose关键点检测》专栏介绍 实时更新中,模型轻量化创新结果如下: layers parameters GFLOPs kb mAP50 mAP50-95 yolov8-pose 187 3379496
传统的点检维护、检查等记录多为纸质版,使用“二维码+微信小程序”可实现表单记录电子化,现场记录反馈实现“扫、填、发”,节约办公纸张。 设备档案,微信扫码即可查阅二维码就像“设备的身份证”,包含了设备参数、包机责任人等基础信息,以及操作手册、技术资料等信息,需要时不用再翻找资料,扫码即可查看。 使用过程中不断添加的点检、维修、保养等动态记录也能被保存在码上,逐渐形成设备的动态档案。 内部分工协作,安全高效企业生产设备数量众多,需要多人协作维护,管理员可以指定企业内部成员,分别负责不同设备的点检维修等业务,专人负责专项工作,互相通知提醒,高效分工协作。 、添加后续动态、后续处理进度等打印二维码,贴在设备表面,现场人员就可以扫码进行点检了有权限的管理人员可以手机端或电脑登录管理后台,查看及导出数据2、如何制作标牌落地我们提供了多种适合贴在设备上的标签样式
介绍: github地址:https://github.com/derronqi/yolov8-face 效果: 项目: 代码: using System; using System.Collections.Generic sender, EventArgs e) { fd.LoadWeights(Application.StartupPath+"\\weights\\yolov8n-face.onnx
而设备点检板块作为设备管理系统中的关键模块之一,其重要性不言而喻。它能够帮助企业制定科学合理的点检标准,安排设备点检任务,并记录点检结果,为设备管理提供有力的数据支持。 本篇文章将围绕如何开发设备管理系统中的设备点检板块展开讨论,重点介绍点检单、点检标准、设备点检统计等核心内容。 本文你将了解设备点检板块功能设计设备点检板块的业务流程 开发技巧实现效果 一、设备点检板块功能设计1.设备点检单设备点检单是设备点检板块的核心功能之一,它记录了每次设备点检的详细信息,包括点检项、点检时间 功能:定义不同类型设备的点检标准设置点检项的检查周期(如每日、每周等)定期更新设备点检标准,适应设备的实际需求3.设备点检统计设备点检统计模块通过汇总点检数据,帮助管理者分析设备的运行状态和点检效果,为决策提供依据 2.点检执行点检人员根据设备点检单的内容,对设备进行逐项检查,并记录每一项检查的结果。在点检过程中,系统可提供设备的详细信息,帮助点检人员确认设备状态。流程:点检人员登录系统,查看待处理的点检任务。
FAST,全称Features From Accelerated Segment Test,是一种快速的角点检测算法,本文记录相关内容。 特征点提取 特征点提取到底是提取的是什么? LoG、HoG以及SIFT、SURF等被提出,这些方法大多涉及图像局部邻域的梯度计算和统计,相比较而言,FAST(Features From Accelerated Segment Test)在进行角点检测时 角点分类器 选取需要检测的场景的多张图像进行FAST角点检测,选取合适的阈值n(n<12),提取多个特征点作为训练数据 对于特征点邻域圆上的16个像素 x \in {1,2,…,16 },按下式将其划分为 算法特点 FAST算法比其他角点检测算法要快 受图像噪声以及设定阈值影响较大 当设置 <12 FAST 不产生多尺度特征,不具备旋转不变性,而且检测到的角点不是最优 Python OpenCV 实现 它被称为 对于邻域,定义了三个标志,cv.FAST_FEATURE_DETECTOR_TYPE_5_8,cv.FAST_FEATURE_DETECTOR_TYPE_7_12和cv.FAST_FEATURE_DETECTOR_TYPE
本文摘要:本文提供了YOLOv8 pose关键点检测 c++部署方式,ONNX Runtime CUDA和cpu部署 ONNX Runtime优点:通用性好,速度较快,适合各个平台复制; /model/yolov8n.onnx";//std::string model_path_seg = "D:/DL/AIDeploy/YOLOv8-Deploy/yolov8onnxruntime/model /yolov8n-seg.onnx";std::string model_path_pose = "D:/DL/AIDeploy/YOLOv8-Deploy/yolov8onnxruntime/model /yolov8n-pose.onnx";//Yolov8SegOnnxtask_segment_ort;Yolov8PoseOnnxtask_pose_ort;cv::Mat src = imread( ); //yoolov8 onnxruntime detect//yolov8_onnx(task_segment_ort, img, model_path_seg); //yolov8 onnxruntime
1.引言:AR技术重塑工业设备点检新生态在工业4.0时代,设备维护与点检正经历从传统纸质记录向数字化、智能化的深刻变革。 工业设备点检系统的核心需求包括:实时数据采集、精准设备识别、历史数据对比、异常预警机制以及高效的数据同步。Rokid眼镜凭借其轻量化设计、高分辨率显示和强大的环境感知能力,成为工业点检场景的理想载体。 在设备点检场景中,我们需要根据不同设备类型、不同点检项目动态生成相应的数据录入界面。 通过JSON配置的方式,系统可以在不重新编译应用的情况下,灵活调整点检表单,适应不同设备的点检需求。 8.未来展望:AR技术在工业4.0中的深度融合随着5G、AI和物联网技术的快速发展,AR眼镜在工业领域的应用前景将更加广阔。
,cv2.COLOR_BGR2GRAY)#将彩色图片转换为灰度图片 gray=np.float32(gray) dst=cv2.cornerHarris(gray,2,3,0.04)#Harris 角点检测 *dst.max()]=[0,0,255]#阈值 cv2.imshow('result',img) cv2.waitKey() cv2.destroyAllWindows() 算法:Harris角点检测是属于局部特征检测 (局部)具有鲁棒性 该区域应该包含感兴趣的结构(可辨别性) dst=cv2.cornerHarris(img, blockSize, ksize, k) img表示原始图像 blockSize表示角点检测中的领域大小 ksize表示Sobel求导中使用的窗口大小 k表示Harris 角点检测方程中的自由参数,取值参数为[0,04, 0.06] 文献:Harris, C.
Opencv中提供了SimpleBlobDetector的特征点检测方法,正如它的名称,该算法使用最简单的方式来检测斑点类的特征点。 再细化检测参数 params = cv2.SimpleBlobDetector_Params() #斑点检测的可选参数 #params.minThreshold= 10 #亮度最小阈值控制 #params.maxThreshold 1.0 #params.filterByInertia = True# 惯性率控制 #params.minInertiaRatio = 0.2#圆形的惯性率等于1,惯性率越接近1,圆度越高 然后执行斑点检测 : detector = cv2.SimpleBlobDetector_create(params)#创建斑点检测器 keypoints = detector.detect(gauss) #在哪个图上检测斑点 plt.subplot(1,1,1) plt.imshow(cv2.cvtColor(im_with_keypoints, cv2.COLOR_BGR2RGB)) plt.title("OpenCV 斑点检测
原始图像 im_gray=rgb2gray(im)#将彩色图片转换为灰度图片 blobs_doh=blob_doh(im_gray,max_sigma=30,threshold=0.005)#DoH斑点检测 axes[idx+1].add_patch(col),axes[idx+1].set_axis_off() pylab.tight_layout() pylab.show() 算法:DoH斑点检测是通过计算图像黑塞行列式矩阵中的极大值来检测斑点
im_gray=rgb2gray(im)#将彩色图片转换为灰度图片 blobs_log=blob_log(im_gray,max_sigma=30,num_sigma=10,threshold=.1)#LoG斑点检测 axes[idx+1].add_patch(col),axes[idx+1].set_axis_off() pylab.tight_layout() pylab.show() 算法:LoG斑点检测是通过搜索
给棋盘的角点标上红色: “我是横行无忌的红螃蟹" 给螃蟹的角点标上绿色 源码如下: # -*- coding: utf-8 -*- """ Created on Dec 15 22:19:18 2019 COLOR_BGR2GRAY) gray = np.float32(gray) dst = cv2.cornerHarris(gray, blockSize=5, ksize=7, k=0.1) #第三个参数ksize决定了角点检测的灵敏度 @param src Input single-channel 8-bit or floating-point image. .
人脸关键点检测是人脸在工业应用中一个比较重要的基础性研究,可以说,大多数的人脸相关业务都是在此基础上进行的二次开发。比如人脸识别,试妆算法,人脸融合等。人脸的关键点检测的好坏,直接影响后续的业务。 目前很多公司都有关于人脸关键点检测的api的业务,比如腾讯云,百度云,face++等。 这里不做过多的介绍,只是讲解一下,利用opencv的包dlib以及调用face++的接口,展示一下人脸关键点检测大致概念。 使用dlib进行人脸关键点检测 dlib封装了一个人脸关键点提取算法,下载好模型后可直接调用。 (68点) 使用face++ APi接口进行人脸关键点检测 face++ 实现了83点以及106点的关键点检测,直接去官网申请账号,进行调用接口就行。 ? (83点) ?
)#原始图像 im_gray=rgb2gray(im)#将彩色图片转换为灰度图片 dog_blobs=blob_dog(im_gray,max_sigma=30,threshold=0.1)#DoG斑点检测 axes[idx+1].add_patch(col),axes[idx+1].set_axis_off() pylab.tight_layout() pylab.show() 算法:DoG斑点检测类似于
: void cv::cornerHarris ( InputArray src, // 输入图像 (单通道,8位或浮点型) OutputArray dst, lambda_2) $ 则相应的 $\lambda_1-\lambda_2$ 平面为: 3.1 goodFeaturesToTrack() OpenCV 中 Shi-Tomasi 角点检测函数为 : void cv::goodFeaturesToTrack ( InputArray image, // 输入图像 (单通道,8位或浮点型32位) 0); } 检测结果:将求得的角点响应值$R$,输出 txt 文件,与 cornerHarris() 输出的 $R$ 进行比较,结果几乎完全相同 (只有几处小数点后7位的值不同) 5 亚像素角点检测 << "]: (" << corners[i].x << "," << corners[i].y << ")" << endl; } waitKey(0); } 输入棋盘格5行8列
,与我们的目标不太符合,因此我们将买家和卖家相应的图片全部用于关键点检测模型训练(即不区分买家和卖家图片)。 实验后期考虑到在 Consumer-to-shop Clothes Retrieval Benchmark数据集上的训练效果不是很好(因为部分买家服装图片对于关键点检测训练干扰较大),我们选择了专门用于服装关键点检测的 对于以上两个数据集,我们均采用先分开训练4点检测,6点检测,8点检测的模型,然后再尝试4,6,8点检测统一训练。我们在各自的数据集上都采用了相应的对比实验以便测试评估最优模型。 4.2 部分图片效果展示 以下为Consumer-to-shop_Clothes_Retrieval_Benchmark数据集4、 6和8个点的部分图片预测效果展示。 ? 以下为Fashion Landmark Detection Benchmark数据集4、 6和8个点的部分图片预测效果展示。 ?
",1024); 【视频演示和解说】 使用C#部署yolov8-pose的姿态估计关键点检测tensorrt模型_哔哩哔哩_bilibili测试环境:win10 x64vs2019cuda11.7+cudnn8.8.0TensorRT YOLOV10重磅开源:延迟比v9减少46%;参数量比v8少2.8倍(包含YOLO全家桶),YOLOv10杀疯了!Github上刚刚发布!超热乎的实时端到端目标检测来了!CV方向的初学者请速速看过来! ,使用纯opencv部署yolov8目标检测模型onnx,北京籍前华为首名女黑客瑾瑾 在b站坚持直播编程到凌晨 可直播间却仅1在线,突破开源天花板! ChatTTS:对话式高可控的语音合成模型,C++使用纯opencv去部署yolov8官方obb旋转框检测,将yolov8封装成一个类几行代码完成语义分割任务,使用C++部署yolov9的tensorrt ("yolov8n-pose.engine"); VideoCapture capture = new VideoCapture(0); if (!
专用的异常点检测算法 对于异常点检测而言,其本质是一个分类问题,将所有样本划分为正常样本和异常样本两类,但是不同于监督学习中的分类算法,这里的输入数据是没有标签的,所以是一种无监督学习的策略。 第二步计算每颗决策树中样本点的高度平均值,离根节点越近,高度越小,离根节点越远,高度越大; 第三步判断是否为异常点,根据高度值构建一个打分系统,取值范围0-1,靠近1被认为是异常点; sickit-learn中提供了多种异常点检测算法 ,上述两种异常点检测算法的用法如下 >>> from sklearn.svm import OneClassSVM >>> X = [[0], [0.44], [0.45], [0.46], [1]]