建设具备视频智能识别能力的AI能力平台SkeyeVSS平台提供视频分析策略管理、预警策略管理等功能,能够主动发现集团成员企业生产过程中存在安全隐患的通用场景,包括空岗、睡岗、人员数量超限、安全帽佩戴、护目镜佩戴 视频分析场景① 空岗检测通过接入集团重点岗位的监控影像,利用AI分析能力对重点岗位是否存在人员未到岗、离岗的现象进行检测判断,并将空岗预警信息及时推送给监管人员进行人工审核和处理。 AI平台的需求针对监控视频路数较多、识别场景需求较强的企业,建设AI能力平台,该能力平台与部署于西南公司监控中心安全环保监控平台的AI能力平台相同,除内嵌空岗报警、睡岗监测、工装监测、人员数量监测、安全帽佩戴作业监测 一体机内置与西南公司监控中心安全环保监控平台AI能力平台相同的场景识别能力以及GPU、CPU、内存等算力资源组成的服务器,包括空岗报警、睡岗监测、工装监测、人员数量监测、安全帽佩戴作业监测、护目镜佩戴作业监测 2.0Hz;③ 内存:≥64GB;④ GPU:NIVIDA T4*2⑤ 存储:8TB HDD≥2;⑥ 千兆电口:≥2;⑦ 分析能力:不少于36路视频实时分析(1080P,25fps)⑧ 内置算法包括但不限于:空岗报警
空间分区监控体系前厅区域:采用实时视频分析技术,对迎宾离岗、收银区空岗进行智能识别,当离岗时间超过预设阈值即触发提醒后厨区域:通过热感应设备监测出餐速度,结合订单系统数据优化备餐流程公共区域:部署清洁时效监测模块 ,餐桌清洁状态每5分钟自动扫描检测2. 标准化执行保障系统预设12项核心运营标准,包括:开店准时率:每日10:00自动检测门店开启状态员工形象管理:通过图像识别技术核验工装规范度服务响应时效:记录顾客落座到首次服务响应的时间节点二、特色场景管理升级针对餐饮行业特有的管理难点 能耗精细化管理通过物联网设备实现:设备运行监控:闭店后自动检测广告屏、厨房设备等关机状态环境调节优化:根据客流量动态调节照明和空调系统三、管理效能提升成果经过半年系统化运营,该品牌取得显著改善:1.
图片三、算法功能1、离岗检测SkeyeVSS平台结合部署在边缘侧的AI智能分析网关,基于视频流的智能检测分析,24小时智能监测工作岗位,一旦监测到空岗时间超出规定时间,系统便会立即抓拍提醒,并将违规异常截图传送至后台监控端 2、睡岗检测支持多个区域对多个工作人员进行睡岗识别,具体识别情形包括包含半身、全身;姿势识别包含坐姿、正脸、背面等。 图片3、行为识别支持对对于值班喝酒、抽烟、长时间看手机等行为进行智能检测,并联动报警、抓拍,提醒相关监督人员可以及时纠正在岗人员的不合安全规范的行为,降低安全事故发生概率。 4、服装穿戴检测通过实时视频监测和预警在岗人员是否正确佩戴安全帽、穿戴工作服,若检测到异常,则立即向平台发出告警,支持语音联动、声光装置进行提醒。 五、方案应用SkeyeVSS视频融合云平台基于视频AI技术自动检测违规行为,支持检测睡岗、离岗等行为,实现全场景多功能预警,有效辅助预警、监管、取证,保障作业安全,减少安全事故的发生概率。
默认具备以下场景识别能力:1.3.2 乱堆物料检测 算法名称:乱堆物料检测 能力描述:检测临路(街)单位、商店、住户门前卫生、秩序,当划定区域内出现乱堆放、乱占道、垃圾杂物时产生报警 场景样例:图片1.3.4 绊线入侵检测 算法名称:绊线入侵检测 能力描述:对室内和室外场景人员、机动车、非机动车穿越划定的线的行为进行上报 检测对象:人员、机动车、非机动车 适用场景:室内、室外和围栏场景 视频源规格:1080p-4K 场景样例:图片 1.3.5 吸烟检测 算法名称:吸烟检测 能力描述:检测区域内, :人员 视频源规格:1080p-4K 场景样例:图片1.3.7 烟雾检测 算法名称:烟雾检测 能力描述:对烟雾进行检测,适用于白色、灰色浅色烟雾,主要用于火灾前的烟雾检测 :生产车间等需规范穿戴工作服的场景 视频源规格:1080p-4K 场景样例:图片 1.3.12 空岗识别 人员不在岗时间超限图片1.3.13 睡岗检测 人员在岗睡觉图片
环境、设备运行状态等进行监测,尤其是对皮带有煤无煤状态、皮带偏移、煤流量大小、出料口堵料、皮带非法坐人、皮带锚杆、矸石、木板、堆煤等异常情况进行监测;同时智能识别工作人员是否穿着工服、是否佩戴安全帽、空岗 4)睡岗离岗离岗检测支持设置对象过滤,支持设置离岗时间,支持设置多个检测区域。支持人员移动像素级判断,并可灵活设置移动多少像素为非睡岗,方便用户根据实际场景灵活设置。 对象过滤可以排除只有值班人员在公办区域才算在岗,防止一些风扇转动或者一些晃动的物体被检测为值班人员,支持设置离岗时间检测,检测离开多长时间才算离岗,可根据岗位规定,允许值班人员上班上洗手间的时间,超过时间即触发告警 5)抽烟检测检测人员是否有抽烟行为,若检测到有此行为,则立即触发告警,并抓拍、记录。 系统可自动检测传送皮带的含煤量等级,即满溢、多煤、少煤、无煤状态,状态变改时将产生事件通知。
这使得它能够执行更复杂的检测任务,例如,从识别后厨垃圾桶满溢,到判断吧台上物料的品牌信息。在技术指标上,该方案在一些场景下展现出与传统方案的差异。 技术实现:通过AI视觉技术,系统可检测员工是否规范佩戴手套、口罩,原材料包装是否符合指定要求,以及外带流程是否合规。 技术实现: 后厨安全:实现垃圾桶满溢检测、食品存放规范识别、鼠患识别,并可自动检测厨师帽、口罩佩戴情况。 大型零售集合店 核心需求:陈列管理、门店空岗、设备运行状态。 技术实现:员工可通过统一App,依据预设模板进行日常巡检并拍照上传,系统自动比对标准。
前边已经详细介绍过人脸检测,其实检测类都可以归属于同一类,毕竟换汤不换药! 无论是人脸检测还是笑脸检测,又或者是opencv3以后版本加入的猫脸检测都是一个原理,用的是detectMultiScale函数,其具体使用参考公众号历史文章中的人脸检测(一)——基于单文档的应用台程序即可 ~ 笑脸检测用的还是那个函数(还是熟悉的味道!) 这里主要分两步来说: 1.加载人脸检测器进行人脸检测 2 加载笑脸检测器进行笑脸检测 其具体程序如下,可以实现对图片的检测,也可以调用摄像头对采集到的实时图像进行检测,需要完整项目的后台回复关键词 “笑脸检测”即可~ 关键部分程序如下: ?
再用微信域名检测接口去检测短网址域名。如果出现拦截,可更换短网址域名重新生成短网址,从而能保证新生产的短网址不会被微信拦截。 接口介绍请求参数名称类型必须说明url String 是 网址可参见接口文档短网址生成可参考这里返回样例// 检测正常{ "code": 200, "msg": "成功", "taskNo": " 41020892700032664119", "charge": true, "data": { "message": "正常", "result": true }}// 检测不正常
默认具备以下场景识别能力:1.3.2乱堆物料检测算法名称:乱堆物料检测能力描述:检测临路(街)单位、门店、住户门前卫生、秩序,当划定区域内出现乱堆放、乱占道、垃圾杂物时产生报警检测对象:纸盒、箱子等杂物 检测对象:人员、机动车、非机动车适用场景:室内、室外和围栏场景视频源规格:1080p-4K 场景样例:图片1.3.5吸烟检测算法名称:吸烟检测能力描述:检测区域内,有人手拿着烟放在嘴边,持续一段时间 能力描述:对区域内的人群密度进行分析,超过一定阈值进行上报,以免发生踩踏等事故检测对象:人员视频源规格:1080p-4K 场景样例:图片 1.3.7烟雾检测算法名称:烟雾检测能力描述:对烟雾进行检测 、居民区视频源规格:1080p-4K 场景样例:图片1.3.8火焰检测算法名称:火焰检测能力描述:对燃烧纸、火苗等火焰进行检测适用行业:应急消防检测对象:室内、普通室外烟雾、火焰(非野外森林场景 4K 场景样例:图片1.3.12空岗识别人员不在岗时间超限图片1.3.13睡岗检测人员在岗睡觉图片1.3.14消防通道占用检测算法名称:消防通道占用检测能力描述:对停留在消防通道上的车辆超过一定时间阈值进行报警
场景文字识别 目标检测任务的目标是给定一张图像或是视频帧,让计算机找出其中所有目标的位置,并给出每个目标的具体类别。对于人类来说,目标检测是一个非常简单的任务。 【目标检测】 SSD目标检测 |1. 概述 SSD全称:Single Shot MultiBox Detector,是目标检测领域较新且效果较好的检测算法之一[1],有着检测速度快且检测精度高的特点。 SSD原理 SSD使用一个卷积神经网络实现“端到端”的检测:输入为原始图像,输出为检测结果,无需借助外部工具或流程进行特征提取、候选框生成等。 共包含4个字段,以tab分割,第一个字段是检测图像路径,第二字段为检测矩形框内类别,第三个字段是置信度,第四个字段是4个坐标值(以空格分割)。
写在前面 工作原因,顺便整理 博文内容为一个 人脸检测服务分享 以打包 Docker 镜像,可以直接使用 服务目前仅支持 http 方式 该检测器主要适用低质量人脸图片识别 理解不足小伙伴帮忙指正,多交流 最终,O-Net提供了最终的人脸检测结果和人脸关键点的位置信息。 影响因子(原始图像的比例跨度)(scale_factor): MTCNN 使用了图像金字塔来检测不同尺度的人脸。 通过对图像进行 缩放,可以检测到不同大小的人脸。影响因子是指图像金字塔中的 缩放因子,控制了不同尺度之间的跨度。较小的影响因子会导致 更多的金字塔层级,可以检测到 更小的人脸,但会增加计算时间。 较大的影响因子可以 加快检测速度,但可能会错过 较小的人脸。因此,选择合适的影响因子是在准确度和速度之间进行权衡的关键。 较小的最小面容参数可以检测到更小的人脸,但可能会增加 虚警(错误接受)的机会。较大的最小面容参数可以 减少虚警,但可能会漏检一些较小的人脸。
特征金字塔(Feature pyramids)是识别系统中用于检测不同尺度目标的基本组件。但是最近的深度学习目标检测器已经避免了金字塔表示,部分原因是它们是计算和内存密集型的。 (b) 最近的检测系统选择仅使用单尺度特征来加快检测速度。 © 另一种方法是重用由 ConvNet 计算的金字塔特征层次结构,就好像它是一个特征化的图像金字塔一样。 在 HOG 和 SIFT 之前,使用 ConvNets [38, 32] 进行人脸检测的早期工作计算了图像金字塔上的浅层网络,以跨尺度检测人脸。 深度卷积网络目标检测器。 OverFeat 采用了类似于早期神经网络人脸检测器的策略,将 ConvNet 用作图像金字塔上的滑动窗口检测器。 然而,多尺度检测仍然表现更好,尤其是对于小物体。 使用多层的方法。最近的一些方法通过在 ConvNet 中使用不同的层来改进检测和分割。
检查探针---就绪检测 readinessProbe-httpget 创建资源清单 [root@k8s-master ~]# vim read.yaml apiVersion: v1 kind: Pod Running 0 2m36s yzapp-pod 1/1 Running 19 19h 检查探针---三种存活检测 periodSeconds: 3 意思就是容器创建后会创建一个文件 /tmp/live,然后休眠60秒,然后删除这个文件,然后再休眠6分钟 在创建容器后的一分钟内文件是存在的,然后一分钟后文件删除了,我们检测不到了这个文件 5 timeoutSeconds: 1 tcpSocket: port: 8080 periodSeconds: 3 5秒以后开始检测 ,检测时候发起连接我们的8080端口,但是端口肯定是不通的,然后一秒以后自己知道是失败了,然后重启Pod 创建Pod资源 [root@k8s-master ~]# kubectl create -f liveness-tcp.yaml
前言 由于本文与上一篇OpenCV检测篇(一):猫脸检测具有知识上的连贯性,所以建议没读过前一篇的先去阅读一下前一篇,前面讲过的内容这里会省略掉。 笑脸检测 其实也没什么可省略的,因为跟在opencv中,无论是人脸检测、人眼检测、猫脸检测、行人检测等等,套路都是一样的。正所谓: 自古深情留不住,总是套路得人心。 前一篇猫脸检测中已经提到过这个函数,这里就不再详细赘述。 这里只说一下笑脸检测的流程,显然也都是套路: 1.加载人脸检测器进行人脸检测 2 加载笑脸检测器进行笑脸检测 检测的时候用的都是同一个函数,也即上述detectMultiScale()函数。 这里需要注意的一点是: 笑脸检测是在人脸检测之后得到的人脸区域中进行的。我猜它用到的算法很可能是检测人的嘴角的姿态,因为笑脸检测最后的输出结果就是框住了人上扬的嘴角。
猫脸检测 喵星人真的是要统治世界了。不然为什么OpenCV自带的检测器中除了人脸检测、行人检测这些意料之中就应该存在的检测器之外,还悄悄多出了猫脸检测器呢。 今天我们就来试一下这个猫脸检测到底 是什么样的?基于OpenCV的猫脸检测十分简单。用Python的话只有区区20行代码。 ——检测对象的最小尺寸 5.maxSize——检测对象的最大尺寸 代码 按照惯例,注释齐全,无需多说。 下,人脸检测、行人检测、人眼检测等都是同样的道理,同样的流程。 只需要把最开始相应的检测器换掉,然后按照实际情况调节detectMultiScale()的参数即可。比如以下是人脸检测的效果:
正样本 负样本 2.为什么要训练负样本 训练负样本的目的是为了降低误检测率、误识别率,提高网络模型的泛化能力。通俗地讲就是告诉检测器,这些“不是你要检测的目标”。 小目标检测在深度学习卷积神经网络模型中一直是一个难题。 检测效果不是很理想。 Sommer等[2017b]提出了一种非常浅的网络,只有四个卷积层和三个完全连接的层,用于检测航空图像中的目标。当期望的实例类型很小时,这种类型的检测器非常有用。 答:都有看LOSS 答:都有 参考: 目标检测(降低误检测率及小目标检测系列笔记)_Z.w.j的博客-CSDN博客 版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。
对于这样涉及机器视觉的系统,图像检测显得尤为重要。本文将主要围绕CCD图像检测这一话题进行讨论。 智能汽车竞赛规则要求寻迹小车自主识别跑道,并能识别起跑线,在规则下能尽快跑完全程。 而对外部信息的提取和小车运动参数的设定都极大的依赖于小车的“眼睛”——CCD图像检测系统。 对于检测系统而言,主要就是将外部对我们有用的信息给提取出来,然后再交付MCU进行计算和控制,提取出控制所依赖的一些数据,来调节小车运行参数。 但是CCD摄像头基本上没有这种情况,而且在北京科技大学奥运场馆内举行的全国总决赛时,各大参赛队员绝大多数使用的是CCD检测方式,可见这是趋势。 1.1.3功耗。 对于MCU而言,可以轻易对跳变信号进行检测,故能对视频信号的时序进行正确判断。
Harris 角点检测的结果是带有这些分数 的灰度图像,设定一个阈值,分数大于这个阈值的像素就对应角点。 3、算法性质 Harris角点检测的性质可总结如下: 1. 阈值决定角点的数量。 Harris角点检测算子对亮度和对比度的变化不敏感(光照不变性) 在进行Harris角点检测时,使用了微分算子对图像进行微分运算,而微分运算对图像密度的拉升或收缩和对亮度的抬高或下降不敏感。 换言之,对亮度和对比度的仿射变换并不改变Harris响应的极值点出现的位置,但是,由于阈值的选择,可能会影响角点检测的数量。 2. Harris角点检测算子具有旋转不变性。 Harris角点检测算子使用的是角点附近的区域灰度二阶矩矩阵。而二阶矩矩阵可以表示成一个椭圆,椭圆的长短轴正是二阶矩矩阵特征值平方根的倒数。 当特征椭圆转动时,特征值并不发生变化,所以判断角点响应值也不发生变化,由此说明Harris角点检测算子具有旋转不变性。 3. Harris角点检测算子不具有尺度不变性。
定量比较表明,特征检测器描述符检测大量特征的能力的一般顺序为: ORB>BRISK>SURF>SIFT>AKAZE>KAZE 每个特征点的特征检测描述计算效率的算法顺序为: ORB>ORB(1000)> SIFT>KAZE 每个特征点的有效特征匹配顺序为: ORB(1000)>BRISK(1000)>AKAZE>KAZE>SURF(64D) >ORB>BRISK>SIFT>SURF(128D) 特征检测器描述符的总体图像匹配速度可分为
今天的这篇是对吴恩达的深度学习微专业的第四节课卷积神经网络的第三周的目标检测的总结。 普通的卷积神经网络我们用来识别一张图片是什么东西。 衡量一个目标检测是否符合标准,就看神经网络识别后的框和数据标注的框的交并比,也就是两者框的交集除以两者框的并集。 这里可能会碰到多次检测的问题,就是在目标附近的几个格子都会认为它检测到了目标,这时候应用非极大值抑制的算法,选出概率最大的格子,并把其他交并比很高的格子抑制(这一步交并比的判断,是因为有可能一个图像里有多个目标被检测出来 ,利用交并比可以只抑制一个目标附近多余的检测,而不能把其他目标的检测都被你抑制了)。 不同类别的目标检测,如车和人,抑制分别跑,一共跑两次。 ?