首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏需求数智化管理

    需求跟踪矩阵是什么?一文详解 Visual RM 用条目跟踪矩阵实现需求跟踪矩阵

    一、什么是需求跟踪矩阵?需求跟踪矩阵(Requirement Track Matrix,简称 RTM),是一种以结构化表格为核心载体,贯穿需求全生命周期的管理工具。 “条目跟踪矩阵” 模式,更是将需求跟踪的颗粒度细化到内容级,解决了传统矩阵 “管理粗、关联弱” 的痛点。 二、需求跟踪矩阵有何用? 四、需求跟踪矩阵有哪些内容? 七、使用需求跟踪矩阵的注意事项为确保需求跟踪矩阵在项目中有效发挥作用,结合 Visual RM “条目跟踪矩阵” 的功能特性与企业实践(尤其是金融行业、国央企数科公司的复杂场景),需注意以下六点:确保需求条目标准化

    50610编辑于 2025-11-21
  • 来自专栏开源优测

    软件测试术语 - 需求跟踪矩阵

    需求跟踪矩阵 英文:Requirements Traceability Matrix 简写: RTM 什么是RTM 需求跟踪,一个记录需求与工作产品之间的联系的过程,这些产品是用来实现和验证那些需求的。 RTM捕获了在生命周期结束时交付的单个文档中的所有需求及它们的可跟踪性。 流程图 在项目开始时创建需求跟踪矩阵,是形成项目的范围和可交付物的基础。 需求跟踪矩阵是双向的,通检查可交付物的输出来跟踪需求,并通过查看产品特定特性来跟踪特定的需求。 下面我们看下需求跟踪矩阵流程: 说明: 需求跟踪矩阵的优化改进贯穿整个软件开发生命周期 任务拆解是很重要的,尤其是合适的颗粒度显得尤为重要 主动推进跟踪是最重要的 参数 需求ID 风险 需求类型 需求描述

    1.8K20发布于 2018-12-28
  • 来自专栏无人驾驶感知

    【目标跟踪】奇葩需求如何处理(二)

    一、前言 在工作中往往出现些奇葩需求。 上一篇介绍了一些奇葩需求奇葩需求如何处理(一) ,今天给大家分享一些更奇葩的需求。 二、奇葩需求 2.1、井盖 昨天突然接到一个需求,识别井盖且判断是否有井盖或无井盖。而且时间紧急,比赛突然加的需求,只给一天时间。 深度学习分割出绳子如 segformer 模型,后处理找出像素包络框, 计算最小矩形框,跟踪,赋值id。 发送凸包以及相应的距离信息。 点的输入可能会大于2000,单纯对点的跟踪耗时长且不稳定。 首先对输入的点求最小矩形框,用最小矩形框去跟踪与航迹管理(分配id)。 蓝色框是跟踪框包络点的最小凸包。获得了凸包的像素点,直接输出像素点的世界坐标,最终得到的包络框输出给规控。

    37810编辑于 2024-03-22
  • 来自专栏无人驾驶感知

    【目标跟踪】奇葩需求如何处理(一)

    一、前言 在工作中往往出现些奇葩需求。那个***需要跟踪,减速带、红绿灯、井盖,甚至是鸟、烟头、手指等。 今天就给大家分享下博主遇到那些奇葩需求,遇到了这些奇葩需求首先问候产品经理(斜眼笑.jpg)。 玩笑归玩笑,冷静下来还是要好好分析实际需求,想想如何解决这些实际问题。 今天给大家分享下一些在高级别无人驾驶过程中遇到的一些奇葩需求,遇到这些需求有哪些处理方法。 2.1、减速带 需求:当车体前方有减带时,我们要告知车子减速通行。 减速带在城市交通道路上是非常常见的。 目标跟踪选用 Bytetrack 或 BotSort。个人更加推荐 BotSort。 原因是:(1)红绿灯目标小对匹配要求高(2)车子轻微抖动会影响跟踪 这里放一段开源 BotSort python 代码。

    34110编辑于 2024-03-15
  • Visual RM 平台需求管理实操指南:从需求录入到跟踪全流程

    本指南将从需求编制、审核、实施、入库到跟踪的全流程,详细拆解 Visual RM 平台的实操方法,助力企业实现需求管理的标准化与高效化。 平台支持 “需求跟踪脉络” 功能,自动构建从业务需求到开发任务的跟踪链路,确保开发工作与需求目标一致。3. 平台支持测试结果录入与缺陷跟踪,将测试缺陷与需求条目关联,确保缺陷修复后能回归验证,避免因需求理解偏差导致测试遗漏。4. 五、需求跟踪:全生命周期可视化与统计分析Visual RM 平台支持从需求发起、审核、实施到入库的全程跟踪,通过可视化工具与统计分析功能,实现需求管理的 “透明化、可度量”:1. 全程可视化跟踪:平台提供 “需求看板” 与 “需求跟踪脉络” 功能,需求看板实时显示所有需求的状态(如 “编制中”“审核中”“实施中”“已入库”),支持按部门、优先级、时间等维度筛选;需求跟踪脉络则以图形化方式展示需求从发起至入库的全流程节点

    35130编辑于 2025-11-19
  • 来自专栏Linux成长之路

    【Docker项目实战】使用Docker部署ActionView问题需求跟踪工具

    Ubuntu 22.04.1 LTS 27.1.1 ActionView 2.2 本次实践介绍 1.本次实践部署环境为个人测试环境,生产环境请谨慎; 2.在Docker环境下部署ActionView问题需求跟踪工具 默认管理员账号: admin@action.view;密码: actionview 七、总结 在使用 Docker 部署 ActionView 问题需求跟踪工具的过程中,容器化技术显著简化了环境配置和依赖管理

    77510编辑于 2025-01-02
  • 需求跟踪矩阵是什么?怎么创建?一文详解

    一、 什么是需求跟踪矩阵 对项目经理或产品经理来说,需求清单肯定不陌生,那什么是需求跟踪矩阵呢? 简单来说,就是用来管理需求和验证需求是否已经实现的一个表格工具,其核心作用就是“跟踪”,防止需求被遗留或者曲解。 二、 需求跟踪矩阵有何用? 三、谁来使用需求跟踪矩阵? 项目中的很多角色都可以使用需求跟踪矩阵,包括产品经理、项目经理、需求分析师、开发人员以及测试人员等都可以使用。 四、需求跟踪矩阵有哪些内容? 需求跟踪矩阵通常包括业务需要、机会、目的和目标;项目目标;项目范围和WBS可交付成果;产品设计;产品研发;测试策略和测试场景;高层级需求到详细需求等。 五、常用于绘制需求跟踪矩阵的工具 禅道:国内领先的项目管理工具,它提供强大的项目管理和需求管理、跟踪等功能。

    4.8K01编辑于 2025-05-06
  • 来自专栏软件方法

    看了EA官网上的需求跟踪视频,结合目前的状况,提出这个问题

    是用在项目建模初期与用户沟通需求,搜集需求素材时呢?还是在通过用例及业务模型对需求进行分析后,得到需求规约,管理需求规约时使用呢? 2、在项目开始时期,需要与用户签订技术方案,此方案中需要包含一份需求文档,这份需求文档是给客户看的。而需求分析过程中得出的需求规约是给开发人员使用,这样理解是否正确? 谢谢! 那个"需求建模"类似于以前的需求条目,一条条的描述需求,现在,需求已经用用例组织起来,不需要用这个。 潘加宇(3504847)16:41:28 2. ,要很严格 北京-Y.Lee(183***58)16:44:03 哦,现在的情况是,在与客户交流后,就形成了一份所谓的需求说明书,需求调研相关人员就扔给了开发人员,说这就是需求。 我也是看了EA官网上的 需求跟踪 的视频中,结合目前的状况 ,提出这个问题 的, 北京-Y.Lee(183***58)17:00:31 也这是 先需求层,再用例层,再逻辑及部署层,应该 是通过需求,得到用例

    43540发布于 2021-05-11
  • 来自专栏无人驾驶感知

    【目标跟踪】红绿灯跟踪

    本篇会初略分享红绿灯感知包括但不限于检测+跟踪+分类。重点讲解如何稳定跟踪跟踪结合了 byteSort 与 BotSort,效果可以说相当稳定。抛开其他的不谈,对于我们重点观察的红绿灯(正前方红绿灯)可以说是稳稳的跟踪,也算遥遥领先。 放一张通宵比赛测试的图:(右一是博主) # 三、跟踪 因为是基于 ros 做的开发,同时红绿灯这个节点又包含了三个部分(检测+跟踪+分类)。 为了使代码美观、思路清晰,所以对三个部分封装。 所以跟踪代码只开放一个接口,这里就写做 update 吧。输入是检测的结果与图片,输出是跟踪后的框与id等,这里输出是用的引用的方式。 且低置信度目标可能包含了目标的运动趋势,利用这些消息可以提升我们跟踪的准确性与鲁棒性。

    92010编辑于 2024-03-30
  • 来自专栏无人驾驶感知

    【目标跟踪】多目标跟踪测距

    这里不仅仅实现对目标检测框的跟踪,且可以实现单相机进行对目标进行测距跟踪。 想了解详细原理可以参考往期博客:【目标跟踪】多目标跟踪sort (python 代码) 。 用的是跟踪挑战开源数据。 这部分代码主要是加载检测数据,读取图片。 调用跟踪与测距接口进行计算 可以设置 dispaly 与 video_save 是否 show 图片 与保存视频 x_p 里面包含目标离相机纵向与横向距离,还有速度、加速度。 None mot_tracker = Sort(max_age=max_age, min_hits=min_hits, iou_threshold=iou_threshold) # 创建sort跟踪器 关于目标前后帧匹配,是利用 iou 匹配进行的,所以要基于目标检测框的匹配跟踪

    89610编辑于 2024-02-05
  • 来自专栏无人驾驶感知

    【目标跟踪】多相机环视跟踪

    一、前言 多相机目标跟踪主要是为了实现 360 度跟踪。单相机检测存在左右后的盲区视野。 在智能驾驶领域,要想靠相机实现无人驾驶,相机必须 360 度无死角全覆盖。 博主提供一种非深度学习方法,采用kalman滤波+匈牙利匹配方式实现环视跟踪。有兴趣可以参考往期【目标跟踪】系列博客。 本文干货满满,可以先点赞关注收藏,以免下次找不到。欢迎各位吴彦祖私信交流学习。 这里面不仅要对单相机目标进行跟踪,且对跨相机的目标也需要进行跟踪,还有各种匹配,初始化,开始消亡等到。想想都头皮发麻,那到底怎么做?别慌,让我娓娓道来。 这个是与单相机跟踪类似。 (3) 匹配修正 匹配上的目标,修正预测的状态与box。此时idCount 不变。 (4) 未匹配的检测框 对于未匹配的检测框,寻找航迹中在其他相机的目标,进行再次匹配。

    81710编辑于 2024-02-05
  • Visual RM 让需求全生命周期跟踪更精准

    在企业需求管理体系中,“跟踪” 是确保需求从提出到落地全流程可控的关键环节。 一、直击需求跟踪痛点:传统模式下的 “跟踪困局” 当前企业在需求跟踪过程中,普遍面临四大核心难题,导致需求落地效率低、风险难管控:添加图片注释,不超过 140 字(可选)跟踪链路断裂 :需求以文档为核心 (二)全流程线上跟踪:打破时空壁垒,实现需求流转 “全程留痕” 平台将需求跟踪全流程线上化,确保每一步操作都可追溯、可管控:从意向到上线的全周期跟踪:覆盖需求意向受理、价值评估、应用切分、迭代排期、评审 (三)智能化跟踪:AI 赋能,让需求跟踪更高效、更精准 借助 AI 技术,Visual RM 平台进一步提升需求跟踪的效率与准确性,减少人工干预:智能变更影响跟踪需求变更时,AI 自动分析变更内容对下游开发任务 三、跟踪价值落地:数据见证需求跟踪效能跃升 Visual RM 平台通过精准的需求跟踪能力,为企业带来多维度价值提升,已在金融、能源、政务等行业头部客户验证成效:跟踪效率提升:需求评审效率提升 50%+

    17220编辑于 2025-10-21
  • 来自专栏JVMGC

    开源面向中小企业的、开源免费的、类Jira的问题需求跟踪工具

    ActionView 一个类Jira的问题需求跟踪工具,前端基于reactjs+redux、后端基于php laravel-framework。前端代码库:actionview-fe。 我们实际开发过程一直在用Jira进行任务管理和Bug跟踪,除了采购License价格不菲外,使用过程中觉得Jira还是有点重、全局方案配置到了后期越来越难维护、页面体验也不像现在流行的SPA那么好,所以有了做

    1.1K20编辑于 2023-03-10
  • 来自专栏我爱计算机视觉

    跟踪综述推荐:目标跟踪40年

    《中国图象图形学报》2019年第12期封面故事聚焦目标跟踪,对基于深度学习的目标跟踪算法进行系统的梳理。 阐述了目标跟踪的基本研究框架,从深度判别模型、深度生成式模型等方面介绍了适用于目标跟踪的深度学习方法。 深入分析了网络结构、功能划分和网络训练等不同类别的深度目标跟踪方法。 简要阐述了适用于深度学习目标跟踪的视频数据库和评测方法。 介绍了目标跟踪的最新具体应用情况。 分析了深度学习方法在目标跟踪中存在的训练数据不足、实时跟踪和长程跟踪等问题。 对深度学习的目标跟踪方法的未来发展进行展望。 ? ? 目标跟踪发展脉络 ? 相对而言,标注长程跟踪视频和构建大规模数据集的难度更大,如何根据长程跟踪任务的特点及其与短期跟踪任务的联系,结合迁移学习和深度学习构建合适的长期目标跟踪模型,也是未来视觉目标跟踪研究值得关注的一个重要方向

    2.6K20发布于 2020-02-12
  • 来自专栏全栈程序员必看

    跟踪算法(一)光流法跟踪

    本文目录: 一.基于特征点的目标跟踪的一般方法 二.光流法 三.opencv中的光流法函数 四.用类封装基于光流法的目标跟踪方法 五 .完整代码 六.参考文献 一.基于特征点的目标跟踪的一般方法 基于特征点的跟踪算法大致可以分为两个步骤: 1)探测当前帧的特征点; 2)通过当前帧和下一帧灰度比较 很显然,基于特征点的目标跟踪算法和1),2)两个步骤有关。 聪明的你肯定发现了:这样搜索不仅可以解决大运动目标跟踪,也可以一定程度上解决孔径问题(相同大小的窗口能覆盖大尺度图片上尽量多的角点,而这些角点无法在原始图片上被覆盖)。 四.用类封装基于光流法的目标跟踪方法 废话少说,附上代码,包括特征点提取,跟踪特征点,标记特征点等。

    1.6K20编辑于 2022-09-15
  • 来自专栏3D视觉从入门到精通

    事件相机特征跟踪-模板跟踪方法

    1、前言 由于事件相机不能提供完整的图像,所以最初的特征跟踪依赖传统相机的数据。 特征追踪时,积累特征模板中心附近的事件,当达到一定数量后形成数据模板,开始进行跟踪,每进入一个新的事件,便删除最老旧的事件。 然后通过数据模板与特征模板进行ICP匹配,求的变化的增量,从而实现了一次的跟踪,之后不断进行。完整的算法流程如下: ? 3.5 跟踪失败判定 当ICP迭代结束后,如果离群点较多,或迭代后平均像素距离依旧很大,则认为特征跟踪失败。 4、实验结果 跟踪特征的时间长短是一个重要指标,这篇论文的方法进行跟踪跟踪实践能够达到1s。当特征丢失后可以利用传统图像数据再次进行补充。当然,随着时间的增加,误差也会累积的越来越大。 ?

    1.3K30发布于 2020-12-11
  • 来自专栏无人驾驶感知

    【目标跟踪】解决多目标跟踪遮挡问题

    前言 目标跟踪在发生遮挡时,极其容易发生Id Switch。 网上许多算法忽视跟踪遮挡问题,同时网上相关资料也很少。 博主为了解决跟踪遮挡,翻阅大量论文。分享其中一篇论文。 阅读本文需要一定跟踪的基础。 如果是新手建议先阅读博主往期博客【目标跟踪】多目标跟踪测距:https://blog.csdn.net/qq_49560248/article/details/134016802 一、判定遮挡目标 要处理遮挡问题 if (percent > maxCoverPercent) { maxCoverPercent = percent; } } /* 当 跟踪目标置信度 GetExpansionIou(cv::Rect_<float> boxD, cv::Rect_<float> boxT, cv::Rect_<float> boxExpand) { // boxD:检测框, boxT:跟踪

    1.3K11编辑于 2024-02-05
  • 来自专栏无人驾驶感知

    【目标跟踪】3D点云跟踪

    一、前言 之前博客一直介绍的是视觉方向的跟踪。不过在如今智能驾驶领域,雷达感知仍然占据主要部分。今天来分享下点云3D跟踪。 视觉跟踪输入就是目标检测的结果。 雷达跟踪输入可以是点云检测的结果,也可以是点云聚类的结果。除了一些数据结构、匹配计算,雷达跟踪算法与前面介绍视觉跟踪方法大体相同。 本篇主要探讨雷达如何进行匹配、关联计算,同时解析下代码结构。 二、代码目录 雷达跟踪所有的代码文件 三、代码解读 3.1、文件描述 文件跳转较多,新手读起代码可能有点吃力。最好记录下每个文件是干什么的,有个大致印象即可。 ,那我们把雷达跟踪结果 topic 录制下来,然后再可视化。 整体跟踪效果不错。赞!

    95910编辑于 2024-02-05
  • 来自专栏无人驾驶感知

    【目标跟踪】多目标跟踪sort (python 代码)

    前言 多目标跟踪 sort(Simple Online Realtime Tracking)是一种基于目标检测的跟踪。 根据我自己的理解把它分为个5步骤。 初始化航迹。 【目标跟踪】匈牙利算法 【目标跟踪】卡尔曼滤波(公式推导与代码) 想要 c++ 代码的朋友可以私信我交流。或者下一次写一篇,如果有机会的话(鬼脸jpg)。 None mot_tracker = Sort(max_age=max_age, min_hits=min_hits, iou_threshold=iou_threshold) # 创建sort跟踪器 缺点:对于遮挡、以及非线性运动的物体(加减速或者转弯)跟踪效果差 优化方向:优化方式有很多,下次再写博客分享,如果有机会的话[鬼脸.jpg]。

    1.4K10编辑于 2024-02-05
  • 来自专栏无人驾驶感知

    【目标跟踪】光流跟踪(python、c++代码)

    preImage、image 光流跟踪、在 image 中找出对应的特征点。 由特征点对应关系可以得出当前帧的目标框。 cv2.COLOR_BGR2GRAY) preImgGray = cv2.cvtColor(preImg, cv2.COLOR_BGR2GRAY) # nextPts:前一帧图像的特征点跟踪后的点 , **lkParms) # print("p1", nextPts, "st", st, "err", err) goodNewPt = nextPts[st == 1] # 光流跟踪后特征点 box); // 获取比检测框大pixeParam像素的框 void OpticalFlowLk(std::vector<cv::Point2f> prePt); // 光流跟踪 preIndexPt.erase(preIndexPt.begin() + j); } } // 跟踪到的关键点少不进行光流跟踪

    1.5K20编辑于 2024-02-05
领券