首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏具身小站

    机械臂高速轨迹平滑跟踪运动

    前馈补偿决定跟踪精度:传统的PID反馈控制本质是“事后纠偏”,在高速下总会存在滞后,必须在PID基础上,加入模型前馈控制,即根据已知的动力学模型,提前计算出克服惯性、离心力所需的转矩并施加给电机,使系统能 “预见并提前行动”,大幅减少跟踪误差。 “闭环”地修正前馈未抵消的微小误差和扰动,两者合力,最终通过伺服系统驱动机械臂,实现高速且精准的跟踪。 进行高速、高精度的复杂轨迹跟踪测试,测量实际轨迹与指令轨迹的误差,并微调前馈增益和PID参数。 在无模型下高效的方法,要求任务轨迹严格重复。其算法核心可简述为: 下一次的前馈量 = 这一次的前馈量 + 学习增益 * 这一次的跟踪误差 通过数次迭代,系统能“学会”跟踪一条特定轨迹所需的前馈补偿量。

    16510编辑于 2026-02-04
  • 来自专栏全栈程序员必看

    轨迹跟踪求解Fmincon函数(2)「建议收藏」

    在matlab中,fmincon函数可以求解带约束的非线性多变量函数(Constrained nonlinear multivariable function)的最小值,即可以用来求解非线性规划问题

    73310编辑于 2022-08-18
  • 来自专栏跟着阿笨一起玩NET

    Div+CSS展示物流跟踪轨迹信息

    <!DOCTYPE html> <html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> <title></title> <style> #ordertrack td { vertical-align: top; } table

    3.7K20发布于 2018-09-20
  • 来自专栏FreeBuf

    智能网联汽车开发篇:行驶轨迹跟踪

    4.通过访问云端服务器的HTML网页,使用百度地图,将目标小车的轨迹描画出来。 0×04 部署过程 整个部署过程可以分为两部分:云端服务器部署和树莓派部署。 在地球上任何有网络的地方,在浏览器中输入以下地址,就可以实时显示汽车的运行轨迹。 http://VPS的IP地址/location/index.html 手机端的效果图,如下所示: PC端的效果图,如下所示: 0×06 结束 功能有许多可以优化的地方,比如可以追加轨迹播放、根据时间检索轨迹等功能

    1.7K20发布于 2020-05-14
  • 来自专栏深度学习和计算机视觉

    使用OpenCV+Tensorflow跟踪排球的轨迹

    跟踪球是一项非常著名的任务。谷歌提供了很多链接,但其中有许多只是一个简单的演示。 在摄像机前识别和跟踪一个彩色的大球是无法与真实的比赛用球检测相比较的,因为现实世界中的球很小,移动速度很快,而且融入了背景中。 最后,我们希望得到这样的结果: ? 实际上有两种假球: 它们随机时间出现在随机位置 这个模型总是犯错误,把其他东西认作一个球 轨迹 下一步,我们的想法是这样:球不会随机移动,而是遵循抛物线或线性轨迹。 有一个记录一次打球的轨迹的例子: ? 其中有向路径为蓝色,静态路径为绿色,随机路径为灰色。 只有蓝色的轨迹才是有用的,它们至少由3个点组成,并且有一个方向。 这个逻辑应用到片段中产生一个相当真实的跟踪: ?

    1.8K10发布于 2020-09-22
  • 来自专栏半杯茶的小酒杯

    自动驾驶轨迹跟踪-模型预测控制(MPC)

    轨迹跟随的MPC控制器 3.1 线性化的车辆误差模型 图片来源:【1】 image.png image.png 3.2 状态方程离散化 image.png image.png image.png 图片来源【7】 最终得到系统的预测输出表达式: 图片来源【7】 3.3 目标函数的设计 目标函数第一项反映了系统对参考轨迹线的跟随能力;第二项反映了控制增量的变化,对每个采样周期内的控制增量进行限制

    5.6K31编辑于 2022-04-28
  • 来自专栏具身小站

    机械臂末端轨迹跟踪的工程化逻辑

    工程化实现步骤 阶段一:开环标定与测试:完成手眼标定、工具坐标系标定,在不开启视觉和力控的情况下,让机械臂重复执行预设轨迹,测试基本性能。 阶段三:力控闭环测试:在固定位置,让机械臂末端以不同阻抗参数接触一个固定平面,测试力跟踪效果,实现“用恒定力按压表面并直线移动”的简单力控拖动。 每个状态下,调用预定义的参数化轨迹模板,结合视觉位姿,生成末端路径点。通过 MoveIt 2 的API进行运动学求解和碰撞检查,输出安全的关节轨迹。 实时控制节点(运行于下位机实时系统):接收关节轨迹作为期望值,读取编码器反馈作为实际值,执行关节空间PID控制。 同时,读取六维力传感器数据,运行阻抗控制器,将计算出的位姿修正量叠加到来自MoveIt的期望轨迹上,实现柔顺控制。 4.

    22710编辑于 2026-01-27
  • 来自专栏机器人课程与技术

    ROS1云课→22机器人轨迹跟踪

    ROS1云课→21可视化工具rviz中的A* 本篇所指的轨迹跟踪不是下面这一类: 机器人感知-视觉部分(Robotic Perception-Vision Section)_zhangrelay的博客- CSDN博客_机器人视觉感知 更像是如下这一类: 有地图,有静态规划好的轨迹:  ROS中机器人如何沿着上述虚线进行运动? 那么,需要思考机器人运动轨迹和A*规划出的路径是否重合? 考虑机器人运动学和动力学模型(机器人自身特性) 是否有动态障碍物需要躲避(环境动态特性) 然后才能更好的理解ROS导航功能包设计思路和所提供的各类功能 粉色为规划轨迹,黄色是机器人实际坐标绘制。  可以理解为参考全局路径之后,机器人依据实际特性的局部轨迹。 机器人的真实轨迹就是局部运动轨迹的总和。 ---- 上图展示了导航功能包集的组织方式。在图中,能够看到白色、灰色和虚线三种框。

    67810编辑于 2022-10-04
  • 来自专栏一点人工一点智能

    基于车辆运动学的智能车轨迹跟踪控制方法

    转载自:智能运载装备研究所编辑:郑欣欣@一点人工一点智能原文:基于车辆运动学的智能车轨迹跟踪控制方法01 背景1.1 国内智能车研究现状我国智能驾驶车辆起源于1980年,然而在1992年国防科技大学研发真正第一辆智能车 02 智能车运动学模型及应用2.1 引言路径跟踪通过控制转向角度,实时对规划轨迹进行跟踪。 路径跟踪的控制算法现阶段较多,其中包括:基于道路几何原理的控制算法,如纯跟踪控制、Stanley控制、Alice控制等;基于经典控制理论的路径跟踪控制算法,如PID控制、线性反馈控制等;基于现代控制理论的路径跟踪控制算法 可表示为:在车辆控制系统中,期望轨迹可表示为:上式中(X_c,u_c)将公式(7)在 处进行泰勒式展开,忽略最高项,可得:\hat{u}=u-u_c记 , 式(9)与式(8)相互做差得:即线性化之后的路径跟踪误差模型为 其中:基于经典控制理论的PID路径跟踪控制安全性较好,舒适性中等,稳定性较差;基于道路几何原理的Stanley路径跟踪控制安全性较差,舒适性较好,稳定性较差;基于现代控制理论的LQR路径跟踪控制安全性较好

    1.9K21编辑于 2023-06-06
  • 来自专栏企鹅号快讯

    基于自搭建BP神经网络的运动轨迹跟踪控制(二)

    在上一篇基于自搭建BP神经网络的运动轨迹跟踪控制(一)中,首次给大家介绍了如何将BP神经网络模型用于运动控制,并基于matlab做了仿真实验。最终实现了对期望轨迹的智能跟踪的功能。 实验1结果如下: 上图为跟踪效果图,幅值大小为2V,下图为动态误差,通过动态误差可以发现,开始阶段,误差比较大,到了后面基本稳定了,这是因为开始阶段,参数迭代次数比较少,参数自适应过程还没达到很好逼近系统的效果 与基于自搭建BP神经网络的运动轨迹跟踪控制(一)介绍的方法的精度是一个级别的。 另外,大家也发现了,不论是《一》文中的静态辨识,还是《二》文的动态辨识,所用的原理基本是一套的。

    2.3K101发布于 2018-02-07
  • 来自专栏半杯茶的小酒杯

    自动驾驶轨迹跟踪(一)-模型预测控制(MPC)代码实现

    模型预测控制(MPC)的理论推导部分见前文: 自动驾驶轨迹跟踪-模型预测控制(MPC) 这里主要用Python代码实现前文的推导结论。 先展示一下最终的效果(蓝色是目标轨迹线,红色是车辆不断靠近目标轨迹线,并最终沿着目标轨迹线行驶): 参考轨迹的速度:5m/s 1、二次规划问题求解 我们最终将优化的目标函数转化为二次规划问题,所以这里先了解下如何用 print(res.x) [-0.8000016 0.80000272] 2、轨迹跟踪MPC问题求解 2.1 生成直线参考轨迹 直线轨迹以参数方程的形式给出: 其中 是期望的纵向速度, color='r') plt.axis([-5, 100, -6, 6]) plt.pause(0.008) 2.3 实现MPC控制器 详细的理论推导部分见自动驾驶轨迹跟踪 2.4 运行效果 参考轨迹的速度:3m/s 参考轨迹的速度:5m/s 参考轨迹的速度:10m/s

    6.9K52编辑于 2022-04-28
  • 来自专栏TSINGSEE青犀视频

    EasyCVR电子地图轨迹跟踪异步加载百度地图SDK的操作方法

    在往期的文章中我们分享过关于EasyCVR电子地图轨迹跟踪的功能开发,感兴趣的用户可以查看这篇文章:智能视频融合EasyCVR平台GIS电子地图:如何实现GPS坐标转换?

    39620编辑于 2022-05-19
  • 来自专栏一点人工一点智能

    考虑绕障时耗的四轮全向移动机器人轨迹跟踪控制

    Azizi等[5]结合速度障碍法和滚动时域控制,实现了狭窄空间的无碰撞轨迹跟踪控制。虽然滚动时域控制可实现约束条件下的轨迹跟踪,但计算量大,特别是当考虑移动机器人绕障过程时显得更加明显。 为此,本研究提出考虑绕障时耗的四轮全向移动机器人轨迹跟踪控制方法。 3.2 轨迹跟踪控制D=0.08为了验证所提轨迹跟踪控制方法的有效性,本研究进行了半实物仿真,所有配置均按照课题组自主研发的移动机器人参数进行设置。 d_e图10为跟踪效果,由图10(d)可以看出:相较于传统PD控制,滚动时域控制器跟踪得到的轨迹跟踪精度更高。 随后,建立包含期望轨迹曲率信息的跟踪误差模型,设计适用于随机曲率路径下的轨迹跟踪控制器。

    1.3K00编辑于 2023-07-16
  • 来自专栏PaddlePaddle

    飞桨Tracking目标跟踪库开源!涵盖业界主流的VOT算法,精准检测动态目标轨迹

    实验论证,通过VOT(Visual Object Tracking, VOT)技术可以精准实现对视频中绿框标示的物体的运动轨迹跟踪。 VOT通过跟踪图像序列中的特定运动目标,获得目标的运动参数,如:位置、速度、加速度和运动轨迹等,并进行后续处理与分析,实现对运动目标的行为理解。 判别式:将目标跟踪看做一个二元分类问题,通过训练关于目标和背景的分类器来从候选场景中确定目标,可以显著区分背景和目标,性能鲁棒,渐渐成为目标跟踪领域主流方法,目前大多数基于深度学习的目标跟踪算法都属于判别式方法 另一方面,不在线更新模板图像的策略,可以确保跟踪漂移,在long-term跟踪算法上具有天然的优势。 结果可视化 数据集上评测完后,可以通过可视化跟踪器的结果定位问题,飞桨提供下面的方法来可视化跟踪结果。

    1.2K20发布于 2020-09-14
  • 来自专栏机器之心

    轨迹跟踪误差直降50%,清华汪玉团队强化学习策略秘籍搞定无人机

    这一框架在轨迹跟踪误差上比现有的 RL 基线方法降低了 50% 以上! 研究人员使用了以下两种类型的轨迹作为基准轨迹: 平滑轨迹:包括八字形和随机多项式轨迹。 随机多项式轨迹由多个随机生成的五次多项式段组成,每个段的持续时间在 1.00s 和 4.00s 之间随机选择。 不可行轨迹:包括五角星和随机之字形轨迹。 结果表明,SimpleFlight 在所有基准轨迹上都取得了最佳性能,轨迹跟踪误差降低了 50% 以上,并且是唯一能够成功完成所有基准轨迹(包括平滑和不可行轨迹)的方法。 研究人员比较了多种平滑度奖励方案,结果表明使用连续动作之间的差异的正则化作为平滑度奖励,可以获得最佳的跟踪性能,同时鼓励策略输出平滑的动作,避免在现实世界中产生不稳定的飞行行为。

    76110编辑于 2025-02-15
  • 来自专栏机器之心

    ICLR 2025 | 机器人安灯泡、切东西都能拿捏,可操控轨迹跟踪的DexTrack来了

    图 1:问题的拆解和对通用轨迹跟踪器的期待 2. DexTrack:通用轨迹跟踪器的学习 2.1 统一的轨迹跟踪任务表示 我们将不同类型的操控任务统一到一个轨迹跟踪任务来完成任务表示层面的统一。 图 2:轨迹跟踪器的输入和输出 2.2 通用轨迹跟踪器的学习方法 一个通用的轨迹跟踪需要可以响应各种各样的轨迹跟踪命令。这一多样的轨迹空间对该轨迹跟踪器的学习提出了更高的挑战。 通过交替地使用高质量的轨迹跟踪数据辅助通用轨迹跟踪控制器的学习,以及借助通用轨迹跟踪器来提高单一轨迹跟踪演示的质量,我们可以逐渐得到一个强大的可以跟踪各种各样轨迹的控制器(图 3)。 图 3:通用轨迹跟踪器的训练方法 2.2.1 轨迹跟踪任务奖励函数 奖励函数主要由三部分组成:1)物体轨迹跟踪奖励,2)手部轨迹跟踪奖励,3)手和物体的亲密度奖励。 2.2.3 借助通用轨迹跟踪器来提高单一轨迹跟踪演示的质量 我们设计了两个策略来提高单一轨迹跟踪演示的质量,1)借助通用轨迹跟踪器来初始化单一轨迹跟踪策略的学习,2) 借助 homotopy optimization

    17100编辑于 2025-03-03
  • 来自专栏无人驾驶感知

    【目标跟踪】红绿灯跟踪

    本篇会初略分享红绿灯感知包括但不限于检测+跟踪+分类。重点讲解如何稳定跟踪跟踪结合了 byteSort 与 BotSort,效果可以说相当稳定。抛开其他的不谈,对于我们重点观察的红绿灯(正前方红绿灯)可以说是稳稳的跟踪,也算遥遥领先。 放一张通宵比赛测试的图:(右一是博主) # 三、跟踪 因为是基于 ros 做的开发,同时红绿灯这个节点又包含了三个部分(检测+跟踪+分类)。 为了使代码美观、思路清晰,所以对三个部分封装。 所以跟踪代码只开放一个接口,这里就写做 update 吧。输入是检测的结果与图片,输出是跟踪后的框与id等,这里输出是用的引用的方式。 ByteTrack 匹配采用了多次匹配的方法,首先将得分较高的目标框与历史轨迹相匹配,然后将得分较低的目标框与第一次没有匹配上的轨迹匹配,用于检测目标遮挡的情形。

    92210编辑于 2024-03-30
  • 来自专栏半杯茶的小酒杯

    轨迹拼接(Trajectory Stitching)

    对于控制来说,连续稳定的轨迹更利于控制下发指令的平滑性,避免车辆产生抖动。 实际测试表明,轨迹拼接(Trajectory Stitching)确实能够使实车的控制更加平滑。 轨迹规划模块以固定的频率进行, 我们使用了轨迹拼接的算法(Trajectory Stitching)保证相邻帧的轨迹在控制器看来是平滑的。 ); 如果上一周期的轨迹存在, 我们会根据当前系统时间 T, 在上一周期的轨迹中找到相对应的轨迹点, 然后我们进行一个比较, 比较这个轨迹点与定位模块获得的当前车辆状态的差异, 如果这个差异在一定范围内 这种机制保证了在控制误差允许的情况下, 做到相邻帧轨迹的平滑拼接. 在控制器看起来, 规划模块发出的轨迹是一小段一小段 dt 长度的轨迹光滑拼接起来的.

    3.4K10编辑于 2022-06-23
  • 来自专栏无人驾驶感知

    【目标跟踪】多目标跟踪测距

    这里不仅仅实现对目标检测框的跟踪,且可以实现单相机进行对目标进行测距跟踪。 想了解详细原理可以参考往期博客:【目标跟踪】多目标跟踪sort (python 代码) 。 用的是跟踪挑战开源数据。 这部分代码主要是加载检测数据,读取图片。 调用跟踪与测距接口进行计算 可以设置 dispaly 与 video_save 是否 show 图片 与保存视频 x_p 里面包含目标离相机纵向与横向距离,还有速度、加速度。 None mot_tracker = Sort(max_age=max_age, min_hits=min_hits, iou_threshold=iou_threshold) # 创建sort跟踪器 关于目标前后帧匹配,是利用 iou 匹配进行的,所以要基于目标检测框的匹配跟踪

    89810编辑于 2024-02-05
  • 来自专栏无人驾驶感知

    【目标跟踪】多相机环视跟踪

    一、前言 多相机目标跟踪主要是为了实现 360 度跟踪。单相机检测存在左右后的盲区视野。 在智能驾驶领域,要想靠相机实现无人驾驶,相机必须 360 度无死角全覆盖。 博主提供一种非深度学习方法,采用kalman滤波+匈牙利匹配方式实现环视跟踪。有兴趣可以参考往期【目标跟踪】系列博客。 本文干货满满,可以先点赞关注收藏,以免下次找不到。欢迎各位吴彦祖私信交流学习。 这里面不仅要对单相机目标进行跟踪,且对跨相机的目标也需要进行跟踪,还有各种匹配,初始化,开始消亡等到。想想都头皮发麻,那到底怎么做?别慌,让我娓娓道来。 这个是与单相机跟踪类似。 (3) 匹配修正 匹配上的目标,修正预测的状态与box。此时idCount 不变。 (4) 未匹配的检测框 对于未匹配的检测框,寻找航迹中在其他相机的目标,进行再次匹配。

    81910编辑于 2024-02-05
领券