
【导读】 自主无人机巡检风电叶片时,需要准确检测风机及其关键特征(叶尖、塔顶、轮毂等)来实现安全定位和避障。然而,现有方法依赖人工标注的真实图像,在天气、光照、风机型号等多样性方面受到限制。德国亚琛工业大学(RWTH Aachen)自动控制研究所提出了一种基于合成数据的解决方案:通过可定制的渲染工具箱生成带标注的合成风机图像,完全不使用真实图像进行训练,仅用合成数据训练 YOLOv11 关键点检测网络,并设计了针对叶尖排列不变性的改进损失函数。在83张从未见过的真实风机图像上,该方法的 Pose mAP50-95 达到 0.97。
论文标题: Wind Turbine Feature Detection Using Deep Learning and Synthetic Data 作者: Arash Shahirpour, Jakob Gebler, Manuel Sanders, Tim Reuscher 机构: Institute of Automatic Control (IRT), RWTH Aachen University 论文链接: arXiv:2507.21611v1
自主无人机巡检风电叶片时,无人机需要根据 RGB 相机图像提取风机的关键特征,以估计风机相对于无人机的位置和偏航角,从而实现安全导航和精准定位。
论文指出现有方法存在三个核心限制:
然而,风机具有结构化、大致均匀的几何形态和可预测的外观,这使得用合成渲染图像替代真实图像进行训练在理论上是可行的。合成数据还可以系统性地控制和变化光照、背景复杂度和风机配置等视觉因素。

图片来源于原论文
论文基于 BlenderProc2(Blender 的 Python 接口)开发了一套可定制的渲染工具箱,用于生成带标注的合成风机图像。工具箱的核心设计如下:
风机模型多样性: 在初始 CAD 模型基础上扩展了多种变体,包含不同的叶片厚度和叶片长度。
背景多样性: 先以透明背景渲染风机图像,再与从 Kaggle 获取的 4319 张随机风景图像合成,模拟风机在自然环境中的真实视觉背景。
可配置参数: 工具箱支持以下参数的灵活配置:
参数类别 | 具体参数 |
|---|---|
光照 | 太阳方位角、高度角、灰尘密度 |
风机布局 | 每张图像中的风机数量(1-4台)、位置 |
风机姿态 | 偏航角 ψ、叶片旋转角 ϕ |
相机 | 离地高度、距原点距离、焦距,以及可选的横滚/俯仰/偏航角 |
数据增强: 在渲染图像上还叠加了以下增强操作:
论文共生成了 12,977 张训练图像 和 3,273 张验证图像,渲染耗时约 270 分钟。

图片来源于原论文
论文定义了风机的 7 个关键特征点:3 个叶尖、轮毂前后端各1个、塔顶和塔底各1个。这些关键点可用于估计风机相对于无人机的位置和偏航角。
这是论文的一个技术亮点。在关键点检测中,每个关键点需要分配唯一索引。论文最初按角度区间([0°,120°)、[120°,240°)、[240°,360°))为三个叶尖分配固定标签。但这种方式存在两个问题:
解决方案: 论文修改了三个叶尖的 OKS(Object Keypoint Similarity)损失函数。对于预测的三个叶尖坐标和真实坐标,遍历所有 3! = 6 种排列,选择使欧氏距离之和最小的排列作为最优匹配:
π = arg min 求和 ||P_πi · p̂ − p||²
然后使用最优排列后的预测坐标计算 OKS 损失。这使得损失函数对叶尖的固定排序不变,网络可以独立于角度位置学习叶尖的视觉定位。
论文使用 YOLOv11 的关键点检测变体,分别训练了两个尺寸的模型:
模型 | 参数量 | 训练时间 |
|---|---|---|
YOLOv11-s | 9.4M | 4小时22分钟 |
YOLOv11-m | 20.1M | 8小时4分钟 |
均训练 150 个 epoch,硬件为 AMD Ryzen 9 3900X + NVIDIA RTX 3080(10GB)。
论文使用两个验证集:
论文 Table 2 的完整数据如下:
模型 | 数据集 | mAP50 Box | mAP50-95 Box | mAP50 Pose | mAP50-95 Pose |
|---|---|---|---|---|---|
YOLOv11-s | 合成 | 0.9897 | 0.9252 | 0.9881 | 0.9731 |
YOLOv11-s | 真实 | 0.9929 | 0.8724 | 0.9929 | 0.9722 |
YOLOv11-m | 合成 | 0.9906 | 0.9419 | 0.9897 | 0.9782 |
YOLOv11-m | 真实 | 0.9910 | 0.8696 | 0.9920 | 0.9703 |

图片来源于原论文
关键发现:
模型 | 推理时间 | 端到端延迟 |
|---|---|---|
YOLOv11-s | 2.0 ms | 2.4 ms |
YOLOv11-m | 4.6 ms | 5.1 ms |
s 模型的推理速度显著更快,适合机载部署场景中对算力和功耗敏感的需求。
本文提出了一种基于合成数据训练 YOLOv11 关键点检测网络的方法,用于自主无人机巡检中的风机特征检测。通过可定制的 BlenderProc2 渲染工具箱生成多样化的合成训练图像,并设计了叶尖排列不变的改进损失函数,模型在完全不使用真实训练数据的情况下,在83张未见过的真实风机图像上达到了 Pose mAP50-95 = 0.97。该方法受到德国联邦经济与能源部 AutoFlow 项目资助,渲染工具箱和模型均已开源。结果表明,在风机这类具有结构化几何形态的目标上,精心设计的合成数据可以有效替代真实数据进行模型训练。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。