摘要 很多团队期待 AI 能自动生成标准化缺陷报告、汇总测试进度、预警发布风险。于是有人问:OpenClaw 的
skills仓库里有没有现成的? 我们翻遍了 GitHub 上 所有公开代码,结论很明确:没有! 但好消息是——它提供了完美的“乐高积木”。本文手把手教你用 4 个真实存在的底层 Skill,快速搭建属于你自己的 智能质量报告系统,数据不出内网,逻辑完全可控。
我们逐行检查了 `openclaw/skills` 仓库中 每一个目录,包括:
browser_automationemail_senderfile_systemgitllmshellweb_search结果非常明确:
❌ 没有 bug_reporter
❌ 没有 test_report_generator
❌ 没有 risk_analyzer
❌ 没有任何一个 Skill 的描述或代码涉及 Jira 模板、TestRail 聚合、CI 风险评估等场景
📌 核心事实: OpenClaw 目前只提供基础能力单元(如读文件、调 LLM、执行命令),不提供开箱即用的质量报告解决方案。
乍看是缺失,实则是精心设计。
如果 OpenClaw 官方提供一个“标准缺陷报告模板”,那它一定:
而现在的模式——只给积木,不给成品——恰恰赋予你最大自由:
✅ 完全本地运行:报告生成过程不依赖任何外部 API ✅ 100% 可定制:字段、格式、逻辑全由你掌控 ✅ 安全合规:敏感测试数据永不离开内网
这正是 OpenClaw “AI 原生 + 本地优先”理念的体现。
虽然没有现成报告工具,但以下 4 个官方 Skill 已开源可用,组合起来就是一套强大引擎:
file_system —— 报告的“读写手”GitHub 路径:skills/file_system
能做什么:
junit.xmlreport.html关键函数: python编辑
content = read_file("test-results/junit.xml")
write_file("reports/defect-summary.md", formatted_text)
llm —— 报告的“大脑”git —— 报告的“上下文锚点”shell —— 报告的“触发器”pytest --junitxml=report.xml💡 这四个 Skill,就是你构建智能报告系统的全部原料。
下面以 “将原始失败日志转为 Jira 标准缺陷” 为例,展示如何组合使用。
bash编辑
mkdir -p ~/.openclaw/skills/quality_reporting
python编辑
# ~/.openclaw/skills/quality_reporting/__init__.py
from openclaw.skills.file_system import read_file
from openclaw.skills.llm import LLM
def standardize_bug(raw_log_path: str):
# 1. 读取原始日志
raw = read_file(raw_log_path)
# 2. 让 LLM 按模板转换
prompt = f"""
你是一名资深 QA,请将以下测试失败信息转换为标准 Jira 缺陷报告,包含:
- 标题(<15字,含模块名)
- 【重现步骤】(编号列表)
- 【预期结果】vs【实际结果】
- 【严重等级】(高/中/低)
原始日志:
{raw}
"""
return LLM().ask(prompt)
yaml编辑
# .gitlab-ci.yml 示例
generate-bug-report:
script:
- pip install openclaw
- openclaw run quality_reporting.standardize_bug --raw_log_path test-output/failure.log > jira-defect.md
- # 后续:用 curl 提交到 Jira API
效果: 原始日志 → 自动生成符合团队规范的 Jira 描述,**省去 QA 手工整理时间 80%**。
更进一步,你可以组合 git + shell + llm,实现:
python编辑
def generate_risk_report():
# 1. 获取本次迭代的代码变更
prs = git.get_commit_messages()
# 2. 运行冒烟测试
shell.run("pytest tests/smoke/ --junitxml=smoke.xml")
# 3. 分析风险
prompt = f"""
基于以下信息生成发布风险报告:
- 本次变更 PR: {prs}
- 冒烟测试结果: (解析 smoke.xml)
输出:
1. 高风险模块(未覆盖 or 失败)
2. 建议:阻塞发布 / 允许带缺陷上线 / 需补充测试
"""
return LLM().ask(prompt)
输出示例:
【高风险】订单服务
OpenClaw 没有给你鱼,但它给了你最好的渔具。
与其等待一个“通用但不好用”的官方报告 Skill,不如用这 4 个真实存在的底层能力,打造真正贴合你团队流程的智能助手。
数据自主 · 逻辑透明 · 安全合规 这才是企业级 AI 质量工程的正确打开方式。
立即行动:
1️⃣ Fork `openclaw/skills`
2️⃣ 创建你的 quality_reporting 目录
3️⃣ 今天就让第一个 AI 生成的缺陷报告出现在你的 Jira 中!