首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏GiantPandaCV

    深度学习算法优化系列十四 | OpenVINO Int8量化文档翻译(Calibaration Tool)

    ./ inference-engine / tools / collect_statistics_tool / README.md)使用校准数据集,但是[Accuracy Checker Tool](. 校准之前,您可以使用[Collect Statistics Tool](./ inference-engine / tools / collect_statistics_tool / README.md [Collect Statistics Tool](./ inference-engine / tools / collect_statistics_tool / README.md)忽略YML配置文件中的评价指标 /inference-engine/tools/benchmark_tool/README.md)。 校验模型 在校准过程中,将对模型进行调整,以进行有效的量化并最小化在校准数据集上的准确度下降。 [校准工具](./ inference-engine / tools / calibration_tool / README.md)具有灵活且可扩展的机制,可以启用新的数据集和评价指标。

    1.4K30发布于 2020-02-27
  • 来自专栏PaddlePaddle

    如何基于OpenVINO加速飞桨模型推理?

    8)添加至环境变量 将以下路径添加至系统环境变量中,以便OpenVINO能找到他们: <openvino_repo>/inference-engine/temp/tbb/bin <openvino_repo >/inference-engine/temp/opencv_4.5.0/opencv/bin 9)初始化环境变量 进入到scripts/setupvars路径,在cmd中运行setupvars.bat

    1.4K20发布于 2021-11-17
  • 腾讯云轻量应用服务器部署MCP Server实践

    redis - REDIS_PORT=6379 depends_on: - mysql - redis networks: - mcp-network inference-engine - MODEL_MANAGER_HOST=model-manager - MODEL_MANAGER_PORT=8080 - INFERENCE_ENGINE_HOST=inference-engine - INFERENCE_ENGINE_PORT=8080 depends_on: - model-manager - inference-engine networks job_name: 'mcp-server' static_configs: - targets: ['api-gateway:8080', 'model-manager:8080', 'inference-engine

    84710编辑于 2025-09-19
  • 来自专栏信数据得永生

    精通 TensorFlow 2.x 计算机视觉:第三、四部分

    因此,对于 Raspberry Pi,请使用以下命令: $cd ~/dldt/inference-engine $mkdir build && cd build $cmake -DCMAKE_BUILD_TYPE

    7.2K20编辑于 2023-04-27
领券