首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏程序员IT圈

    百度跨平台 AI 推理加速引擎 -- Anakin

    Anakin目前支持Intel-CPU、NVIDIA-GPU、AMD-GPU和ARM平台,后续将支持更多平台如寒武纪、比特大陆等。 Saber是一个高效的跨平台计算库,包括大量的汇编级优化代码,并支持众多国际行业合作伙伴的架构,如Intel-cpu,NV-gpu,AMD-gpu和ARM等,同时以后还将支持寒武纪MLU100和比特大陆 目前Anakin已经支持了多种硬件架构,如Intel-CPU、NVIDIA-GPU、AMD-GPU、ARM等,未来将会陆续支持比特大陆、寒武纪深度学习芯片等等不同硬件架构。

    1.6K40发布于 2018-08-16
  • 来自专栏深度学习技术前沿

    【移动端最强架构】LCNet吊打现有主流轻量型网络(附代码实现)

    因此,在本文中,作者重新思考了在Intel-CPU上设计网络的轻量级模型元素。作者特别考虑以下三个基本问题。 如何在不增加延迟的情况下促进网络学习到更强的表征能力? 最终提出了一种结合Intel-CPU端侧推理特性而设计的轻量高性能网络PP-LCNet,所提架构取得了比ShuffleNetV2、MobileNetV2、MobileNetV3以及GhostNet更优的延迟

    1.3K20发布于 2021-11-30
  • 来自专栏AIWalker

    PPLCNet:CPU端强悍担当,吊打现有主流轻量型网络,百度提出CPU端的最强轻量型架构

    pdf code: https://github.com/PaddlePaddle/PaddleClas 前有阿里团队针对Nvidia-GPU端加速而设计的高推理速度高性能的GENet,现有百度团队针对Intel-CPU 本文是百度团队结合Intel-CPU端侧推理特性而设计的轻量高性能网络PP-LCNet,所提方案在图像分类任务上取得了比ShuffleNetV2、MobileNetV2、MobileNetV3以及GhostNet

    2.2K20发布于 2021-10-12
  • 来自专栏深度学习那些事儿

    Openvino初探(实际体验)

    通俗易懂点说想要在intel-cpu或者嵌入式上部署深度学习模型,之前你使用libtorch或者tvm,这个时候可以考虑考虑openvino,其针对intel的多代cpu以及其他硬件平台做了针对的优化。 一些总结和问题 OpenVino作为一个针对于Intel-CPU部署工具,和其他大多数的推理框架是类似的,和TensorRT一样,有着丰富的例程和相应的文档(TVM等开源社会框架则文档少一些),入门相对比较容易 优点很明显,在Intel-CPU上的模型优化能力非常棒,大部分模型通吃,转化ONNX模型很少有失败的情况。可以充分利用多核优势,并且可以灵活设置使用的线程数量。

    2K40编辑于 2023-10-19
  • 来自专栏集智书童

    快到起飞 | PP-LCNet在CPU上让模型起飞,精度提升且比MobileNetV3+快3倍

    在本文中,作者重新思考了在Intel-CPU上设计网络的轻量级模型元素。作者特别考虑以下三个基本问题。 如何在不增加延迟的情况下促进网络学习更强的特性展示。

    1.8K10发布于 2021-10-12
  • 来自专栏CloudBest

    干货 | 一文理清深度学习

    通俗易懂点说想要在Intel-cpu或者嵌入式上部署深度学习模型, 之前使用libtorch或者tvm, 这个时候可以考虑考虑OpenVINO, 其针对Intel的多代CPU以及其他硬件平台做了针对的优化

    60050发布于 2021-04-20
  • 来自专栏GitHubDaily

    炸裂!PDF 转 Word 彻底告别收费时代,这款 OCR 开源神器要逆天!

    ☆表格识别 PP-LCNet: CPU友好型轻量级骨干网络 PP-LCNet是结合Intel-CPU端侧推理特性而设计的轻量高性能骨干网络,在图像分类任务上,该方案在“精度-速度”均衡方面的表现比ShuffleNetV2

    6.9K10编辑于 2022-11-01
领券