Anakin目前支持Intel-CPU、NVIDIA-GPU、AMD-GPU和ARM平台,后续将支持更多平台如寒武纪、比特大陆等。 Saber是一个高效的跨平台计算库,包括大量的汇编级优化代码,并支持众多国际行业合作伙伴的架构,如Intel-cpu,NV-gpu,AMD-gpu和ARM等,同时以后还将支持寒武纪MLU100和比特大陆 目前Anakin已经支持了多种硬件架构,如Intel-CPU、NVIDIA-GPU、AMD-GPU、ARM等,未来将会陆续支持比特大陆、寒武纪深度学习芯片等等不同硬件架构。
因此,在本文中,作者重新思考了在Intel-CPU上设计网络的轻量级模型元素。作者特别考虑以下三个基本问题。 如何在不增加延迟的情况下促进网络学习到更强的表征能力? 最终提出了一种结合Intel-CPU端侧推理特性而设计的轻量高性能网络PP-LCNet,所提架构取得了比ShuffleNetV2、MobileNetV2、MobileNetV3以及GhostNet更优的延迟
pdf code: https://github.com/PaddlePaddle/PaddleClas 前有阿里团队针对Nvidia-GPU端加速而设计的高推理速度高性能的GENet,现有百度团队针对Intel-CPU 本文是百度团队结合Intel-CPU端侧推理特性而设计的轻量高性能网络PP-LCNet,所提方案在图像分类任务上取得了比ShuffleNetV2、MobileNetV2、MobileNetV3以及GhostNet
通俗易懂点说想要在intel-cpu或者嵌入式上部署深度学习模型,之前你使用libtorch或者tvm,这个时候可以考虑考虑openvino,其针对intel的多代cpu以及其他硬件平台做了针对的优化。 一些总结和问题 OpenVino作为一个针对于Intel-CPU部署工具,和其他大多数的推理框架是类似的,和TensorRT一样,有着丰富的例程和相应的文档(TVM等开源社会框架则文档少一些),入门相对比较容易 优点很明显,在Intel-CPU上的模型优化能力非常棒,大部分模型通吃,转化ONNX模型很少有失败的情况。可以充分利用多核优势,并且可以灵活设置使用的线程数量。
在本文中,作者重新思考了在Intel-CPU上设计网络的轻量级模型元素。作者特别考虑以下三个基本问题。 如何在不增加延迟的情况下促进网络学习更强的特性展示。
通俗易懂点说想要在Intel-cpu或者嵌入式上部署深度学习模型, 之前使用libtorch或者tvm, 这个时候可以考虑考虑OpenVINO, 其针对Intel的多代CPU以及其他硬件平台做了针对的优化
☆表格识别 PP-LCNet: CPU友好型轻量级骨干网络 PP-LCNet是结合Intel-CPU端侧推理特性而设计的轻量高性能骨干网络,在图像分类任务上,该方案在“精度-速度”均衡方面的表现比ShuffleNetV2