首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在TFLite v2.3中为ARM64启用ARM64

在TFLite v2.3中为ARM64启用ARM64
EN

Stack Overflow用户
提问于 2020-08-01 21:12:02
回答 1查看 2K关注 0票数 0

TFLite团队最近宣布了Tfv2.3 (https://blog.tensorflow.org/2020/07/accelerating-tensorflow-lite-xnnpack-integration.html)中的XNNPack支持。这将为ARM v8内核上的浮点操作提供一些令人印象深刻的加速。

有人知道如何为XNNPack的ARM64构建启用TFLite吗?尤其是基准测试应用程序将是在目标硬件上测试这一新功能的好地方。iOS和Android支持是通过在编译时将一个标志传递给Bazel来启用的。不幸的是,没有为ARM64板的建设提供指导。构建说明(见下文)没有提供任何更新的指导,检查download_dependencies.sh不会显示XNNPack是从任何地方下载的。

https://www.tensorflow.org/lite/guide/build_arm64

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-08-10 21:30:01

XNNPACK还不支持基于Makefile的构建。我们最近在ARM64中添加了对交叉编译的实验性支持(通过bazel build命令中的--config=elinux_aarch64 ),这应该允许构建时选择加入到XNNPACK,同时在构建命令中添加--define tflite_with_xnnpack=true。期望在下一个TF 2.4版本中对交叉编译到ARM64的文档进行一些改进,在这个版本中,我们还将研究如何为尽可能多的平台默认启用XNNPACK。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63210123

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档