我在看TF Lite Android应用程序
它可以在GIT上找到:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite/java/demo
如何编译tensorflow lite框架以使用优化的"atom“cpu类型?
是否可以在MAC操作系统上编译它,并对“原子”cpu进行CPU优化?
我想在Android设备上运行这个应用程序(SDK 22),它有一个"Intel Atom“处理器。当我通过Android运行应用程序时,速率大约是每帧1200 was /帧。在我的Galaxy (arm -Snap巨龙处理器)上安装的相同的APK,每帧大约有30 my。
在"build.gradle“中有以下部分:
dependencies {
...
compile 'org.tensorflow:tensorflow-lite:0.0.0-nightly'
...
}所以好像是在下载框架,
如何使用CPU优化在本地编译它,并将应用程序设置为使用它,而不是下载非优化的夜间版本?
我试着运行本教程:带有cpu标志的 Installing TensorFlow from Sources,但不确定它如何帮助我处理Android场景。
发布于 2018-07-09 14:18:14
假设您的Atom设备是x86,使用--fat_apk_cpu标志指定x86 ABI:
$ bazel build -c opt --cxxopt='--std=c++11' \
--fat_apk_cpu=x86 \
//tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo 如果您正在构建64位设备,请使用x86和x86_64进行切换。
在bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk上可用的已构建的APK将包含x86 .so文件:
$ zipinfo bazel-bin/tensorflow/contrib/lite/java/demo/app/src/main/TfLiteCameraDemo.apk | grep lib
-rw---- 2.0 fat 1434712 b- defN 80-Jan-01 00:00 lib/x86/libtensorflowlite_jni.so 如果您的设备已连接,您可以使用bazel mobile-install而不是bazel build直接安装该应用程序:
$ bazel mobile-install -c opt --cxxopt='--std=c++11' \
--fat_apk_cpu=x86 \
--start_app \
//tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemohttps://stackoverflow.com/questions/51246849
复制相似问题