首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏GiantPandaCV

    深度学习算法优化系列六 | 使用TensorFlow-Lite对LeNet进行训练时量化

    附录 Tensorflow-Lite官方文档:https://tensorflow.google.cn/lite Tensorflow后量化官方实例:https://github.com/tensorflow

    2K20发布于 2020-02-10
  • 来自专栏GiantPandaCV

    深度学习算法优化系列五 | 使用TensorFlow-Lite对LeNet进行训练后量化

    附录 Tensorflow-Lite官方文档:https://tensorflow.google.cn/lite Tensorflow后量化官方实例:https://github.com/tensorflow

    1.9K10发布于 2020-01-21
  • 来自专栏Phoenix的Android之旅

    在Android上用AI识别物体

    Google的Tensorflow在Android上做了专门的框架 - Tensorflow-Lite,它能够在移动端上高性能地运算AI模型。 首先需要在app的build.gradle里引入它 dependencies { implementation 'org.tensorflow:tensorflow-lite:1.10.0' }

    4.9K60发布于 2018-12-19
  • 来自专栏数据结构和算法

    使用Python实现深度学习模型:跨平台模型移植与部署

    可以使用以下命令安装: pip install tensorflow tensorflow-lite 步骤二:训练深度学习模型 我们将使用MNIST数据集训练一个简单的卷积神经网络(CNN)模型。

    34910编辑于 2024-07-11
  • 来自专栏大龄程序员的人工智能之路

    Android上的TensorFlow Lite,了解一下?

    构建TensorFlow Lite Android应用程序 要构建使用TensorFlow Lite的Android应用程序,您需要做的第一件事就是将tensorflow-lite库添加到应用程序中。 这可以通过将以下行添加到build.gradle文件的依赖项部分来完成: compile ‘org.tensorflow:tensorflow-lite:+’ 完成此操作后,您可以导入TensorFlow

    2.4K40发布于 2019-07-02
  • 来自专栏AI科技大本营的专栏

    首次在手机端不牺牲准确率实现BERT实时推理,比TensorFlow-Lite快近8倍,每帧只需45ms

    相比于TensorFlow-Lite(TFLite), CANAO框架在速度方面提升了7.8倍,延迟仅为45ms,首次实现在手机端的高准确率(几乎不牺牲准确率)、实时自然语言处理任务。 ?

    1.9K10发布于 2020-09-22
  • 来自专栏人人都是极客

    【免费教学】在嵌入式中使用 TensorFlow Lite

    mobilenet_v1_0.75_224.tflite 文件(直接在 TF Lite 运行即可) 具体的开发 声明依赖 第一步就是在项目的 Gradle 文件中加入 org.tensorflow:tensorflow-lite

    1.8K30发布于 2018-07-26
  • 来自专栏新智元

    用老旧骁龙855玩转「马保国」实时动作检测!CoCoPIE获红杉种子领投

    3000ec027ac34ad4bb617dd52caab981.pdf CoCoPIE保持着数个移动设备AI的记录: 首次支持所有类型的DNN,包括CNN、RNN、转化器和语言模型等; 最快的DNN修剪和加速框架,比目前的框架(如TensorFlow-Lite 结果表明,与PyTorch、 TensorFlow-Lite和MNN相比,CoCoPIE在所有的DNN上都表现最优。

    97420发布于 2021-08-25
  • 来自专栏AI-vell

    编译tensorflow-lite-with-select-tf-ops遇到的坑

    前言 最近在将tf训练的模型迁移到Android端,使用的是tensorflow-lite,由于模型用到了一些tflite还没有支持的op,所以需要让tflite支持tf的op,官方没有直接给出aar,

    6.1K141发布于 2018-12-28
  • 来自专栏Phoenix的Android之旅

    几个入门移动端AI的基础知识

    关键在于我们移动端开发它也支持,Tensorflow推出了 Tensorflow-Lite,专门为移动端AI开发。

    1.1K20发布于 2019-05-17
  • 来自专栏Python深度学习

    使用Python实现深度学习模型:跨平台模型移植与部署

    可以使用以下命令安装:pip install tensorflow tensorflow-lite步骤二:训练深度学习模型我们将使用MNIST数据集训练一个简单的卷积神经网络(CNN)模型。

    70310编辑于 2024-07-10
  • 来自专栏Python与算法之美

    使用tensorflow-serving部署模型

    通过 tensorflow-lite 可以在移动和嵌入式设备上加载并运行TensorFlow模型。

    1.6K20发布于 2020-07-20
  • 来自专栏数据结构和算法

    使用Python实现深度学习模型:在嵌入式设备上的部署

    可以使用以下命令安装:pip install tensorflow tensorflow-lite步骤二:训练深度学习模型我们将使用MNIST数据集训练一个简单的卷积神经网络(CNN)模型。

    2K11编辑于 2024-07-11
  • 来自专栏QQ音乐技术团队的专栏

    深度学习落地移动端——Q音探歌实践(一)

    可以看到在iOS上,使用Metal是主流,包括Tensorflow-Lite和Pytorch Mobile都使用了这种方案。而Android端的选择则要复杂的多。 Android iOS NCNN vulkan vulkan(需要额外引入三方库) MNN vulkan,OpenGL ES,OpenCL Metal MACE OpenCL OpenCL Tensorflow-Lite

    2.3K20编辑于 2023-03-01
  • 来自专栏程序你好

    深度学习框架机器学习的开源库TensorFlow

    Google 最近发布了一个移动优化的 TensorFlow-Lite 库,用于在 Android 上运行 TensorFlow 应用程序。 Android 现在,有一个新的、经过优化的 TensorFlow-Lite Android 库可用于运行 TensorFlow 应用程序。

    1.6K10发布于 2018-07-20
  • 来自专栏CVer

    超越YOLOv4-tiny!比YOLOv3快7倍!YOLObile:移动端上的目标检测

    现在主流的移动端DNN推理加速框架,如TensorFlow-Lite,MNN和TVM都只能支持CPU或GPU单独运算,因此也导致了潜在的计算资源浪费。

    2.3K41发布于 2020-09-28
  • Kotlin与机器学习实战:Android端集成TensorFlow Lite全指南

    noCompress "tflite" // 防止模型文件被压缩 }}dependencies { // TFLite核心库 implementation("org.tensorflow:tensorflow-lite

    65910编辑于 2025-05-17
  • 来自专栏程序员IT圈

    百度跨平台 AI 推理加速引擎 -- Anakin

    Xeon(R) CPU E5-2650 v4 @ 2.20GHz 2620-v4:Intel(R) Xeon(R) CPU E5-2620 v4 @ 2.10GHz (3)在移动端ARM上,我们选取Tensorflow-lite

    1.6K40发布于 2018-08-16
  • 来自专栏OpenCV与AI深度学习

    在Android上使用YOLOv8目标检测(步骤+代码)

    应用程序/build.gradle.kts implementation("org.tensorflow:tensorflow-lite:2.14.0") implementation("org.tensorflow

    5.4K10编辑于 2024-07-25
  • 来自专栏喔家ArchiSelf

    浅谈人工智能的学习

    TensorFlow2.0是一个主要的里程碑,其重点是易用性,支持分布式策略和边缘部署(tensorflow-lite和tensorflow.js)等。

    1.3K40发布于 2019-05-10
领券