首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏范传康的专栏

    TinyML-4:(Quantization) 为什么int8足够用于ML

    当神经网络最初被开发时,最大的挑战是使它们能够工作!这意味着训练期间的准确性和速度是重中之重。使用浮点算术是保持精度的最简单方法,并且GPU具备完善的设备来加速这些计算,因此自然不会对其他数字格式给予太多关注。

    2.1K51发布于 2021-01-10
  • 来自专栏范传康的专栏

    TinyML-6:移植到nrf52840淘宝开发板(带源码)

    TinyML实践-3:牛运动姿态识别的落地实现 TinyML-4:(Quantization) 为什么int8足够用于ML TinyML-5:TFLite Quantization背后的运行机制

    2.6K31发布于 2021-01-24
  • 来自专栏范传康的专栏

    TinyML-5:TFLite Quantization背后的运行机制

    TinyML实践-3:牛运动姿态识别的落地实现 TinyML-4:(Quantization) 为什么int8足够用于ML Edx HarvardX TinyML2-1.4: Machine Learning

    2.8K91发布于 2021-01-17
领券