当神经网络最初被开发时,最大的挑战是使它们能够工作!这意味着训练期间的准确性和速度是重中之重。使用浮点算术是保持精度的最简单方法,并且GPU具备完善的设备来加速这些计算,因此自然不会对其他数字格式给予太多关注。
TinyML实践-3:牛运动姿态识别的落地实现 TinyML-4:(Quantization) 为什么int8足够用于ML TinyML-5:TFLite Quantization背后的运行机制
TinyML实践-3:牛运动姿态识别的落地实现 TinyML-4:(Quantization) 为什么int8足够用于ML Edx HarvardX TinyML2-1.4: Machine Learning