#码力全开·技术π对#关于‌TensorFlow模型压缩‌的相关问题

如何在移动端实现BERT模型的8-bit量化部署?量化后如何平衡推理速度与准确率下降(如使用TFLite的量化感知训练工具链)?

量化部署
小虚竹51CTO
3天前
浏览
收藏 0
回答 0
待解决
发布
相关问题
提问