首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI科技大本营的专栏

    用了这个方法,两周没变过的模型精度居然提升了(附资源)

    research-guide-model-distillation-techniques-for-deep-learning-4a100801c0eb 好料推荐 关于知识蒸馏的工作远不止这七篇论文,为了方便大家学习与应用,给大家推荐一个Github项目:《Awesome Knowledge-Distillation

    1.8K20发布于 2019-11-28
  • 来自专栏全栈程序员必看

    知识蒸馏(Knowledge Distillation)

    可以减轻GPU显存的Overhead: def loss_fn_kd(outputs, labels, teacher_outputs, params): """ Compute the knowledge-distillation

    3.3K10编辑于 2022-07-01
  • 来自专栏深度学习自然语言处理

    神经网络中的蒸馏技术,从Softmax开始说起

    英文原文:https://wandb.ai/authors/knowledge-distillation/reports/Distilling-Knowledge-in-Neural-Networks-

    2.2K10发布于 2020-09-24
领券