首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏新智元

    一文解决所有「语言模型」疑问:能不能训多个epoch?怎么微调效率高?需要多少条数据?

    论文链接:https://arxiv.org/abs/2305.15334 研究人员使用LLaMA-7 B基础模型,并对来自Torch Hub、TensorFlow Hub和HuggingFace的1645

    1.6K30编辑于 2023-08-05
  • 来自专栏算法进阶

    大语言模型评测方法全面总结!

    PandaLM由LLaMA-7 B[136]调优得到,利用大语言模型的泛化能力,能够通过对指令的设计更好地抓住不同生成任务上对评测需求的微妙差异,如简洁性、清晰度、全面性、正式性等。

    1.3K10编辑于 2024-07-31
领券