首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小七的各种胡思乱想

    解密prompt24. RLHF新方案之训练策略:SLiC-HF & DPO & RRHF & RSO

    计算解码概率的Hinge-Loss这里论文同样加入了正则项,避免模型过度偏离原始SFT对齐的模型,分别尝试了KL和MLE两种不同的正则。消融实验显示KL正则项的效果更好。 我们和SLiC-HF做下对比,首先SLiC是hinge-loss(maximum-margin),DPO不是。 其一是RRHF使用了长度归一化的序列概率来表征偏好,SLiC直接使用了解码概率其二是SLiC使用了Hinge-Loss,而RRHF是直接拟合正负样本的概率差其三是正负样本的构建方案,SLiC是基于SFT 先说损失函数,RSO把SLiC的Hinge-loss加入到DPO的sigmoid-norm损失函数中,得到了如下的hinge-norm损失函数再有是偏好样本构建,RSO指出既然以上对比函数的目标是拟合最优的

    1.7K21编辑于 2024-02-21
  • 【深度学习】一文读懂机器学习常用损失函数(Loss Function)

    更多内容,参考Hinge-loss。 补充一下:在libsvm中一共有4中核函数可以选择,对应的是-t参数分别是: 0-线性核; 1-多项式核; 2-RBF核; 3-sigmoid核。

    47.8K86发布于 2018-07-25
  • 来自专栏AI科技评论

    大会 | CVPR 2018论文解读:真实监控场景中的异常事件检测

    基于此式,为了让正负样本之间的距离尽可能远,作者采用了 hinge-loss 的形式。

    3.1K60发布于 2018-03-29
  • 来自专栏3D视觉从入门到精通

    一种深度学习特征SuperPoint

    对于检测项loss,此时采用了交叉熵损失函数: 其中: 描述子的损失函数: 其中 为Hinge-loss(合页损失函数,用于SVM,如支持向量的软间隔,可以保证最后解的稀疏性); 同时指示函数为

    3.3K50发布于 2020-11-11
  • 来自专栏小樱的经验随笔

    损失函数详解

    更多内容,参考Hinge-loss。 补充一下:在libsvm中一共有4中核函数可以选择,对应的是-t参数分别是: 0-线性核; 1-多项式核; 2-RBF核; 3-sigmoid核。

    1.8K20发布于 2018-04-08
  • 来自专栏CreateAMind

    论文梳理关系图:Neural Symbolic and Probabilistic Logic Papers

    description logic (DL) ontologies in Angluin et al.’s framework of exact learning via queries. 2017 Hinge-Loss

    55021编辑于 2023-09-12
  • 来自专栏人工智能

    自然语言处理的神经网络模型初探

    损失函数(如 Hinge-loss 和对数损失)。 5.词嵌入 在自然语言处理中,词嵌入表示(Word Embedding Representations)是神经网络方法的关键部分。

    3.1K110发布于 2018-02-05
  • 来自专栏机器之心

    学界 | Tomaso Poggio深度学习理论:深度网络「过拟合缺失」的本质

    近期结果(Corollary 2.1 in [10])证明具备 RELU 激活函数的深度网络的 hinge-loss 的梯度最小值具备大的间隔,前提是数据是可分离的。

    66920发布于 2018-07-26
领券