因为我需要训练一个具有多个标签的模型,所以我需要使用loss function tf.nn.sigmoid_cross_entropy_with_logits。此函数有两个参数:logits和loss。 参数logitsis是预测y的值吗?我如何在编译模型之前传递这个值呢?在编译和拟合模型之前,我不能预测y,对吧?keras.layers.Dense(8)])
loss=tf.nn.sigmoid_cross_entropy_with_<
出于这个原因,我尝试使用tf.nn.weighted_cross_entropy_with_logits作为我的成本函数。但是,当我更改为weighted_cross_entropy_with_logits时,我得到一个形状错误,并且我不确定如何修复这个错误。ValueError: logits and targets must have the same shape ((?, 2) vs (?
我想将SVM输出的概率类转换为logits。将概率转换为logits。我想将SVM的结果与神经网络的结果合并。使得损失神经网络输出logits。因此,l正在寻找一种方法,将SVM输出的概率转换为logits,然后使用相等的权重将神经网络logits与SVM logits合并:
overal_probabilities= s