腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(132)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
当我们用神经网络进行监督分类时,为什么我们要训练交叉熵而不是分类误差?
我们建立N个输出的神经网络,用softmax将其转化为概率,损失是每个NN输出和相应的真标号之间的平均
cross-entropy
,表示为真标号中带有1的1-hot向量和其他0。但是,我知道在执行policy gradient时我们可以使用,我们不再需要使用
cross-entropy
!我们的损失只是tf.gather与正确标签对应的NN输出。例如。我在想,我们使用
cross-entropy
的原因是因为它是可微的,但显然tf.gather是。我的意思是--如果我们用分类错误来衡量自己,并且我们可以对分类错误进行优化,因为分类错误是可以区分的,那
浏览 3
提问于2017-08-19
得票数 1
回答已采纳
3
回答
具有多个分隔符的切片字符串
我有许多包含目标行的日志文件,我希望'grep',例如:我希望将间隔为制表符的"2“和"0.556984”切成一个文件grep "
Cross-Entropy
(masked data):" *.log | cut -d '.'-f 3 >> targetFile.txt
浏览 0
修改于2016-11-28
得票数 0
1
回答
稀疏多标签最后激活/丢失函数
如果我使用sigmoid作为binary
cross-entropy
loss的最后一个激活函数,我在我的第一个纪元中获得了98%的准确率,但它实际上没有学到任何东西。所以我改为在categorical
cross-entropy
loss中使用sigmoid,看起来效果更好,但我认为不推荐这样做? 我想要一些关于在这种情况下我应该使用什么激活和损失的指导。谢谢!
浏览 2
修改于2020-05-15
得票数 2
1
回答
如何在keras中实现损失函数的ssim?
我需要使用SSIM进行第一次输出,使用
cross-entropy
进行下一次输出。损失函数是它们的组合。然而,我需要更高的SSIM和更低的
cross-entropy
,所以我认为它们的组合是不正确的。
浏览 50
修改于2019-04-10
得票数 3
1
回答
tf.nn.sampled_softmax_loss中的损失函数
我相信它是
cross-entropy
,,但它没有写在官方网站上。有人能证实我的猜测吗?
浏览 4
修改于2020-07-06
得票数 0
回答已采纳
1
回答
如何修复python中读取CSV文件时未对齐的形状
return a.T def sigmoid(t): ind = np.argwhere(y==1)[:,1] #compute
cross-entropy
浏览 10
修改于2022-03-05
得票数 0
1
回答
降低深度神经网络的总损失
.#
cross-entropy
+ accuracy = categorical
浏览 5
提问于2017-08-25
得票数 0
回答已采纳
2
回答
SVM与Logistic回归的差异
显然,SVM选择最大边缘分类器,logistic回归是
cross-entropy
损失最小化的分类器。在某些情况下,SVM的表现要好于logistic回归,反之亦然?
浏览 0
修改于2018-05-14
得票数 12
回答已采纳
1
回答
失败断言测试的浮点数的Python ()
“守则”: """ cost --
cross-entropy
cost given equation (13) """
浏览 0
修改于2018-07-19
得票数 2
2
回答
这个神经网络有多少层?
out of the linear box is fead into softmax The output of softmax is fed into the distance function
cross-entropy
浏览 1
修改于2017-05-23
得票数 1
回答已采纳
1
回答
在对抗性训练中,应该再使用Dropout口罩吗?
中使用自定义丢失函数实现,在概念上如下所示: ... # Compute the
cross-entropy
model.input) # Compute the
cross-entropy
浏览 1
提问于2018-11-20
得票数 2
回答已采纳
1
回答
获取错误TypeError:无法解压缩不可迭代的浮点对象
我得到了这个错误:# mlp for the blobs multi-class classification problem with
cross-entropy
浏览 2
修改于2021-07-15
得票数 0
回答已采纳
1
回答
"chainer.functions.sigmoid_cross_entropy“是一个二阶可微函数吗?
class_weight = None, ignore_label = -1, reduce = 'mean', enable_double_backprop = False, soft_target_loss = '
cross-entropy
浏览 17
提问于2020-01-05
得票数 1
1
回答
滑雪"RidgeClassifier“是做什么的?
LogisticRegression does.It计算系数和拦截以最小化half of sum of squares of the coefficients + C times the binary
cross-entropy
浏览 0
提问于2018-12-24
得票数 16
回答已采纳
1
回答
theano令人费解的语法
0.5 # The prediction thresholded xent = -y * T.log(p_1) - (1-y) * T.log(1-p_1) #
Cross-entropy
浏览 0
提问于2016-04-22
得票数 0
1
回答
训练时的流错误: op 'shuffle_batch‘引起的
1, 28 * 28 * 3]) Y = tf.nn.softmax(tf.matmul(XX, W) + b) # Y_: the desired output vector
浏览 1
修改于2017-09-06
得票数 0
回答已采纳
3
回答
scikit学习软标签的分类
据我所知,log loss是一个
cross-entropy
损失函数,理论上可以处理软标签,即给出一些概率0,1的标签。
浏览 14
修改于2022-03-19
得票数 11
回答已采纳
3
回答
tensorflow:为什么gather_nd是可区分的?
我认为神经网络的全部要点总是与可微的操作一起工作,比如
cross-entropy
,而不是做一些奇怪的事情,比如根据随机选择的、明显不可微的self.actions_array来选择self.y的索引。
浏览 7
提问于2017-08-16
得票数 10
1
回答
基于神经网络的二元分类混淆矩阵
units=1, activation='sigmoid')) network.compile(loss='binary_crossentropy', #
Cross-entropy
浏览 2
修改于2022-08-01
得票数 0
回答已采纳
1
回答
损失函数与深度学习
中计算成本的代码片段: """ cost --
cross-entropy
code) W1 = parameters['
浏览 0
修改于2018-07-20
得票数 2
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
点击加载更多
领券