腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(4997)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
sparse_softmax_cross_
entropy
_with_logits结果比softmax_cross_
entropy
_with_logits差
我用tensorflow实现了经典的图像分类问题,我有9类,首先使用softmax_cross_
entropy
_with_logits作为分类器和训练网络,经过一定的步骤使训练准确率达到99%,对于您的信息,对于softmax_cross_
entropy
_with_logits,我对标签使用batch_size、num_classes和dtype float32,对于sparse
浏览 6
修改于2017-04-15
得票数 1
回答已采纳
1
回答
InvalidArgumentError in softmax_cross_
entropy
_with_logits
FEATURE_NAMES]) loss = tf.nn.softmax_cross_
entropy
_with_logits[T=DT_FLOAT, Tshape=DT_INT32, _device="/job:localhost/replica:0/task:0/device:CPU:0"](softmax_cross_
entropy
_with_logits_sg
浏览 0
提问于2018-04-19
得票数 1
回答已采纳
1
回答
tensorflow softmax_cross_
entropy
码
由于tf.nn.softmax_cross_
entropy
_with_logits在gen_nn_ops中的源代码是隐藏的,有人能解释一下tensorflow是如何在Softmax之后计算交叉熵的吗?
浏览 4
修改于2017-10-19
得票数 1
回答已采纳
3
回答
sparse_softmax_cross_
entropy
_with_logits和softmax_cross_
entropy
_with_logits有什么不同?
是使用sparse_softmax_cross_
entropy
_with_logits时训练向量y必须为的唯一区别 在阅读应用程序接口时,我找不到与softmax_cross_
entropy
_with_logits如果softmax_cross_
entropy
_with_logits提供的是单一热编码的训练数据/向量,那么它不应该产生与sparse_softmax_cross_
entropy
_with_logits
浏览 1
修改于2018-07-09
得票数 119
回答已采纳
3
回答
tensorflow softmax_cross_
entropy
_with_logits与sigmoid_cross_
entropy
_with_logits的实现差异
我最近遇到了tensorflow softmax_cross_
entropy
_with_logits,但我不知道它的实现与sigmoid_cross_
entropy
_with_logits有什么不同。
浏览 0
修改于2017-03-09
得票数 4
1
回答
解释scipy.stats.
entropy
值
我试图使用scipy.stats.
entropy
来估计两个分布之间的Kullback–Leibler (KL)散度。更具体地说,我想使用KL作为度量来决定两个发行版的一致性。t2=numpy.random.normal(-2.5,0.1,1000) t2=numpy.rand
浏览 5
修改于2020-06-20
得票数 9
1
回答
缩放sparse_softmax_cross_
entropy
_with_logits
如果损失来自于sparse_softmax_cross_
entropy
_with_logits.,我如何缩放梯度?unsupported operand type(s) for /: 'IndexedSlices' and 'int'loss = tf.nn.sparse_softmax_cross_
entropy
_with_logits
浏览 0
提问于2018-01-19
得票数 1
2
回答
PyTorch等价于tf.nn.softmax_cross_
entropy
_with_logits和tf.nn.sigmoid_cross_
entropy
_with_logits
在这里,我们试图找到tf.nn.softmax_cross_
entropy
_with_logits在PyTorch中的等价性。答案仍然让我感到困惑。=tf.float32)torch_labels = torch.tensor(labels).float() loss = torch.nn.
浏览 3
修改于2020-12-26
得票数 1
回答已采纳
1
回答
读取
entropy
_avail文件似乎消耗了熵
然而,我注意到与OP相同的事情至少有一年了,现在我快速地连续执行391834472878 % cat /proc&
浏览 3
提问于2012-11-01
得票数 9
回答已采纳
2
回答
张量MNIST教程- cross_
entropy
计算
我正在为学习本教程cross_
entropy
= tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices
浏览 1
提问于2018-07-17
得票数 0
1
回答
MBEDTLS_ERR_CTR_DRBG_
ENTROPY
_SOURCE_FAILED
*p, *end;unsigned char hash[32]; */ ret = mbedtls_ctr_drbg_seed( &ctr_drbg,mbedtls_
entropy
_func,
浏览 8
修改于2018-05-24
得票数 0
1
回答
Tensorflow,tf.nn.sparse_softmax_cross_
entropy
_with_logits与tf.nn.softmax_cross_
entropy
_with_logits的区别
我读过,但据我所知,对于函数tf.nn.softmax_cross_
entropy
_with_logits(logits, labels, dim=-1, name=None),结果是交叉熵损失,其中logits但是,对于函数tf.nn.sparse_softmax_cross_
entropy
_with_logits,logits和labels的维度并不相同?你能给出一个更详细的tf.nn.sparse_softmax_cross_
entropy
_with_logits例子吗?
浏览 8
提问于2016-12-22
得票数 4
回答已采纳
3
回答
为什么scipy.stats.
entropy
(a,b)返回inf,而scipy.stats.
entropy
(b,a)不返回inf?
In [15]: a = np.array([0.5, 0.5, 0, 0, 0]) Out[17]: inf Out[18]: 0.6931471805599453 从他们的中,我希望两个人都返回inf,因为给出的方程是S =
浏览 2
提问于2019-07-29
得票数 2
回答已采纳
3
回答
执行ValueError时softmax_cross_
entropy
_with_logits
最近出现了张量流更新,其中成本函数softmax_cross_
entropy
_with_logits()已被修改。因此,本教程中的代码给出了以下错误:prediction = neural_network_model(x) cost = tf.reduce_mean( tf.nn.softmax_cross_
entropy
_
浏览 4
提问于2017-02-17
得票数 22
回答已采纳
1
回答
"latent_
entropy
“如何修改linux内核函数?
因此,在linux内核中,我们在/ have /fork.c中有以下函数的方法签名: struct kernel_clone_args *args) 什么类型的C语言特性允许我们使用__latent_
entropy
我不一定要特别问latent_
entropy
做什么,因为我在googled上搜索过,所以我对C方法签名语法更感兴趣。我没有意识到您可以在方
浏览 0
提问于2021-02-20
得票数 1
回答已采纳
1
回答
`session.
entropy
_length`在`PHP.ini`中做什么?
在PHP.ini的会话部分中,有一个名为session.
entropy
_length的指令。它是怎么做到的? 最大长度是多少?
浏览 1
提问于2016-01-23
得票数 7
1
回答
无法使源(‘plot_
entropy
.R’)工作
文件中的错误(文件名,"r",编码=编码):无法打开连接:警告消息:文件中(文件名,"r",编码=编码):无法打开文件'plot_
entropy
.R':没有这样的文件或目录
浏览 3
提问于2022-09-10
得票数 -1
1
回答
提高Cavium上的
entropy
_avail
OS显示当前熵池大小为4096字节,但
entropy
_avail是非常low.The的设备密码模块,只有ansi_cprng.ko存在,没有其他与RNG相关的.ko存在,另外也没有加载RNG相关模块。CONFIG_CRYPTO_ANSI_CPRNG=m CONFIG_CRYPTO_HW=y CONFIG_CRYPTO_RNG=m CONFIG_CRYPTO_RNG2=y 请问如何从Octeon RNG中获取/dev/随机数据并增加
entropy
_avail
浏览 0
修改于2019-04-30
得票数 0
2
回答
binary_cross_
entropy
_with_logits产生负输出
当我使用binary_cross_
entropy
_with_logits时,我可以看到损失的减少,但是当我尝试测试模型时,我注意到: loss = F.binary_cross_
entropy
_with_logits(ouputs[i], Y, weight
浏览 4
修改于2021-08-01
得票数 1
1
回答
TensorFlow sparse_softmax_cross_
entropy
秩误差
labels_series)losses = [tf.nn.sparse_softmax_cross_
entropy
_with_logits
浏览 2
修改于2017-11-09
得票数 1
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券