腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
fayad和伊拉尼离散化的实现
有没有java代码来实现法亚德和伊拉尼基于
熵
的离散化?我已经尝试读取文件,然后计算
熵
和信息增益。如何获得bounday积分?我必须实现法亚德和伊拉尼的离散化算法,它是基于
熵
和信息增益的(
法
亚德和伊拉尼,1993
浏览 3
提问于2014-10-16
得票数 0
1
回答
基于滚动窗口的
熵
分析
我要计算滚动窗口大小为500的多个时间序列的
熵
值。我在代码中使用了滚动应用函数,但它不起作用。 请帮助我计算
熵
(即下面的代码)在滚动窗口大小为500。为了您的方便,这里我提供了我的
熵
代码,这样您就可以更容易地在
熵
法
中提出500滚动窗口大小的应用。
浏览 0
修改于2019-02-08
得票数 2
回答已采纳
1
回答
ReLu,ELU,SELU的损失函数
对于乙状结肠激活,交叉
熵
日志丢失导致
权
值更新z(z - label) * x的简单梯度形式,其中z是神经元的输出。参考资料 二元交叉
熵
的导数-为什么我的符号不对?
浏览 0
修改于2020-12-05
得票数 2
回答已采纳
2
回答
交叉
熵
误差计算
我不完全理解交叉
熵
误差是如何计算的。由于某些负数的对数没有定义(或虚的),并且神经网络的输出可以是一些负数(
权
值和偏差是随机初始化的),所以我经常得到NaN。我该怎么避免呢?
浏览 1
提问于2015-12-03
得票数 1
回答已采纳
1
回答
Tensorflow:加权交叉
熵
权
的解释
Tensorflow函数tf.nn.weighted_cross_entropy_with_logits()接受参数pos_weight。将pos_weight定义为“用于正示例的系数”。我假设这意味着增加pos_weight会增加假阳性的损失,减少假阴性的损失。还是我倒过来了?
浏览 1
修改于2016-11-20
得票数 6
回答已采纳
2
回答
交叉
熵
法数学表示
法
的转换
我想在我正在使用的算法中添加参数选择的交叉
熵
方法。问题是我不太懂数学表示
法
,也找不到用代码写成的交叉
熵
方法的这个版本。
浏览 3
修改于2014-03-17
得票数 1
回答已采纳
2
回答
如何度量人类可读的文本文件(许可文件)之间的相似性或距离?
对单个额外单词的权重低白空间上的最小
权
0.95 GPL-1+.txt0.56 GPL-2+.txt0.78 GPL-3+.txt 我的一个想法是计算许可的
熵
,然后将unknown.txt和许可连接起来,再用ent计算
熵
。附加
熵
最小的文件是相似的。有更好的主意吗?
浏览 0
提问于2021-06-08
得票数 -1
回答已采纳
1
回答
火炬交叉
熵
损失
权
不起作用
我在玩一些代码,它的行为与我预期的不一样。所以我把它简化为一个最简单的例子:test_target = torch.tensor([0]) loss_test = loss_function_test(test_act, test_target)> tensor(0.1269) loss_f
浏览 2
修改于2021-05-21
得票数 0
回答已采纳
1
回答
利用神经网络中代价函数的巧妙选择消除梯度输入
在http://neuralnetworksanddeeplearning.com/chap3.html中我有以下的推理,为了计算成本梯度,我们使用链规则,导出了关于激活的成本,关于(w *x+ b)的激活,以及与权重的和。对于
权
Wi,(和w*x+ b) w.r.to Wi的导数总是xi,而激活函数的导数不知道这一点,所以它不可能消除Xi,
浏览 0
修改于2017-04-15
得票数 2
回答已采纳
1
回答
将/highentropyva-从MSBuild命令行或项目文件传递给CSC编译器
由于供应商库不兼容,我需要编译高
熵
VA关闭的C#应用程序。到目前为止,我发现的唯一方
法
是在构建后的步骤中使用editbin,但这非常笨重。有更好的办法吗?
浏览 3
提问于2014-12-19
得票数 2
回答已采纳
1
回答
交叉
熵
损失的人工计算
嗨,只是玩代码,我得到了意想不到的结果交叉
熵
损失
权
的实现。]],dtype=torch.int64)在这类样本变量下,毕道尔的交叉
熵
损失为loss = F.cross_entropy(pred, label, weight=weights,reduction='mean')我手动实现了交叉
熵
损失代码,如下所示 one_hotF.log_softmax(
浏览 0
修改于2021-08-10
得票数 2
回答已采纳
1
回答
香农
熵
中的"S“代表什么?
在分类/监督学习上下文中,我看到许多机器学习文本使用以下表示
法
来表示Shannon
熵
: 我知道信息增益和
熵
的概念,我只是想了解数学形式主义
浏览 0
修改于2021-10-20
得票数 0
回答已采纳
3
回答
不同长度序列的流量交叉
熵
损失
我使用的损失函数是softmax交叉
熵
损失。问题是我的输入序列有不同的长度,所以我填充它。模型的输出具有形状[max_length, batch_size, vocab_size]。tf.nn.softmax_cross_entropy_with_logits提供轴向参数,可以用三维方法计算损耗,但不提供
权
值。
浏览 3
提问于2017-12-29
得票数 3
回答已采纳
1
回答
基于Gauss求积的双积分数值积分
我已经有一个代码来生成
权
值和脓肿的高斯-Legendre求积规则,但我有困难使用它的双重积分。为了生成
权
值和脓肿,我使用以下表示
法
w,x=leg( x1,x2,n),其中w是
权
,x是脓肿,x1是积分的下限,x2是上限,n是求积点的个数。 我只举一个简单的例子,这样它就能帮助我理解这个想法。
浏览 3
提问于2016-08-07
得票数 0
1
回答
GAN公式中期望表示
法
的解释是什么?
我对GAN损失函数中的期望表示
法
感到困惑。然后,二进制交叉
熵
是: 当用作GAN损耗时
浏览 0
提问于2019-02-15
得票数 3
1
回答
VAE中的KL散度
如果我正确理解,KL-散度是两个分布的相对
熵
。要计算两个分布的KL散度,需要两个随机变量向量。 我不明白的是,如何计算VAE (潜空间向量和N(0,1) )中的KL散度,正如许多教程中所述。它是输入、
权
值、偏差和激活函数的乘积向量。所有这些都不会使你的向量成为随机变量向量。我的问题是,如何正确地将潜在空间向量创建为随机变量向量,这样最终就可以计算出KL散度。
浏览 0
提问于2018-12-10
得票数 0
回答已采纳
1
回答
一种简单卷积神经网络的反向传播
取交叉
熵
和softmax的导数,计算了全连通层的
权
值。 我感到困惑的是如何通过最大池预先形成反向传播,然后最终在卷积层中找到
权
值的导数。
浏览 0
修改于2021-02-12
得票数 2
回答已采纳
1
回答
分类
法
上的行
权
在我的活动站点上,我无法仅在分类
法
上看到拖放功能,而在menus.Below上成功地显示它是我用于分类
法
的屏幕快照。应该是这样的:有人能想到这件事吗?
浏览 0
提问于2015-06-12
得票数 0
回答已采纳
1
回答
* TypeError:预期的float32传递给op 'Equal‘的参数'y’,得到'str‘类型的'auto’
我正在处理一个keras.io示例,其中构建了一个变分的自动编码器,在这里可以找到: ,,我试图用MeanSquaredError-损失替换二进制_交叉
熵
损失,但是我得到了一个TypeError。此外,我不明白为什么使用二进制交叉
熵
损失,因为我把这个损失理解为分类损失,但在这里,我比较原始数据的值和它的重构,这是一种回归,而不是分类。那么,为什么仍然适合使用crossentropy-loss?When -我运行的代码与交叉
熵
损失,并看看我的损失,那么KL损失和重建损失不总结为全损。我的意思是,总损失总是不等于KL损失和重建损失之和,尽管在列
浏览 3
修改于2021-06-02
得票数 0
1
回答
神经网络:批量版本仿射层反向传播
权
矩阵更新
_W是
权
矩阵。 这是否意味着这些N批次的总体效果被合并/浓缩成dL/dW?这与我如何实现输出层有关,例如软最大-交叉
熵
层作为最后一层。我目前的结论是,
浏览 0
修改于2018-04-29
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券