腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
softmax
和log-
softmax
有什么区别?
autograd.Variable(torch.FloatTensor([0.6229,0.3771]))>>> m = nn.
Softmax
浏览 0
提问于2018-03-12
得票数 4
回答已采纳
1
回答
Softmax
回归梯度
theta_gradients = np.zeros((4, 3)).astype(np.float) for i in range(len(x)): p =
softmax
(sm_input(x[i], theta))[y[i]] # target function {y = j}
浏览 1
提问于2018-10-08
得票数 1
回答已采纳
1
回答
Keras
Softmax
问题
activation='relu', kernel_initializer = 'glorot_uniform'), tf.keras.layers.
Softmax
浏览 7
修改于2019-12-03
得票数 0
4
回答
Gumbel-
Softmax
技巧与随温度变化的
Softmax
据我所知,Gumbel-
Softmax
技巧是一种技术,使我们能够对离散的随机变量进行采样,以一种可微的方式(因此适合于端到端的深度学习)。}{\tau})} 从实践和理论的角度来看,什么时候将Gumbel噪声融入到神经网络中,而不是仅仅使用温度下的
Softmax
?以下是几点意见:温度越高,Gumbel噪声的
浏览 0
提问于2019-08-29
得票数 29
1
回答
了解
Softmax
概率
给定以下
Softmax
回归模型,此实例属于裸土类的概率是多少? ?
浏览 19
提问于2020-07-17
得票数 0
3
回答
softmax
python计算
我刚接触机器学习和学习如何在python中实现
softmax
,我遵循了下面的主题。2000,4000,5000,6000],[1000,2000,3000,6000]])并尝试通过以下方式实现
softmax
浏览 0
修改于2017-10-25
得票数 2
4
回答
数值稳定
softmax
下面有一种数值稳定的方法来计算
softmax
函数吗?我得到的值在神经网络代码中变成了Nans。 np.exp(x)/np.sum(np.exp(y))
浏览 26
修改于2022-07-25
得票数 35
回答已采纳
1
回答
实现
softmax
回归
我试图用
softmax
回归建立一个神经网络。我使用以下回归公式:假设我有1000x100的输入。换句话说,假设我有1000幅图像,每个维度都是10x10。
浏览 9
提问于2016-10-11
得票数 2
回答已采纳
2
回答
torch.nn.
Softmax
、torch.nn.funtional.
softmax
、torch.
softmax
和torch.nn.functional.log_
softmax
的区别是什么
我试图查找文档,但找不到任何有关torch.
softmax
的信息。torch.nn.
Softmax
、torch.nn.funtional.
softmax
、torch.
softmax
和torch.nn.functional.log_
softmax
有什么区别?
浏览 100
修改于2021-09-17
得票数 0
1
回答
Keras
softmax
概率
我试图从最后一层是
softmax
层的网络中获得
softmax
概率,当我使用model.predict()时,我得到的是类而不是概率。谁能告诉我如何获得概率。model.add(Dense(128)) model.add(Dense(43)) model.add(Activation('
softmax
浏览 1
修改于2018-06-20
得票数 0
0
回答
在tensorflow MNIST
softmax
教程中,未使用
softmax
函数
im遵循MNIST
Softmax
教程y = tf.nn.
softmax
(tf.matmul(x, W) + b)# Create the model784])b = tf.Variable(tf.zeros([10]))未使用
softmax
我认为它需要改变我假设,
浏览 0
修改于2017-01-09
得票数 2
1
回答
多重
softmax
分类(Keras)
)# pseudo-pseudo-code任何解决方案都是受欢迎的
浏览 1
提问于2019-02-26
得票数 5
回答已采纳
1
回答
复制pytorch的
softmax
我试图在pytorch中实现
softmax
函数,但我的实现的输出无法与pytorch的实现的输出相匹配。我之所以尝试这样做,是因为我想继续实现一个屏蔽的
softmax
,它不会在分母的和中包括某些索引,并为这些屏蔽的索引设置输出。 我想计算一个矩阵,其中输出中的每一行和为1。我目前的实现是: def my_
softmax
(x): return exp / exp.sum(1, keepdim=True) 然而,我的实现和pytorch)tensor([[-1
浏览 16
修改于2021-10-03
得票数 0
回答已采纳
1
回答
tf.losses.
softmax
与tf.nn.
softmax
的Tensorflow差异
tf.nn.
softmax
_cross_entropy_with_logits和tf.losses.
softmax
_cross_entropy有什么区别,什么时候使用哪个函数??
浏览 10
修改于2019-03-13
得票数 0
1
回答
softmax
的Tensorflow问题
我有一个Tensorflow多类分类器,它在使用tf.nn.
softmax
计算概率的同时生成nan或inf。(logits=logits, name='
Softmax
') probabilities = tf.debugging.check_numerics(probabilities, message='bad根据我所读到的关于tf.nn.
softmax
的内容,它可以处理logit中的非常大和非常小的值。我已经在交互模式中验证了这一点。 >>> with tf.Session() as s:
浏览 34
修改于2021-08-30
得票数 6
1
回答
稀疏采样
Softmax
Tensorflow
如何将tf.nn.sparse_
softmax
_cross_entropy_with_logits转换为使用采样的
softmax
而不是常规的
softmax
?
softmax
函数的输入类似于:[batch, max_time_steps, 512]
浏览 0
修改于2017-10-09
得票数 2
1
回答
softmax
函数为什么?
我们知道,
Softmax
通常应用于具有e^{a}\over \sum e^{a}功能的多类标签。 我的问题是,像a^{2} \over \sum a^{2}这样的函数大多也能工作吗?
浏览 0
修改于2021-08-05
得票数 1
1
回答
Softmax
函数无法预测
我有一个NN,在
softmax
之前的最后一层输出中,我有17编号(每个患者的每个编号)。[ -528.2402 ]现在,这些数字的基本事实是:现在可以非常清楚地看到,
softmax
由于某些原因,
softmax
函数不能学习这样简单的东西,并且总是给出答案(在对输出执行"argmax“之后)。 [0 0 0 0 0 0 0 0 0 ...]现在,我唯一的问题是-为什么我的
softmax
很难区分2类
浏览 0
修改于2019-12-23
得票数 0
1
回答
Softmax
函数的导数
我试图计算
softmax
函数的导数。我有一个2d numpy数组,我正在计算沿着轴1的数组的软最大值。同样,我的python代码是:现在,我计算
softmax
方程导数的python代码是: s=x.reshape(-1,1) r
浏览 0
修改于2019-02-14
得票数 1
4
回答
Softmax
返回恒等矩阵
我对
softmax
的输入,y = tf.nn.
softmax
(tf.matmul(x, W) + b),是一个值矩阵[[ 9.77206726e+02][ 5.72391296e+02] [ 4.75727379e-01]但是,当输入到
softmax
中时,我得到:[[ 1, 2]) W = tf.Variabl
浏览 3
修改于2017-01-09
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券