腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
Tensorflow服务
分组
卷积
我正在做笔迹检测用角和坦索弗洛。我已经准备好模型,并使用hdf5文件。当我试图使用tensorflow服务提供服务时,我得到以下错误: [[{{node conv2d_1/convolution}} = Conv2D[T=DT_FLOAT,
浏览 1
修改于2018-09-19
得票数 5
1
回答
分组
卷积
真的能改善学习吗?
我对
分组
卷积
的理解或者,我们可以将输入分成n个组。例如,让我们假设是n=2。然后用64/n = 32滤波器将每个输入传递给不同的
卷积
层,得到两个形状为[100,100,32]的输出。这两个输入比级联通道明智地得到一个形状为[100,10
浏览 0
修改于2021-07-19
得票数 0
1
回答
分组
卷积
的Caffe变换
type: "ReLU" top: "conv2"Caffe中的层定义可能看起来很复杂,但它只需要一个维度的图像( 1280x1280x3 )将其传递到
卷积
层,然后max将其集合并传递给最终的
卷积
层。问题是Keras的最后
卷积
层与Caffe中的最后
卷积
层在三维上具有不同的值。见下文。
浏览 1
修改于2019-02-10
得票数 4
回答已采纳
1
回答
用焦火炬
分组
卷积
获取误差
我正试图在非常大的图像(10kx10k像素)上使用Pytorch
分组
Conv2d操作符。我得到了一个RuntimeError:在网络中应用
分组
卷积
时,偏移量太大了。有人知道怎么绕过这事吗?
浏览 2
提问于2019-11-28
得票数 0
2
回答
基于
分组
卷积
的重复
卷积
背靠背
通过快速搜索,最快的方法是使用
分组
卷积
和组数作为信道数。
浏览 3
提问于2021-08-19
得票数 1
回答已采纳
2
回答
分组
深度
卷积
性能
我试图在Tensorflow中改进我的ResNeXt实现的性能。David提到了与相比的潜在改进。我想把这个应用到我的实现中-- reshape+sum是如何适应这个的?# see also https://arxiv.org/pdf/1611.05431.pdf x = tf.layers.conv2d(x, filters=64, kernel_size=1, strides=strides) x = tf.layers.batch_normali
浏览 0
修改于2018-03-01
得票数 2
回答已采纳
2
回答
Tensorflow融合conv实现不支持
分组
卷积
我做了一个神经网络机器学习彩色图像(3通道)。它起了作用,但现在我想试着用灰度来看我是否能提高精确度。以下是代码: rescale=1. / 255, zoom_range=0.2, trai
浏览 10
修改于2022-07-27
得票数 0
回答已采纳
2
回答
目前,融合conv实现不支持
分组
卷积
。
当我去训练模型时,我会得到一个错误,如下所示函数调用堆栈: train_functionimport numpy as np import tensorflow as tf
浏览 2
修改于2020-11-18
得票数 1
5
回答
UnimplementedError:融合的conv实现目前不支持
分组
卷积
我正试图建立一个CNN模型来识别使用杜柏林的人类素描。我下载了png压缩文件,将数据导入Google,然后将数据拆分到火车测试文件夹中。以下是模型: tf.keras.layers.Conv2D(filters = 64, kernel_size = (5,5),padding = 'Same', tf.keras.layers.Conv2D(
浏览 12
提问于2020-05-14
得票数 13
回答已采纳
1
回答
如何在tensorlayer中实现alexnet的“group”
在alexnet中,group用于将
卷积
核(连接上一层和当前层)的参数强制
分组
为k个部分,tensorlayer中是否有简单的
分组
实现?
浏览 1
修改于2017-04-24
得票数 2
3
回答
应用组
卷积
,其中每个组被约束为具有相同的权重
组
卷积
在Keras中可用,使用代码如下: 然而,对于我的特定应用,我要求在训练期间,组
卷积
中的每个组具有相同的权重。例如,如果我有一个形状为8x8x32的张量,并且我想要groups = 2和filter_size=3x3,那么normal group
卷积
将使用两个3x3x16张量来
卷积
8x8x32的前半部分和8x8x32我可以通过摆脱我的组
卷积
框架并将我的8x8x32张量拆分为两个8x8x16张量,然后通过单个未
分组
的3x3x16
卷积
来运行它们。但是,由于不使用组<e
浏览 0
提问于2020-04-15
得票数 3
1
回答
什么是可以接受不同类型输入的神经网络?
有一个科学文件,实现了一个
卷积
神经网络分类3种不同类型的数据,尽管如何准确,是我所不知道的。这一部分描述了我们的神经网络的结构,如图3所示。截图由三个
卷积
层处理(前两层由BVLC AlexNet的预训练权值初始化)。TextMaps被处理为一个
卷积
层,内核大小为1 \times 1,因此它的特征捕获了各种单词的组合。然后将这两个层连接起来,由最终的
卷积
层处理。我们的网络究竟意味着什么,上面有三种输入?
卷积
神经网络是否有可能以不同的方式传递不同的输入?简单地说,我是否可
浏览 0
修改于2021-02-12
得票数 2
回答已采纳
1
回答
Excel-需要帮助细化类别
数据列C:-which的更详细示例是从描述中的关键字派生出来的,因此拼写和语法有所不同 涂层去除
浏览 2
修改于2018-07-18
得票数 0
回答已采纳
1
回答
如何更新分解层的权重?
我正在尝试开发一个反
卷积
层(确切地说,是一个转置
卷积
层)。 在前传中,我在后传做完全
卷积
(零填充
卷积
),做有效
卷积
(无填充
卷积
),将误差传递给前一层。问题是我不知道如何更新
卷积
滤波器的权重。梯度是多少?我肯定这是一个
卷积
运算,但我不知道怎么做。我试着用误差对输入进行有效的
卷积
,但没有结果。
浏览 3
修改于2017-02-21
得票数 8
1
回答
仅用pth文件加载pth Tacotron2模型的问题
s.0.0.权重“、”encoder.
卷积
s.0.0.偏向“、”encoder.
卷积
s.0.1.权重“、”encoder.
卷积
s.0.1.偏向“、"encoder.convolutions.0.1.running_mean、"encoder.convolutions.1.1.running_var”、“encoder.
卷积
s.2.0.权重”、“Encoder.
卷积
s.2.0.偏倚”、“encoder.
卷积
s.2.1偏倚”“、"postnet.convolut
浏览 4
修改于2022-06-27
得票数 1
1
回答
与CUDA的循环
卷积
在FFT2D的论文中 我在某个地方读到“循环
卷积
”和经典的“
卷积
”是一样的,这是对的吗?否则我该怎么解释呢?
浏览 1
提问于2012-07-03
得票数 1
回答已采纳
2
回答
MATLAB中的部分
卷积
我想把小矩阵和大矩阵进行
卷积
。例如,蓝色区域是我希望用于
卷积
的部分。换句话说,我可以对所有图像使用
卷积
,但由于CPU时间增加了,因此,我想只关注所需的蓝色部分。
浏览 0
提问于2013-01-29
得票数 3
回答已采纳
1
回答
如何实现tensorflow中的稀疏
卷积
?
在深
卷积
网络中,经过训练得到稀疏
卷积
核。我想知道如何保存
卷积
核,使tensorflow知道内核是稀疏的? 我看过一些报纸。本文提出了稀疏
卷积
比传统
卷积
更有效的计算方法。但是,tf.nn.conv2d并不表示它将比密集
卷积
核更快地用稀疏
卷积
核进行计算。如何从稀疏的内核中获得优势?
浏览 4
提问于2017-05-25
得票数 2
回答已采纳
1
回答
在Tensorflow/Keras中执行
卷积
2D +平均池化
已知
卷积
具有结合性质:(A*B)*C=A*(B*C),其中(*)表示
卷积
算子。在keras中,执行2D
卷积
+ 2D平均池(使用strides=(2,2))比仅使用strides=(1,1)执行一次
卷积
开销更低。我认为这是可能的,应用结合属性,首先做内核B和C的
卷积
,但我试图通过A*(B*C)而不是(A*B)*C来实现相同的结果,其中A是图像输入,B和C是内核,但结果与keras不同。确实有可能首先
卷积
内核,K=B*C,最后将输入
卷积
成K: A*K?
浏览 0
提问于2020-06-19
得票数 0
1
回答
卷积
神经网络是一个连续函数?
问题是:
卷积
神经网络结构是一个连续的函数吗?所谓
卷积
,我指的是只由
卷积
层构成的。凭直觉,我会说是的,因为据我所知,
卷积
的运算是连续的,但我有遗漏什么吗?另外,有没有人知道转置
卷积
也是这样?
浏览 4
提问于2021-11-15
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券