腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
ScaNN索引内存
瓶颈
的Tensorflow推荐
大
模型
我有一个相对较大的TF检索
模型
,使用TFRS库。它使用层作为。当我试图通过方法保存这个
模型
时,我遇到了系统主机内存问题。我在云中的VM上运行带有TFRS的官方TF 2.9.1 Docker容器。我有28 GB的内存试图保存
模型
。tf.keras.layers.Embedding(len(unique_user_ids) + 1, embedding_dimension)然后创建
模型
class MovielensModeloptions=tf.saved_model.SaveOptions(namespace_wh
浏览 18
提问于2022-08-03
得票数 3
1
回答
用于大数据集(Keras)传输学习的存储和加载
瓶颈
特性
为了解决分类问题,我想在一个相当
大
的图像数据集上应用迁移学习。目前,我加载一个培训前没有顶层的网络,添加我自己的顶层,冻结基本
模型
,并开始培训。,他们首先对每个输入图像运行基本
模型
,并存储基本
模型
的输出,这是
瓶颈
特性。然后对这些
瓶颈
特性进行培训。这意味着,在训练期间,基本网络不需要执行,节省了大量的计算时间。不幸的是,在我的情况下,这是不可能的,因为原来的图像集太大了,不能放入内存,而且还转换成
瓶颈
特性集,它仍然太大。因此,我正在寻找一种解决方案,将单个图像的
瓶
浏览 0
提问于2021-04-30
得票数 0
回答已采纳
2
回答
丹索尔·弗洛。如何在GPU之间分配操作系统
我正在运行一个非常
大
的Tensorflow
模型
的谷歌云ml引擎。当使用缩放层basic_gpu (使用batch_size=1)时,我会得到以下错误: 如果是这样的话,是否有一种在GPU之间传播操作以防止此问题的推荐方法?
浏览 9
提问于2017-12-15
得票数 2
回答已采纳
1
回答
生成一个MVC
模型
,用于多个视图
我对MVC和ASP.NET的概念相当陌生,我想知道是否有可能为我的
模型
创建一次对象并在不同的视图中使用它。有什么办法解决这个问题吗?下载的JSON字符串可以以某种方式存储在不同的视图中吗?如果ID更改,是否可以仅
浏览 1
提问于2016-03-01
得票数 0
回答已采纳
17
回答
十
大
SQL Server性能
瓶颈
不是由数据库结构引起的最常见的性能
瓶颈
是什么?
浏览 4
修改于2015-05-29
得票数 12
回答已采纳
1
回答
Tensorflow Inception
模型
再培训,为什么不将
瓶颈
提供给支持向量机?
在初始
模型
上进行“转移学习”或“再训练”的常见方法是从
模型
中提取
瓶颈
层,将
瓶颈
张量压缩为一个平坦的2048个神经元层,然后添加一个最后一层,再加上与类别数目相匹配的神经元数(最终是softmax)。我的问题是:将这个
瓶颈
层训练成一个神经元网络,为什么不将这些高度抽象的2048特征提供给支持向量机,这可能会取得更好的效果? 非常感谢!
浏览 2
修改于2018-07-10
得票数 1
回答已采纳
1
回答
在apache中- php文件每次被调用时都是从磁盘读取的吗?
我认为对于大型网站来说,这是一个相当
大
的
瓶颈
?有没有办法将它们存储在内存中?
浏览 5
提问于2014-01-13
得票数 1
2
回答
如何提高CGContextFillRect和CGContextDrawImage性能
这两个函数目前是我的
瓶颈
。我正在使用非常
大
的位图。 我如何才能提高他们的性能?
浏览 0
修改于2011-07-08
得票数 2
回答已采纳
2
回答
Python -如何在多个进程之间共享大型数据集?
我需要将一个
大
的数据集(大约25 it的图像)读入内存,并从多个进程读取它。所有的进程都不需要写,只需要读。所有进程都是使用Python的多处理模块启动的,因此它们具有相同的父进程。他们根据数据训练不同的
模型
,并且彼此独立运行。我之所以只想读一次,而不是每次读一次,是因为机器上的内存是有限的。 我试过使用Redis,但不幸的是,当许多进程从中读取时,它会非常慢。还有别的选择吗?否则,我正在考虑使用werkzeug或烧瓶实现一个小型的new服务器,但我不确定这是否会成为我当时的新
瓶颈
。我想到的另一种可能性是使用线程而不是进程,但由于Pytho
浏览 0
修改于2019-10-22
得票数 2
回答已采纳
1
回答
增加层的大小,同时保持旧的重量冻结
我现在正在尝试实现以下过程:首先,我有一个训练有素的自动编码器,然后我正在考虑增加
瓶颈
层的大小(增加该层中“神经元”的数量)。然后,我想训练增加的
模型
作为一个整体,同时保持与旧层对应的重量冻结。我的想法是,首先,我们训练一个正常的自动编码器,然后我可以建立相同的
模型
,除了
瓶颈
层的大小增加。然后,我把重量加载到这个新
模型
,并保持他们的固定。但我遇到了两个问题: 如何加载只需要新权重向量一部分的权重(由于旧的
瓶颈
大小小于新的
瓶颈
大小)?如何保持部分权重不变?
浏览 2
提问于2020-08-02
得票数 0
回答已采纳
1
回答
如何查找
大
容量插入中的
瓶颈
我如何测试
瓶颈
是什么?
浏览 16
提问于2019-06-18
得票数 0
1
回答
python将列表[0,1,2,3,4,5]转换为[0,1,2,2],[1,2,3],[2,3,4]
但是我发现当一个是
大
的,它花费太多的cpu资源,我如何解决这个
瓶颈
?
浏览 3
修改于2017-12-03
得票数 0
回答已采纳
1
回答
Apache和ETL过程
API从文件或其他源源进行批处理读取&更新它们相应的数据
模型
。 Standardization:我希望(就其意义而言),提出一个统一的强大工具来处理这些类型的(某种
大
的)数据转换工作流。IO
瓶颈
和资源利用(技术):由于某些内存或网络
瓶颈
,这些进程中的一些确实会更频繁地失败,这是由于某些内存或网络
瓶颈
导致的(或需要很长时间才能完成)。Dataflow
模型
,特别
浏览 6
修改于2022-03-24
得票数 1
1
回答
tfrecord和
瓶颈
有什么不同?
我一直在使用inception_v4和inception_resnet_v2等
模型
研究迁移学习。发现一些使用
瓶颈
的项目和一些使用tfrecords来存储训练图像的项目。当使用这两种方法用相同的数据重新训练inception_v4
模型
时,
瓶颈
给出了95%的准确率,而tfrecord只给出了75%。但是,所有的新项目似乎都使用tfrecords作为数据和.ckpt格式来存储
模型
。有人能给我解释一下在哪种情况下有什么区别,哪一个更好吗?
浏览 7
修改于2019-01-29
得票数 0
回答已采纳
2
回答
Gurobi花了很长时间为LP建立
模型
我一直在用gurobi解决一些LP,我注意到对于我遇到的大多数实例,构建
模型
比实际求解要花费更长的时间。也许这是标准的,但对我来说似乎很奇怪。一个特定的实例花费了1.75秒来求解,但是构建
模型
的以下代码部分花费了13.6秒: expr = new GRBLinExpr我知道这相当
大
,但奇怪的是,构建
模型
所需的时间几乎是求解
模型
所需时间的10倍。 我尝试了expr.clear(),而不是为每个约束创建一个新的GRBLinE
浏览 1
修改于2013-08-19
得票数 2
1
回答
在matlab中加速索引子数组?
瓶颈
是第三行,尽管对于
大
尺寸的A1,第四行是相当快的。第三行是否真的复制了存储在A1中的A(b,b)?163 132 133 19]; %random v=A1*A(2,b)'; 请注意,下面的代码同样很慢,所以我将这一行分成两部分,以演示上面的第三行是
瓶颈
浏览 0
修改于2014-09-14
得票数 0
1
回答
微调的正确方法--把一个完全连接的层训练成一个单独的步骤
我在caffenet中使用微调,它工作得很好,但是我在Keras 关于微调的博客中读到了这篇文章(他们使用经过训练的VGG16
模型
): “为了进行微调,所有层都应该从经过适当训练的权重开始:例如,你不应该把一个随机初始化的完全连接的网络放在一个预先训练过的卷积基础上这是因为随机初始化的权值引发的
大
梯度更新会破坏卷积基中的学习权重。在我们的情况下,这就是为什么我们首先训练顶级分类器,然后才开始与它并排微调卷积权。”因此,作为微调的另一步,它们在全连通层(“
瓶颈
特征”)之前保存最后一层的输出,然后对这些特征进行“小的全连通
模型
浏览 0
提问于2017-03-20
得票数 2
1
回答
预测过程中通过云ML引擎访问云存储
基本上,我想使用KNN分类器,它将预先训练的CNN
模型
的
瓶颈
特征作为输入。我想将这个标记图像(
瓶颈
特征)的数据集存储在Google云存储中的一个单独的存储桶中,并在预测期间允许我的
模型
访问此数据集,因为当将此数据集添加到保存的
模型
中时,我保存的
模型
的文件大小会太大(Google
浏览 5
提问于2018-08-02
得票数 0
2
回答
利用预先训练的Inceptionv3提取
瓶颈
特征--Keras实现与本地Tensorflow实现的区别
(对这一长职表示歉意)我希望使用预先训练过的Inceptionv3
模型
中的
瓶颈
特性来预测输入图像的分类。在训练
模型
和预测分类之前,我尝试了3种不同的方法来提取
瓶颈
特征。我的3种方法产生了不同的
瓶颈
特性(不仅在值上,甚至在大小上也不同)。方法1和方法2中
瓶颈
特性的大小:(输入图像的数量)x3x3x2048为什么基于Keras的Inceptionv3
模型
和本地Tensorflow
模型
浏览 4
修改于2018-03-13
得票数 8
回答已采纳
1
回答
使用model.predict输出作为另一个
模型
的输入
我正在尝试使用model.predict的输出作为另一个
模型
的输入。这实际上是为了调试目的,这也是为什么我不使用get_layer.output或使用统一这两个
模型
的全局
模型
的原因。下面是我当前的代码:def test_model_predictions(params): batch_size = params['batch_size我特别使用predict,因为在将model.predict值(
瓶颈
值)保存到hdf5文件,然后将这些值加载到另
浏览 0
修改于2018-06-15
得票数 2
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券