腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
AI
大
模型
时代
,如何低成本开启一人公司?
AIGC
、
创业
、
模型
大
模型
时代
机会风起云涌,很多内行外行一股脑涌进这个赛道。 基础设施买了一
大
堆,踌躇满志开启一人公司,最后发现竟是瞎忙活。请问沈欣老师,有什么专属于 AI
大
模型
赛道的,快速验证 idea 可行性并且验证 idea 有较高 ROI 的方法?或者说有什么坑点需要注意的。
浏览 326
提问于2025-08-31
2
回答
为什么每一步的时间随着
时代
的增加而不断减少?
在训练深度学习
模型
时,随着
时代
数的增加,完成一个步骤所需的时间不断减少。在数据相同的情况下,是什么导致了效率的提高? 为什么在第一个
时代
,它比其他
时代
要
大
?这是我的训练
模型
截图: ? 您可以看到时间/步长递减为3s/步长、810ms/步长、722ms/步长等等。
浏览 11
提问于2019-10-04
得票数 1
5
回答
AI
大
模式
时代
的架构师怎么发展?
架构设计
、
架构模式
、
架构师
、
模型
AI
大
模型
正在颠覆传统架构设计思路和路径,在这种“大卷特卷”环境下,架构师如何顺应
时代
持续蝶变和成长?可以着重从哪方面培养自己的视野和技能?
浏览 341
提问于2024-12-21
3
回答
在Keras序列
模型
中使用的历元数
我正在构建一个Keras序列
模型
来进行二值图像分类。现在,当我使用大约70到80个历元时,我开始获得很好的验证精度(81%)。但我被告知,这是一个非常
大
的数字将用于划
时代
,这将影响网络的性能。我的问题是:是否有数量有限的
时代
,我不应该超过,请注意,我有2000张培训图像和800张验证图像。
浏览 4
修改于2019-06-27
得票数 2
1
回答
在每一个N个训练阶段之后,keras运行验证
我使用以下函数来训练/验证我的
模型
: train_generator, validation_steps=nb_validation_samples // batch_size,上面的函数每一个
时代
都会运行验证我的验证数据相当
大
,所以我希望每N个
时代<
浏览 2
提问于2018-04-24
得票数 4
回答已采纳
1
回答
使用恢复(保存)
模型
的tensorflow在某些时期后会变慢
我想在每个
时代
结束时从这个中保存我的
模型
保留:saver.savetf.train.import_meta_graph(meta_path)并继续用评估数据评估我的
模型
但在7-8年代之后,我的评估过程变得非常缓慢,我认为我正在节
浏览 9
修改于2017-12-06
得票数 0
回答已采纳
1
回答
深度学习:在较小一部分数据上开始培训是否有意义?
我用一小部分数据训练了一个深度神经网络,使我能够在短时间内经历多个
时代
,使
模型
能够合理地运行,然后给出整个数据集(10倍以上的数据),并进一步改进。当我只给出整个数据集时,
模型
似乎表现得很糟糕,但由于训练所需的额外时间,很难达到许多
时代
。 我的问题是:用较小的数据子集“热身”训练一个
大
的深层神经网络是有意义的,还是应该总是提供完整的数据?当我给出完整的数据集时,
模型
总是预测0,但当我过度适应较小的训练集时,它至少不会总是预测0。我在步骤5中注意到了本指南,它提出了一些类似于我所做的事情,
浏览 0
修改于2018-08-17
得票数 4
2
回答
喀拉斯地区单个时期的地块损失演化
Keras是否有一个内置的方法来输出(以及后来的绘图)在单个
时代
的训练过程中的损失演变?我正在使用TensorFlow后端。
浏览 0
修改于2019-01-05
得票数 8
回答已采纳
1
回答
如何处理Keras中的
大
图像?
我的目标是训练输入为(4214, 22311)矩阵,输出为(22311,)向量的
模型
。我没有完成一个
时代
就接受了killed。所以我想知道什么样的结构能处理这么
大
的输入。
浏览 3
提问于2017-09-21
得票数 0
回答已采纳
1
回答
Tensorflow / Keras -使用ModelCheckpoint: save_best_only和EarlyStopping: restore_best_weights
ModelCheckpointrestore_best_weights:是否以监测量的最佳值从
时代
恢复
模型
权重。如果是假的,则使用训练的最后一步得到的
模型
权重。无论相对于基线的性能如何,都将
浏览 0
提问于2023-02-02
得票数 0
回答已采纳
1
回答
Gensim Doc2Vec --为什么infer_vector()使用alpha?
为了测试gensim的Doc2Vec
模型
,我下载了sklearn的新闻组数据集,并对
模型
进行了培训。1训练
时代
2训练
时代
3训练
时代
4训练
时代
5训练
时代
6训练
时代
7”的一致向量,但是
模型
在每个
时代
给出了相同的向量,因此它似乎没有学到任何东西: 0.04
浏览 0
修改于2020-06-20
得票数 1
1
回答
时代
与
模型
的收敛有什么关系?
我在互联网上读到,
时代
是用来让
模型
收敛的时间,但我不知道是怎么回事?我认为使用
时代
是因为要对
模型
进行充分的训练。
模型
收敛与
时代
有何关系?还告诉我为什么年代是有用的?
浏览 0
提问于2021-05-16
得票数 1
回答已采纳
1
回答
面具-RCNN控制面具召回的哪些参数?
我对微调蒙克-RCNN
模型
感兴趣,例如我正在使用的分割。目前,我已经训练了6个
时代
的
模型
和各种面具-RCNN损失如下:我之所以停下来,是因为COCO评估指标似乎在上一个
时代
有所下降:我知道这是一个很有意义的问题,但是我想获得一些关于如何理解哪些参数对改进评估指标最有影响的直觉应该考虑使用更多的培训数据或添加增强(我目前没有使用),我的数据集是当前相当
大
的40K图像?应该查看特定的MaskRCNN参数吗?该
模型
运行良好,但并不完全捕捉到我想要的全部扩展。我还遗漏了具
浏览 4
提问于2021-01-13
得票数 0
回答已采纳
2
回答
什么时候才能判断我们的CNN
模型
是否过分合适?
我有一个
模型
,我训练了100个
时代
:我的问题是,我的模特是不是太合适了?是最优的吗?
浏览 2
提问于2021-01-26
得票数 0
回答已采纳
1
回答
为什么损失减少,但准确性也下降(毕火炬,LSTM)?
我已经建立了一个LSTM -线性模块的
模型
,用于一个分类问题(10个类)。我正在训练
模型
,并为每一个
时代
输出损失和准确性中的训练集。产出情况如下:行政协调会: 0.11388888888888889损失: 2.2759320735931396
时代
:2开始!损失: 2.2510263919830322
时代
:3开始!损
浏览 2
提问于2020-01-01
得票数 0
3
回答
如何禁用PyTorch-闪电记录器的日志记录?
PyTorch中的记录器-闪电打印关于要训练(或评估)的
模型
的信息,以及训练过程中的进度,如何禁用日志记录?
浏览 7
提问于2021-08-16
得票数 1
回答已采纳
1
回答
-A和-B:我应该使用哪个时区?
我需要在特定的时间范围内从一个
大
的pcap中提取数据包。我发现-A和-B的编辑选项非常适合这个任务,但我的目标时间范围是划
时代
的,而-A/B则需要YYYY DD:MM:SS格式的时间。我的问题是,当我将
时代
时间转换为YYYY DD:MM:SS时,我应该使用哪个时区?(我不确定这是否相关,但我使用的
大
pcaps是从不同时区捕获的较小的pcaps的合并)。我尝试了基于
时代
时间(frame.time_epoch>=X)的过滤,但tshark似乎资源昂贵,并且经常被我使用的ubuntu服务器杀死。
浏览 4
提问于2019-10-05
得票数 0
回答已采纳
1
回答
如何从对象触发函数
下面是一些实
时代
码:$scope.navigation = {和一个可以切换ui的
大
对象 $scope.toggle =
浏览 1
修改于2014-07-26
得票数 0
回答已采纳
1
回答
Django Queryset建筑
假设我的
模型
如下所示,我将如何编写一个查询来过滤有关
模型
的派生数据?在这个例子中,我想要拉出“
时代
新罗马的所有页面,它们都是书的一部分,只有整整十页,所有的页面都不是漫画版的。”理想情况下,这些
模型
可能会变得相当
大
,我希望快速查找这些导出的数量,所以我认为去正规化可能是我最好的选择。
浏览 1
修改于2013-11-07
得票数 0
回答已采纳
1
回答
如果我在我的数据集上训练一个自定义标记器,我仍然能够利用预先训练过的
模型
权重。
我有一个相当
大
的数据集(23)。我想预先训练罗伯塔基地或XLM基地,所以我的语言
模型
将更适合用于进一步的下游任务。这事儿可以理解?
浏览 10
提问于2022-10-10
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券