腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
0
回答
大
模型
推理
目前有没有比较成熟的国产化平台?
模型
、
腾讯云架构师技术同盟
目前调研了一些,lmdeploy,xinference,大家有没有好的建议?
浏览 91
提问于2024-12-28
0
回答
大
语言
模型
训练与
推理
算力如何成本估算?
并发
、
模型
大
语言
模型
算力成本估算,影响因素有哪些?
推理
并发量、
模型
参数、输入和输出内容长度、
推理
响应时间。如何具体估算算力成本?
浏览 414
提问于2023-07-21
1
回答
在web应用程序中为特定于用户的大型
模型
服务的最佳实践?
集成大型机器学习/深度学习
模型
微调的web应用程序如何处理这些
模型
的存储和检索以进行
推理
?我正在考虑的当前方法是以压缩格式将精调
模型
存储在S3或R2桶中。每次用户访问web应用程序并请求<em
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
4
回答
TF对象检测:
推理
有效载荷的返回子集
问题详细信息 我正在使用T
浏览 3
提问于2020-10-04
得票数 2
回答已采纳
1
回答
切换Jena
推理
机
我有一个Jena本体
模型
(),我正在对其进行编程修改。此
模型
最初是使用创建的。问题是,随着程序的运行和
模型
的改变,默认的Jena Reasoner将会运行(并且运行,运行,再运行)。我更改了程序,使用创建了一个没有
推理
机的
模型
。它运行得非常快,没有表现出我之前看到的任何内存问题(即使是非常
大
的数据集)。当使用
推理
器(甚至是微型
推理
器)时,"grow“方法运行太慢,内存不足。如果我关闭了
推理
机,那么我就不能使用"pl
浏览 1
修改于2009-03-17
得票数 5
回答已采纳
1
回答
知识蒸馏是否具有整体效应?
有一个
模型
显示了99%的性能(10class图像分类)。但我不能使用更大的
模型
,因为我必须保持
推理
时间。 如果我使用另一个
大
模型
训练知识蒸馏,是否会产生整体效应?
浏览 17
提问于2021-07-14
得票数 0
回答已采纳
1
回答
从目录中流式传输图像并将预测与tensorflow中的文件名相关联
我有一个经过训练的
模型
,我需要在一个
大
的图像目录上运行
推理
。理想情况下,给定一个keras
模型
+图像目录,我希望有一个包含文件名和预测概率的数组。我该如何做到这一点?
浏览 0
提问于2020-02-22
得票数 1
1
回答
使用多处理功能有效地切片和读取图像
我有一张很大的卫星图像,想要在上面运行一个目标检测
模型
推理
。目前,我对
大
图像进行切片,保存瓦片,然后读取它们,以便让我的
模型
输出检测结果(方框和蒙版)。
浏览 24
提问于2019-03-11
得票数 2
回答已采纳
1
回答
基于一个相当
大
的本体的
推理
我有一个相当
大
的本体(大约80 GB)。我认为
推理
机将整个本体带入内存进行
推理
过程,不是吗?有没有办法对一个80 GB的本体和16 GB的RAM进行
推理
?
浏览 17
提问于2021-03-25
得票数 0
回答已采纳
1
回答
什么是
模型
的尺寸缩放,我如何在全球范围内应用于每个
模型
?
例如,有微型- YOLO,YOLO(基地),..有些
模型
,如SVTR,人们确实把它放大到很小,很小,很大的版本,等等。微型AA(默认,基本版本)超大型A 我知道应用这个方法并不总是很好,但有时我需要
推理
速度,有时我需要精确性。
浏览 0
提问于2022-09-12
得票数 0
2
回答
语义
推理
器的可靠性是什么意思?
许多关于语义
推理
器的文章,都将稳健性作为
推理
器或
推理
算法的特征。然而,从维基百科()对soundness的定义中,我了解到soundness是我的
模型
的一个属性,独立于我应用于它的
推理
算法。以
模型
为例:Penguins have wings. 导致以下有效(可证明?)因此,当我把这个
模型
给一个例如基于Tableaux的算法,或者KAON2
推理
器,这两个都是合理的,他们仍然会给我这个
浏览 0
修改于2012-12-27
得票数 2
回答已采纳
1
回答
如何在保存为.pth文件的AI
模型
上获得层执行时间?
我试图在CPU上运行一个类似Resnet的图像分类
模型
,并想知道运行
模型
的每一层所需的时间。将在下面的脚本中运行
模型
,给出在CPU上运行
模型
浏览 3
提问于2021-04-01
得票数 0
回答已采纳
1
回答
将数据从S3存储桶下载到SageMaker
推理
容器
我将一个
模型
部署到SageMaker端点以进行
推理
。我的输入数据非常
大
,我想把它的Docker发送到端点,这样我就可以把它下载到部署的S3容器上。
浏览 30
修改于2021-01-20
得票数 0
回答已采纳
3
回答
目前最快的Mask R-CNN实现是什么
我在边缘设备(带有NVIDIA GTX 1080)上运行Mask R-CNN
模型
。我目前正在使用Detectron2 Mask R-CNN实现,我相信
推理
速度大约为5FPS。为了加快速度,我研究了其他
推理
引擎和
模型
实现。例如ONNX,但我无法获得更快的
推理
速度。 TensorRT在我看来非常有前途,但我还没有找到一个现成的“开箱即用”的实现。有没有其他成熟和快速的
推理
引擎或其他技术来加速
推理
?
浏览 73
提问于2019-12-18
得票数 7
1
回答
yolov4对象检测
模型
的
推理
时间
我正在raspberry pi4B和jetson上运行yolov4对象检测
模型
。我得记录下
推理
时间。我使用12张图片进行评估。如何记录该
模型
的
推理
时间?有什么可以计算
推理
时间的吗?
浏览 1
提问于2022-07-26
得票数 0
1
回答
启动时在FastAPI项目中加载
模型
要做到这一点,我想提供不同的
模型
,从空间以及拥抱脸。 由于这些
模型
是相当
大
的,为每个post请求加载
模型
的
推理
时间相当长,。我的想法是在FastAPI启动时(在app/main.py中)加载所有
模型
,但是,我不确定这是否是一个好的选择/想法,或者这种方法是否存在一些缺陷,因为
模型
将在缓存(?)中。
浏览 6
修改于2021-01-08
得票数 7
回答已采纳
0
回答
在智能手机上,ncnn是否支持npu加速?
android
、
深度学习
、
腾讯云测试服务
、
人工智能
想在安卓手机上测试检测
模型
的
推理
耗时,目前用的是vulkan加速。想问一下ncnn能否调用npu加速
模型
推理
浏览 501
提问于2022-06-15
1
回答
在推断时启用dropout和禁用BatchNormalization
我想使用Tensorflow 2.5在训练和
推理
时启用dropout。为此,我在
模型
中设置了dropout层,参数training = True。, training = False) 我故意将BatchNormalization = False放在
模型
预测函数(
模型
调用函数)中,因为我也在使用training层,并且我不希望在
推理
过程中启用它们但是,我不知道在
模型
预测函数中放入training = False是否会将dropout层另外设置为training = False (覆盖它)
浏览 119
提问于2021-08-24
得票数 0
1
回答
星火MLLib
模型
的轻量级执行
我有一些训练数据,我用它来建立一个星火MLLib
模型
,它在一个蜂巢数据库中。我使用的是简单的线性回归
模型
和PySpark API。但是,当我使用我的
模型
进行
推理
时,我想从现有的Java代码库中进行
推理
。我需要对单个数据点进行快速
推理
,而不是批量
推理
。
浏览 0
修改于2021-05-25
得票数 4
1
回答
是否有可能获得中间层的输出?
如果一个
大
模型
由端到端的单个
模型
组成,那么我(训练后的)能否只保留一个
模型
,并在
推理
过程中冻结/丢弃其他
模型
?一个例子:这个struct2depth (见下文)以一种无监督的方式进行了三种
模型
的培训。然而,我真正需要的是物体的运动,即3D Object Motion Estimation部分。
浏览 3
提问于2021-01-22
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券