腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
深度
相机
ios swift
我有iphone 7+,我试着用
深度
数据拍摄图像。我使用这段代码进行配置。
浏览 15
提问于2021-12-06
得票数 0
7
回答
运动
深度
相机
的精度
深度
相机
在kinect中有多精确? TechBlogs的调查?
浏览 2
提问于2011-10-08
得票数 40
回答已采纳
1
回答
数据ROS的
深度
相机
解译
我使用ROS和
深度
相机
,每个像素的数据是4个字节。例:0,192,127 我试图把距离提取到一个点,但我不知道这4个数字代表什么。
浏览 4
提问于2022-07-25
得票数 0
回答已采纳
2
回答
Kinect颜色点到
深度
/
相机
点
我正在开发一个煤渣和kinect v2应用程序,目前我被困在将颜色点映射到
深度
点上。我在颜色框中搜索特定颜色的特定点,所以我得到了颜色框point x和y。我想从这里得到
深度
,但当然
深度
帧是不同的分辨率和视点,所以你不能只是索引它。 我找不到任何从颜色点到
深度
点甚至
相机
点的映射器。除了自己测量之外,有没有一种简单的方法可以做到这一点?
浏览 4
修改于2017-05-23
得票数 1
1
回答
如何从
深度
相机
获取
深度
图值?
我对
深度
相机
和openCV非常陌生。我想要访问每个像素的
深度
值,因此,我对给定的consoledemo程序进行了一些修改以测试代码。代码如下所示。
浏览 0
提问于2013-08-09
得票数 1
1
回答
增强现实眼镜+
深度
相机
->立体视觉
在我们目前的项目中,我们使用安装在用户头部上方的
深度
摄像机来识别手指、手和触摸事件。这是相当好的工作,并已经可以作为一种新型的输入设备。为了得到变换矩阵,我们连续地在输出图像上显示一个随机点,用户必须将他的指尖放在那个位置上。由此我们得到了输入图像(
深度
摄像机)和输出图像(增强现实眼镜)之间的点对应关系。我们目前使用其中的20个对应,然后使用Emgu的FindHomography
浏览 3
提问于2014-03-10
得票数 0
回答已采纳
1
回答
如何使用Kinect /RGB-
深度
相机
进行动物检测?
目前,我正试图开发一个程序,它可以从我一直在做的研究中得出结论,我发现解决这个问题的最好方法是使用RGB
深度
相机
,比如Kinect。挑战性:MS Kinect不支持骨架跟踪,因此我需要构建一个自定义的骨架跟踪我发现的:使用机器学习算法 问题:机器学习是检测的唯一选择吗?我需要
深度
信息来检测吗?
浏览 0
修改于2014-10-28
得票数 1
回答已采纳
3
回答
使用Kinects
深度
相机
在黑暗中观看
我正在尝试用MS kinect SDK读取来自Kinect传感器的
深度
相机
数据,并创建一张
深度
图,这样你就可以在黑暗中辨别出特征,一种夜视反馈。
浏览 0
修改于2012-05-25
得票数 2
1
回答
iOS13以编程方式访问真实
深度
相机
数据和点云?
我对用于iOS FaceID解锁的真正
深度
相机
的研究应用很感兴趣。可以通过编程方式从真正的
深度
相机
访问点云数据吗?
浏览 1
提问于2020-07-31
得票数 1
1
回答
在Kinect
深度
相机
中隔离播放器
我正试着通过Kinect
深度
摄像头隔离一个玩家。我正在打开一个NUI_IMAGE_TYPE_DEPTH_AND_PLAYER_INDEX流来处理播放器/
深度
信息。
浏览 2
提问于2013-03-03
得票数 1
1
回答
如何知道真正意义上的
深度
相机
的方位角?
如何知道真正意义上的
深度
相机
的方位角?也就是说,它是水平的还是垂直的?请帮助我。
浏览 7
提问于2018-12-05
得票数 0
1
回答
探戈:为什么点云投影的内部数据来自RGB
相机
,而不是
深度
相机
?
被接受的答案虽然使用了RGB
相机
的固有数据,但我不理解。既然点云是用
深度
相机
构建的,为什么不使用
深度
相机
的固有数据来投影到图像平面呢?
浏览 13
修改于2017-01-20
得票数 2
回答已采纳
0
回答
如何用
深度
相机
制作点云数据集?
深度学习
、
点云建模
、
对象
、
技巧
、
计算机视觉
请问如何用一个
深度
摄像头来制作点云数据集?目前我可以实现由
深度
图到3D点云的转换,但转换出来的结果总是不尽人意,要么就是环境噪声太复杂不好去除,要么就是拍摄的对象根本无法被捕捉到
深度
图中。
浏览 158
提问于2024-02-17
1
回答
Kinect v2的
深度
相机
内部特性
我正在尝试使用C#获取kinect v2的摄像头内置功能。我是Visual Studio、C#和Kinect v2的新手,缺乏详细的官方教程让我抓狂……(如果有,请告诉我。)
浏览 0
提问于2018-10-11
得票数 0
2
回答
将Kinect RGB或
深度
相机
流式传输到互联网
我想流从kinect RGB或
深度
相机
出来的馈送到我的网站。我想知道这是否可能?另外,有人能建议我如何开始做这件事吗?或者有没有这样的例子?
浏览 1
提问于2011-12-12
得票数 4
1
回答
Azure Kinect身体跟踪是否可以接受来自不同
深度
相机
的
深度
数据?
我目前正在尝试创建一个新的Azure Kinect捕获对象,并用K2创建的颜色、
深度
和红外帧的数据填充它。我已经设置了一个场景,其中的
深度
数据是可视化的,以确保它不会被扭曲或模糊,并且看起来很好。 在我继续尝试让它工作之前,我想看看我是否遗漏了什么,或者我正在做的事情是否可能。ProcessingMode = TrackerProcessingMode.Gpu, }); 身体跟踪过程的
深度
浏览 24
提问于2020-11-24
得票数 0
1
回答
计算与Intel Realsense R200
深度
相机
的距离
我一直试图用R200摄像机的值来计算物体的距离。我安装了PyRealsense和librealsense(旧式)。PyRealsense的例子没有任何问题。import pyrealsense as pyrsdepth_stream = pyrs.stream.DepthStream() with serv.Dev
浏览 1
修改于2018-06-23
得票数 0
回答已采纳
1
回答
如何从
深度
相机
获取世界坐标系中的
深度
坐标
深度
摄像头:英特尔realsense D415语言: python 我正在尝试得到世界坐标系中一个
深度
点的z坐标。我想知道是否有嵌入式方法,或者是否有方法可以获得它? 提前谢谢你!
浏览 73
提问于2020-07-18
得票数 0
1
回答
深度
测量用立体
相机
一直在读这篇文章: 我理解错了吗?或者其他人知道如何使用一对
相机
来测量物体与
相机
对的距离? 开尔文
浏览 0
提问于2014-02-28
得票数 0
回答已采纳
2
回答
我可以要求用户有一个真正的
深度
相机
下载我的应用程序从应用商店?
我可以要求用户有一个真正的
深度
相机
(现在只iPhone X)从应用商店下载我的应用程序?
浏览 8
提问于2017-11-02
得票数 12
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券