首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏联远智维

    AI+实时仿真——三维力场感知

    通过摄像头抓取结构的三维应力场,现寻求有相关诉求的合作方。 从想到这个idea开始,我们购买了手抛小飞机,进行了三维建模和对应的CAE仿真,后续通过模型降解实现边缘侧的部署,最终实现了通过摄像头获取小飞机的三维受力特征。

    23310编辑于 2025-09-04
  • 来自专栏一点人工一点智能

    NeurIPS 2022 | GeoD:用几何感知鉴别器改进三维感知图像合成

    01 介绍 三维感知图像合成因其在三维世界建模中的潜力而受到越来越多的关注。与主要关注图像质量和多样性的2D相比[1,13–16,28],3D感知生成也有望获取合成图像背后的精确的3D形状。 02 相关工作 2.1 三维感知图像合成 近年来,三维感知图像合成受到了广泛的关注。与2DGANs的主要区别在于在生成器中使用了3D表示。 由于NeRF在三维重建和新视图合成方面的强大性能,最近在3D感知图像合成方面的尝试提出引入生成神经辐射场(G-NeRF) [29], ,用于生成器。 3.2 几何感知辨别 回想一下,我们在鉴别器中引入了一个几何分支,为发生器提供三维监控信号。在这一部分,我们会介绍如何结合几何分支来构建一个几何感知鉴别器,以改进三维感知图像合成。 由于我们的几何感知鉴别器,GeoD中的生成器能够学习更精确的三维形状,因此反转它可以实现更好的形状重建。

    88840编辑于 2022-12-27
  • 来自专栏OpenMMLab

    具身智能中的多模态三维感知思考

    本期精彩 从驾驶场景到室内场景,具身三维感知系统面对的是更复杂的室内语义,更多样的物体类别和朝向,以及大不相同的感知空间和需求。 重新思考其中差异和数据基础,EmbodiedScan 团队构造了一套基于第一视角的多模态全场景三维感知系统/工具包,从数据标注到模型训练,从基准构建到任务评测,以大规模真实场景扫描和面向下游的全面标注为基础 本期社区开放麦,我们特别邀请到上海人工智能实验室青年研究员王泰带来《具身智能中的多模态三维感知思考》的分享,该研究近期被 CVPR 2024 接收,更多精彩内容请锁定本周四晚 20:00 的社区开放麦直播 分享内容 •从驾驶场景到室内场景:新的问题与挑战 •EmbodiedScan:首个多模态、基于第一视角的真实场景三维感知数据集 •Embodied Perceptron:适配任意帧输入的统一基线框架 • 图 2:EmbodiedScan 提供了一个多模态、基于第一视角的三维感知数据集,其中包含大量的真实扫描数据和全面且丰富的标注,从而构建了一个针对真实世界机器人基于语言的三维场景整体理解方面的评测基准。

    1.3K11编辑于 2024-03-07
  • 来自专栏媒矿工厂

    VoxGRAF:基于稀疏体素的快速三维感知图像合成

    然而,将 GAN 扩展到三维则相对困难,因为用于监督的三维真实模型难以获得。近期,3D-aware GAN 解决了人工制作的三维模型以及缺乏三维约束的用于图像合成的 2D GAN 之间的不匹配问题。 GRAF 采用了 NeRF 中基于坐标的场景表示方法,提出了一种使用基于坐标的 MLP 和体渲染的 3D-aware GAN,将基于 3D 感知的图像合成推进到更高的图像分辨率,同时基于物理真实且无参数的渲染 ,保持了场景的三维一致性。 然而在三维场景进行密集采样会产生巨大的消耗,同时三维的内容经常与观察视角纠缠在一起,而进行下游应用时,场景的三维表征往往需要集成到物理引擎中,因此难以直接获得场景三维内容的高分辨率表征。 在具体的实现方面,为了得到的结果是三维体素而不是二维像素,作者将 StyleGAN2 生成器中的二维操作扩展为等价的三维操作。

    1.5K30编辑于 2022-11-07
  • 来自专栏未来先知

    伦敦大学提出 SAMa: 材料感知三维选择和分割 !

    材料选择在最近的生成三维资产创建和图像/文本到三维的工作流中变得尤为重要。 在本研究中,作者弥合了二维和三维材料选择之间的差距,并提出了一种高效且准确的三维物体材料选择与分割方法。 利用这一特性,作者提出了一种无需任何预处理的、轻量级的、三维表示无关的二维到三维提升方法。 因此,作者选择将来自多个视角的相似度图融合成一个轻量级的三维相似度点云。从这个点云中,作者可以轻松地以交互速率重建并显示连续的三维选择。 材料感知的3D高斯分布。对于3D高斯分布,作者使用了第5.1节中描述的材料分割步骤。

    54410编辑于 2025-02-19
  • 来自专栏AI科技评论

    活动 | 机器感知三维点云如何与深度学习擦出火花?

    机器人需要在这个过程中学会如何主动感知和控制,深度学习的流行也为探索这一问题提供了一种值得借鉴和学习的方法。 ? AI 科技评论按:ICRA 2018 正于近期在澳大利亚布里斯班举行。 AI 科技评论从议程进行不完全统计,机器感知与控制仍然是 ICRA 2018 的关注重点。 等问题,这就涉及到非常多的问题,比如三维重建,视觉测距、对象分类、人类/物体的姿态估计、语义分割、匹配,识别和本地化等。也就是说,机器人需要在这个过程中学会如何主动感知和控制。 在三维点云及即时检测、多任务检测上,深度学习对机器人的研究也有着不少先进成果。 不论是机器感知,或是以三维点云为代表的技术,在利用深度学习探索的过程中,必然还是会遇到同样的问题。

    94210发布于 2018-07-26
  • StereoLabs:重新定义三维感知的计算机视觉先锋

    引言在当今快速发展的计算机视觉和机器人技术领域,三维空间感知已成为自动驾驶、AR/VR、智能监控等应用的核心技术需求。 StereoLabs作为一家专注于立体视觉解决方案的创新公司,凭借其先进的ZED系列深度相机和强大的SDK,正在为行业带来革命性的三维感知能力。 云端服务扩展除了本地SDK,StereoLabs正在发展云端三维视觉服务,为移动设备和低算力终端提供远程三维感知能力。 总结StereoLabs通过创新的立体视觉技术,为计算机视觉领域提供了强大而灵活的三维感知解决方案。 关键词:StereoLabs,立体视觉,深度相机,ZEDSDK,计算机视觉,三维感知,深度估计,SLAM,机器人视觉,视觉感知

    20310编辑于 2026-01-09
  • 来自专栏未来先知

    VideoScene:以三维感知跳跃流蒸馏策略破局,高效弥合从Sparse视图到三维场景的差距!

    具体而言,作者设计了一种三维感知跳跃流蒸馏策略,以跳过耗时冗余信息,并训练一个动态去噪策略网络,以在推理过程中自适应地确定最佳跳跃时间步长。 这个初始的3D感知视频建立了一个强大的先验知识,指导后续的扩散步骤,使作者能够跳过不确定阶段,专注于一致性蒸馏中的确定性目标场景[75]。 为解决这些局限性,作者提出了VideoScene框架,该框架使用三维感知跳跃流蒸馏来整合三维先验知识,实现一致的三维视频生成,同时通过单步扩散去噪加速快速高质量生成。 3. 方法 3.1. 基于三维感知的LeapFlow蒸馏 在一致性蒸馏训练[55]中,传统的噪声调度器从数据分布中采样初始真实值,并应用噪声通过正向扩散在随机时间步生成,具体方法如下: 高斯噪声 , 和 定义了随机插值 综上所述,作者的3D感知跳跃流蒸馏通过避免依赖真实信号并绕过在附近低效的早期去噪步骤,从而减少了训练与推理之间的差异。

    37800编辑于 2025-05-27
  • 来自专栏DrugOne

    . | 引导等变扩散驱动的靶标感知三维分子生成

    现有的分子生成模型在结构基础的药物设计中常常忽视结构合理性和药物样性质,因而生成不真实的三维分子。 近年来,几何深度学习推动了基于蛋白口袋的三维分子生成方法的发展,但已有模型往往存在结构扭曲、缺乏药物样性质等问题。 结果 DiffGui 框架概述 DiffGui 是一种非自回归的目标感知分子生成模型,基于等变扩散框架构建。 讨论 生成能够在蛋白口袋中稳定结合的三维分子是药物设计中的重大挑战。

    29810编辑于 2025-09-02
  • 来自专栏点云PCL

    当视觉遇到毫米波雷达:自动驾驶的三维目标感知基准

    公众号致力于点云处理,SLAM,三维视觉,高精地图等领域相关内容的干货分享。侵权或转载联系微信cloudpoint9527。 摘要 传感器融合对于自动驾驶车辆上的准确和鲁棒的感知系统至关重要。 从摄像机获取丰富的语义信息,以及从雷达获取可靠的三维信息,潜在地可以实现对于3D目标感知任务的高效、廉价和便携的解决方案。 它包含不同的光照条件,对于基于视觉的对象感知方法具有挑战性,因此为基于传感器融合的对象感知算法提供了一个很好的基准。 用于三维点云语义分割的标注工具和城市数据集 ROS2入门之基本介绍 固态激光雷达和相机系统的自动标定 激光雷达+GPS+IMU+轮速计的传感器融合定位方案 基于稀疏语义视觉特征的道路场景的建图与定位 自动驾驶中基于激光雷达的车辆道路和人行道实时检测(代码开源) 用于三维点云语义分割的标注工具和城市数据集 更多文章可查看:点云学习历史文章大汇总 SLAM及AR相关分享 TOF相机原理介绍 TOF

    1.2K11编辑于 2023-12-12
  • 来自专栏机器视觉工坊

    感知

    环境感知了确保无人车对环境的理解和把握,无人驾驶系统的环境感知部分通常需要获取周围环境的大量信息,具体来说包括:障碍物的位置,速度以及可能的行为,可行驶的区域,交通规则等等。 无人车通常是通过融合激光雷达(Lidar),相机(Camera),毫米波雷达(Millimeter Wave Radar)等多种传感器的数据来获取这些信息,本节我们简要地了解一下激光雷达和相机在无人车感知中的应用 Support Vector Machine,SVM)对聚类的特征进行分类,最近几年由于深度学习的发展,业界开始使用特别设计的卷积神经网络(Convolutional Neural Network,CNN)对三维的点云聚类进行分类 对于反射点稀疏的目标(比如说行人),基于点云的分类并不可靠,所以在实践中,我们往往融合激光雷达和相机传感器,利用相机的高分辨率来对目标进行分类,利用Lidar的可靠性对障碍物检测和测距,融合两者的优点完成环境感知

    64120发布于 2020-07-28
  • 来自专栏机器之心

    CVPR 25 |全面提升视觉感知鲁棒性,生成模型快速赋能三维检测

    其中,基于纯视觉的自动驾驶方案只需使用多视角图像进行环境感知与分析,具有成本低、效率高的优势,因而备受关注。然而在实际应用中,视觉感知模型的泛化能力至关重要。 自动驾驶中视觉感知模型的鲁棒性至关重要 不难看出,视觉感知模型的鲁棒性直接影响系统能否可靠地理解复杂的环境并做出安全的决策,其对驾驶安全至关重要。 然而,在借助该技术将感知任务的训练图像扩充到各类分布偏移场景时,必须确保物体的三维信息与原始标注相匹配,否则就会给视觉感知模型带来额外噪音干扰。 技术方案 基于前面的讨论,我们不禁思考:要怎么去设计一个无需额外训练的可控生成方法,在准确保留物体三维信息的前提下,实现感知模型训练图像的可控扩充? 基于上述实验结果,有理由相信通过对视觉三维检测训练数据的有效扩充,该论文所设计的方法能够有效地提高视觉感知模型的泛化性能,从而提升三维检测在自动驾驶中的落地和应用。

    37810编辑于 2025-05-25
  • 来自专栏AI科技评论

    用于形状精确三维感知图像合成的着色引导生成隐式模型 | NeurIPS2021

    在多个数据集上实验表明,在捕获精确的底层三维形状的同时,ShadeGAN做到了实现具备真实感的三维感知图像合成。 它们也无法表示明确的三维物体形状。为了克服这些限制,研究人员提出了新的深度生成模型,将3D场景表示为神经辐射场。3D感知生成模型可以显式控制视点,同时在图像合成过程中保持3D一致性。 ShadeGAN可以总结如下:1)使用满足多重照明约束的着色引导生成模型,从而解决现有三维感知图像合成中形状-颜色模糊问题。ShadeGAN能够学习更精确的3D形状,从而更好地进行图像合成。 生成三维感知图像合成 生成对抗网络(GANs)可以生成高分辨率的真实照片图像,但对摄像机视点的明确控制却很匮乏。为了能够以3D感知的方式合成图像,许多最新方法研究了如何将3D表示合并到GANs中。 但这种方法需要低效的实例特定训练,并恢复深度贴图,而不是完整的三维表示。本文提出的三维感知生成模型也可以作为无监督三维形状学习的有力方法。

    1K10编辑于 2022-03-03
  • 来自专栏AI科技评论

    干货 | 平面图像的感知已经基本解决了,那三维数据的呢?

    你要如何让你的车感知行人、骑自行车的人以及其他车辆,以安全行驶呢? 显而易见,我们需要的是能够直接以 3D 方式操作的计算机视觉方法,而这就提出了三个明显的挑战:3D 数据的感知、表示和理解。 感知 3D 数据的采集是一个复杂的过程。 虽然 2D 摄像价格便宜且应用广泛,但是 3D 感知通常需要专用硬件设施。 ? 双目视觉使用了多个相机,并对感知目标位置的转移进行了评估,来计算深层信息 1. 将 3D 感知问题转换为 2D 感知问题是一个聪明的做法,但在某种程度上,这种方法仍然需要你推理出一个目标的 3D 几何。 通过连接这两个向量,每个点都能感知到其全局语义和局部特征,从而使网络能够学习有助于分割的附加的、更有意义的特征。 ?

    1K51发布于 2019-10-31
  • 耕地土壤墒情监测站:三维感知 + 动态响应,构建田间水分精准管理新范式

    耕地土壤墒情监测站作为田间水分信息的 “立体感知终端”,其核心优势在于突破传统单点、静态监测的局限,通过多维度技术融合实现土壤水分的高精度、全周期表征。

    30500编辑于 2025-08-04
  • 来自专栏hotarugaliの技术分享

    感知

    感知机学习由训练数据集求得模型参数 和 ;感知机预测则根据学 习到的模型对新的输入实例给出其对应的输出类别。 3. 策略 给出了感知机模型的定义后,下一步便是探究这个模型是否能够有效地实现分类目标。为此,我们先给出一个条件假设:数据集的线性可分性,然后基于此此假设验证感知机的有效性。 3.2 感知机的学习策略 假设训练数据集是线性可分的,感知机学习的目标是求得一个能够将训练数据集正实例点和负实例点完全正确分开的分离超平面 ,即确定感知机模型参数 和 。 算法 上述学习策略验证了感知机在线性可分数据集上的有效性,下面就是要给出如何在训练数据集上具体实现感知机学习过程。感知机学习问题有两种形式,一种是最直观的原始形式,一种是原始形式的对偶形式。 算法:感知机学习算法的对偶形式 输入:训练数据集 ,其中 , ;学 习率 ; 输出: ;感知机模型 。

    94820编辑于 2022-04-25
  • 来自专栏hotarugaliの技术分享

    感知

    image.png

    72920编辑于 2022-05-11
  • 来自专栏全栈程序员必看

    多层感知机实现(单层感知器和多层感知器)

    前面利用了softmax来对图像进行分类,也可以使用多层感知机的方法对图像进行分类。 多层感知机从零开始实现方法 多层感知机( multilayer perceptron , MLP),在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。 因 此,多层感知机中的隐藏层和输出层都是全连接层。 我们将使用多层感知机对图像进行分类。 然后我们实现上一节中多层感知机的计算表达式。

    1.5K10编辑于 2022-07-31
  • 来自专栏全栈程序员必看

    多层感知机理解(多层感知机原理)

    一.网络的原理和结构 多层感知器(Muti-Layer Percetron)和卷积网络(Convolutional Neural Network)。 这两种网络都属于前馈型网络(Feedforward network),其中多层感知器(MLP)是最简单也是最常见的一种神经网络结构,它是所有其他神经网络结构的基础, 好在我对神经网络的了解是从卷积神经网络开始的 ,对基本的原理和模型已经有了了解,所以学习起来相对容易,先看多层感知机的模型: 如何设计一个网络,输入代表像素的值,输出0-9之间的一个正确的数字 先把神经元当做数字 然后考虑向左还是向右 计算斜率,斜率为正,表示函数是上升,那么我们梯度的反方向即向左 斜率为负,表示梯度是下降的,我们继续往右找到最低点 在每一点这样重复的计算斜率,直到找到局部最低点 在三维空间如何计算

    2K50编辑于 2022-07-26
  • 来自专栏Michael阿明学习之路

    感知机(Perceptron)

    感知机(perceptron)是二类分类的线性分类模型 输入:实例的特征向量 输出:实例的类别,取 +1 和 -1 二值 感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型 感知机学习算法具有简单而易于实现的优点,分为原始形式和对偶形式。 预测:对新的输入进行分类 感知机1957年由Rosenblatt(罗森布拉特)提出,是神经网络与支持向量机的基础。 1. 感知机模型 感知机定义: 输入空间: X⊆Rn\mathcal X \subseteq \mathbf R^nX⊆Rn 输出空间: Y={+1,−1}\mathcal Y = \{+1,-1\}Y={+ 当训练集线性不可分时,感知机学习算法不收敛,迭代结果会发生震荡。 基于感知机Perceptron的鸢尾花分类实践 请查阅链接

    1.5K20发布于 2020-07-13
领券