首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    unity3D场景_3D夜晚场景

    在学习阿发你好的网课过程中,学习完Unity的2D课程后深有感触,决定将3D学习过程一步步记录下来,也方便日后查询。 创建3D项目 Step1:在UnityHub中新建3D项目 Step2:将页面调整为2×3布局(项目中通常使用2×3) 新建项目 选择 window -> layouts -> 2 by 3 选择 window->General->Console 调出控制台 认识3D场景 天空盒skybox:上有蓝天,下有深渊,在计算机图形学学习过程中就有所涉及。 场景中还有什么? 方向标识:3D视图导航器Gizmos; 坐标网格Grid,标识y=0坐标平面(一般不作调整); 摄像机与光源。 3D视图导航 1、移动视图:按Q选择手型工具或者直接使用鼠标中键 2、旋转视图:ALT+鼠标左键 ​ 鼠标右键,摇摆 3、缩放:滚轮 或 ALT+右键 建立方向感 由于Unity中没有规定方向,为方便建立方向感

    73530编辑于 2022-09-22
  • 来自专栏AIGC 先锋科技

    OpenSU3D 利用2D基础模型,构建实例级3D场景表示,超越当前所有3D场景理解水平!

    作者的方法通过使用2D基础模型递增地构建实例级3D场景表示,有效地聚合了实例级细节,如 Mask 、特征向量、名称和标题,克服了这些限制。 作者在ScanNet和Replica [2]数据集的多个场景上评估了所提出的方法,展示了零样本泛化能力,超过了当前开放世界3D场景理解的现有技术水平。 然而,将这些成功经验应用于3D场景仍具挑战性。当前的3D方法[7,8,9,10,11]虽然在创新性方面有所建树,但尚未达到其2D对应方法的性能水平。 作者的方法跟踪并更新基于重叠区域技术的2D和3D分割 Mask 及相应的元信息,使得在探索环境时能够高效、可扩展且递增地构建3D场景。 作者提出了一种增量式且可扩展的方法,用于开放集3D场景理解和实例分割,该方法将来自单个图像的实例级信息无缝集成到统一的3D场景表示中,利用2D基础模型。 2.

    72210编辑于 2024-07-31
  • 来自专栏AIGC 先锋科技

    无监督3D场景理解,LLM 在 3D 场景理解中的应用与探索 !

    作者框架的关键组成部分包括: 1)一个3D场景图,作为场景表示,编码场景中的物体及其空间关系; 2)一个可以与上下文学习相结合进行适应性训练的预训练语言模型,用于3D空间推理。 2 Background and Related Work 在任何场景理解系统中,关键的组成部分是一个能嵌入物体语义知识的开放词汇表示,该表示被封装在3D空间结构中。 LLM grounded视频扩散[9]使用较少提示来预测视频连续2D帧中物体的位置和布局(即边界框)。另一方面,3D-LLM [5]利用3D监督联合训练语言模型用于场景理解。 在本工作中,作者使用概念图(ConceptGraphs)[4],这是一种由2D基础模型提供的先验信息构建的开放的词汇图结构表示。这使得作者可以构建3D地图而无需任何3D数据监督或大规模的训练模式。 列表2显示了作者用于将场景图与LLM进行界面化的系统提示。提示输入场景图json表示、用户 Query 以及在上下文中的示例(第23-27行)。

    82910编辑于 2024-08-27
  • 来自专栏全栈程序员必看

    3D建模场景怎么做?

    在开始做3d场景之前,我绘制了一些草图。选好需要的草图后(图01),我用3ds max从标准几何体开始制作模型,还使用了像lathe,bevel以及unwrap uvw这类的基本修改器。 图04 场景中的照明我用的一个target directional light,但是我还是在photoshop中做了进一步的加工,因为我需要把背景和最终的渲染图混合。 场景我用了adaptive dmc作为图片样本,v-ray lanczos过滤器作为边缘抗齿距过滤,irradiance贴图做基本的反弹,brute force做次要反弹。没有用任何环境照明。 完成第一个渲染之后(图05),开始用材质之前,场景看起来有点亮,就像一个阳光明媚的一天即将来临,但是我的目的却是恰恰相反的!我想要表达的是由于一场暴风雨的来临而被人们抛弃的小镇。 枯死的树木和背景中欣欣向荣的生态环境形成了鲜明的对比,我认为这样可以帮助提高场景的诡异效果。最后的润色我使用了curves图层来获得与场景和背景故事相匹配的氛围(图07)。

    1.1K20编辑于 2022-09-05
  • 来自专栏Mac软件的分享

    Substance 3D Stager for mac(3D场景设计和渲染软件)

    Substance 3D Stager是由Adobe开发的一款全新的3D场景设计和渲染软件,它可以让用户在一个直观的界面中轻松地创建、编辑和渲染高品质的3D场景。 图片Substance 3D Stager for mac(3D场景设计和渲染软件) Substance 3D Stager特色功能包括:独特的“放置模式”:可通过简单的鼠标拖动操作将各种3D模型、材质 、灯光等元素直接添加到场景中,实现快速布局和组织。 图片可视化的灯光编辑器:可直接在场景中调整灯光的位置、强度、颜色等属性,实时预览效果。支持第三方模型和材质:可以导入用户自己创建或从其他来源获取的模型和材质,并与软件内置素材进行混合使用。 图片Substance 3D Stager适用于广泛的应用场景,如游戏制作、影视特效、产品展示等。

    78100编辑于 2023-03-17
  • 来自专栏WOLFRAM

    Mathematica 爱心首饰 II: 3D 场景首饰

    01 初衷概念 我去年曾送过一枚3D打印的爱心吊坠给我的妻子。如今我在想,今年我该送点什么给拙荆作为她的生日礼物呢?更精确一点的提法,我该造点什么来表达我的爱呢? 在 Mathematica 的老版本中,3D 图形的生成效果大致如下。 但是 Mathematica 12.3 以后可以采用 MaterialShading 这个新函数。 2. 雌鸯通常都是灰不拉几的。自然界的雌性通常都不比雄性好看,当然人类女性是一个例外。所以我就把雌鸯保留了它银白本色且不抛光,以后银会自然氧化发黑。这样完全符合自然的规律,当然人类女性是一个例外。 One more thing 另有一事值得一提,就是传统首饰和3D场景首饰的区别。一般传统首饰仅有一个视角比较好看,通常是正面视角。 而3D场景首饰可以从所有的视角进行欣赏,每个视角都充满了浓浓爱意,每个视角都向您述说一段爱情故事。

    63510编辑于 2022-03-29
  • 来自专栏全栈程序员必看

    Unity入门 简单的3D场景制作

    Unity入门 简单的3D场景制作 准备 1.在左侧层级视图(Hierarchy)右键创建3D Object下的Terrain场景 2.选中Terrain层,在右边的Inspector窗口设置场景面积大小为 在这里插入图片描述](https://img-blog.csdnimg.cn/2019040713413417.png)进行拉伸直至填满 12.填完水后给周围添加一些草(TIPS1:建议别画太多,吃内存TIPS2: 等会儿要用的资源包集合:链接: https://pan.baidu.com/s/1sJFm5MLvPFUjZCtZjDRFdw 提取码: 8fjs 1.在左侧层级视图(Hierarchy)右键创建3D Object下的Terrain场景 2.选中Terrain层,在右边的Inspector窗口设置场景面积大小为200×200 3.选择设置高度点击SetHeight选项,设置完参数点击Flatten ,用 进行移动,用 进行拉伸直至填满 12.填完水后给周围添加一些草(TIPS1:建议别画太多,吃内存TIPS2:由于Unity性能问题,在一定高度后你画的草在预览图是看不见的,滚轮放大一下就看得见了

    3.4K10编辑于 2022-09-06
  • 2D角色+3D场景:动漫游戏次元融合的技术突破路径》

    在开发某款古风仙侠动漫游戏时,我们首先遭遇了2D手绘角色与3D场景的“图层割裂”难题—核心场景“青云庭院”是3D建模的,飞檐斗拱、青石板路都有真实的空间纵深,而2D手绘的主角“灵汐”却像一张纸片贴在场景中 解决了基础的空间适配问题,2D角色与3D场景的“阴影脱节”问题又成为新的瓶颈—3D青云庭院的光影会随时间变化,比如清晨时阳光从东侧斜射,3D廊柱会投射出长长的西向阴影;但2D角色的阴影始终是一张固定的黑色半透明贴图 传统的“静态阴影贴图”方案显然无法满足需求,而直接让2D角色参与3D场景的实时阴影计算,又会因角色没有3D模型导致阴影失真。 随着场景复杂度提升,2D角色与3D场景的“光照颜色不匹配”问题逐渐凸显—3D青云庭院有多种光照场景:白天的自然光(偏冷白色)、夜晚的灯笼光(偏暖黄色)、雨天的油纸伞灯光(偏橙红色),但2D角色的颜色始终是固定的手绘色调 这套“2D角色与3D场景融合”的技术思路,后来被我们延伸到“角色与3D场景物体互动”的场景中,解决了“互动割裂”的最后一块短板—比如2D角色“灵汐”需要坐在3D石凳上、扶着3D栏杆、提着3D灯笼,传统做法是让角色播放固定的互动动画

    50610编辑于 2025-10-16
  • 来自专栏3D视觉从入门到精通

    谷歌开源TensorFlow 3D场景理解库

    TF 3D 库基于 TensorFlow 2 和 Keras 构建,使得更易于构建、训练和部署 3D 语义分割、3D 实例分割和 3D 目标检测模型。目前,TF 3D 库已经开源。 ? 、数据处理工具、模型和指标,使得更广泛的研究社区方便地开发、训练和部署 SOTA 3D 场景理解模型。 下图为 3D 稀疏体素 U-Net 架构: ? 稀疏卷积网络是 TF 3D 中所提供 3D 场景理解 pipeline 的骨干。 TF 3D 中使用的 3D 实例分割算法基于谷歌之前基于深度度量学习的 2D 图像分割。模型预测每体素的实例嵌入向量和每体素的语义分数。 在这种情况下,输入的是点云而不是图像,并且使用了 3D 稀疏网络而不是 2D 图像网络。在推理时,贪婪算法每次选择一个实例种子,并利用体素嵌入之间的距离将它们分组为片段。

    1K30发布于 2021-03-19
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—城市篇

    科幻风的瓦片滤镜颜色不宜过浅,以突出建筑群体为主,城市地面可适当增加科幻元素进行点缀,增添地面细节。

    74520编辑于 2022-02-15
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—地球篇

    科幻地球首先要保证底图颜色干净,为了突出数据效果,底图不宜使用过多或过亮的色彩,干净即可,陆地和海洋要有一定的颜色或明暗区分,增加画面层次。

    72030编辑于 2022-02-16
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—园区篇

    在设计及制作3D场景时,为了让场景具备更加饱满的细节,这里为大家列举出来一些必备的要素和注意事项。 一.辅楼 园区周边应根据视野可及的范围去配备辅楼来丰富周边场景,辅楼必须提取自真实数据,如果周边没有真实数据,需要从有数据的地方将形态各异的辅楼进行提取后,手动根据地形区块划分摆好。 二.道路 在摆好根据数据生成的辅楼之后,需要将辅楼与主要园区之间的道路用3D MAX勾画出来。道路不要单纯的按照直线勾画,需要将道路分出正反两种流动方向,并在路口附近有转弯来增加真实感。 六.3D园区的画面层次 园区的画面层次要有轻重。最显眼第一层的应该是园区或者是园区中的主建筑。主建筑中最显眼的应该是建筑上的灯箱大LOGO,或者玻璃,其次是大范围的建筑。

    59310编辑于 2022-02-10
  • 来自专栏音视频技术

    相机+激光雷达重绘3D场景

    将激光雷达与相机结合,再通过深度学习的方式获得场景3D模型——Ouster首席执行官在博客中介绍了相机OS-1,并装有激光雷达。LiveVideoStack对原文进行了摘译。 激光雷达数据具有突出的独特优势,——简举二例,如空间信息丰富、环境光照不敏感,——然而它缺乏类似于传统相机图像的原始(高)分辨率和高效的阵列存储结构,因而3D点云在神经网络学习或处理中迄今缺乏高效快速的硬件算法及实现 OS-1捕获近红外信号和环境数据,因此数据非常类似于相同场景的可见光图像,这使得数据具有自然的外观,且为摄像机开发的算法很好地转换为数据提供了更高的可能性。 v=JxR9MasA9Yc 因为每个像素都提供了所有的数据,所以我们能够无缝地将2D掩码转换为3D帧,以进行额外的实时处理,如边界框估计和跟踪。

    57920发布于 2021-09-01
  • 来自专栏机器之心

    CV困境如何破:训练样本有限、2D视觉平面 VS 3D真实场景...

    2. 通过在立体区域提议网络(RPN)之后添加额外分支以预测稀疏关键点,视点和对象维度,其与 2D 左右框组合以计算粗略的 3D 对象边界框。 然后,通过使用左右 RoI 的基于区域的光度对准来恢复精确的 3D 边界框。 该方法不需要深度输入和 3D 位置,但是,效果优于所有现有的完全监督的基于图像的方法。 在具有挑战性的 KITTI 数据集上的实验表明,该方法在 3D 检测和 3D 定位任务上的性能优于最先进的基于立体的方法约 30%AP。 [5]提出了一种抵御对抗样本的端到端图像压缩模型。 困境 某些实际任务中,人工智能仍然无法超越人类,为符合实际场景精度要求,通常会组合多种算法来实现,这种情况下模型实时性无法保证,因此需要模型加速。 2.

    54630发布于 2019-08-16
  • 来自专栏点云PCL

    3D特征点概述(2

    紧接上文思路继续介绍3D特征的基本概念问题。 ? RIFT (Rotation-Invariant Feature Transform) RIFT是一种局部特征描述法,且该方法扩展于SIFT。 arnumber=790410&tag=1) 输入格式: (1)场景的深度图像RI。 (2)NARF不仅是描述符,还是检测器。 (2)此功能不使用颜色信息。 工作原理: (1)迭代点云P中的点。 (2)对于输入云中的每个点Pi(i是迭代索引),收集具有半径r的Pi周围的球体内的所有相邻点。 D3 shape description functions: Matching 3D Models with Shape Distributions (Osada et. al.) (3) D2:对于D2函数,计算Pri和Prj之间的距离。然后检查连接两点的线是否完全位于表面(IN),表面外(OUT)或两者(MIXED)。

    1.8K50发布于 2019-07-30
  • 来自专栏HT

    如何让 3D 数字孪生场景闪闪发光

    今日图扑软件功能分享:我们将探讨 HT 系统如何通过分组管理灯光、裁切体和流光,以提高场景光影效果的精准度和整体可控性。 HT 中的灯光、裁切体、流光是会影响它所在区域一定范围内的其他节点的表现,如 场景中有个 A 灯光,默认情况下,场景中所有节点都是可以受到 A 灯光的影响。 效果展示 灯光分组 在此场景中,我们设置了两个灯光分组,分别影响车辆的不同部位,使得案例呈现出更加丰富的效果。 这种灯光分组的应用不仅提升了场景的层次感,还使得重点部分更加引人注目。 流光分组 流光效果在现代三维可视化和动画制作中发挥着重要作用,能够赋予场景独特的科技感和动态美感。 如果您有更多有趣的想法或应用场景,欢迎随时交流,分享您的见解和经验,一同探索分组技术的更多可能性。

    31510编辑于 2024-07-10
  • 来自专栏媒矿工厂

    CVPR 2023 | MIME: 人物感知的 3D 场景生成

    实验表明,MIME 生成的 3D 场景支持人物接触和运动,并能够在自由空间中填充可信的物体。 引言 图 1:从人物运动估计 3D 场景。给定 3D 人物动作,我们可以重建运动可能发生的 3D 场景。 为了从 3D 人物运动生成 3D 室内场景,我们提出了 MIME(Mining Interaction and Movement to infer 3D Environments)来生成与人物运动相一致的室内场景 一个包含交互人物和自由空间人物的 3D 场景数据集,该数据集通过将 RenderPeople 的静态姿势和 AMASS 的运动数据填充至 3D FRONT 来构建。 方法 图 2:方法总览。 实验 定量结果 表 1:3D FRONT HUMAN 测试集上的定量比较。穿模损失、2D IoU 和 3D IoU 用于评估生成场景中人物与场景的交互。 FID 分数和类别 KL 散度用于评估生成场景相较真实场景的真实性与多样性。 表 2:PROXD 数据集上的 3D 物体准确性比较。

    62010编辑于 2024-01-23
  • 来自专栏点云PCL

    点云深度学习的3D场景理解(下)

    本文主要是关于 pointNet,pointNet++,frustum point 的一些整理和总结,内容包括如何将点云进行深度学习,如何设计新型的网络架构,如何将架构应用的3D场景理解。 上文请看点云深度学习的3D场景理解(上) PointNet++ PointNet 缺陷 1. 对比3Dcnn3D和2D很像,只是变成了3D卷积,多级学习 不断抽象特征,平移不变性。 ? PN在三维场景理解中的应用  点云支持我们探索全新的解决方案,基于3D数据的解决方案 ? 之前的工作是怎么处理三维物体的呢? ? 具体在3d场景理解中,3d物体识别的应用   AI不仅仅在场景理解中有用,产品设计,图片集合中 图片之间的关系。 数据集,部件分割shapenet part 场景 s-3d-s scan-net 如果仅仅使用雷达,做3D物体检测,有没有可能进行拓展?  

    2.3K31发布于 2019-07-30
  • 3D古城场景角色碰撞优化的实战指南》

    为验证稳定性,我们在古城废墟的“瓮城”“角楼”两个高复杂度子场景(包含40+断墙、20+石阶)进行压力测试,连续1小时模拟角色快速跑跳、翻越、碰撞,未再出现明显卡顿,CPU占用率波动控制在±2%以内。 可破坏物体的实时物理计算是另一大性能瓶颈,尤其是场景中密集分布的陶罐(南大街、东市等区域单区域30-50个,全场景共200+个)。 这一优化使动态物体的碰撞计算量减少65%,在“古城主街”场景(包含12个动态物体:6个石碾、4个闸门、2个断柱)中,角色移动时的CPU碰撞占用率从9%降至3.2%,且物体运动时的碰撞反馈无延迟。 移动端适配是开放世界3D开发的重点难点,古城废墟场景的物理碰撞在中端机型(如天玑8100、骁龙778G)上初期表现不佳:角色走在南大街石阶上时,因石阶碰撞体精度过高(面数150+,包含台阶边缘的磨损细节 具体来说,我们在角色骨骼系统中设置了5个关键“碰撞检测点”:脚部2个(脚尖、脚跟,检测半径3cm)、手部2个(掌心、指节,检测半径2cm)、躯干1个(腰部,检测半径5cm),每个检测点都与物理引擎实时通信

    28310编辑于 2025-10-20
  • 来自专栏刘旷专栏

    3D机器视觉厂商的场景争夺战役

    过去,机器视觉主要以二维图像分析和识别为主,伴随5G、AI 等技术的发展机器视觉从二维(2D)向三维(3D)升级,3D机器视觉技术走上舞台,不过3D视觉技术市场渗透率低,市场规模远小于2D视觉技术。 高工机器人产业研究所(GGII)数据显示,2021年,2D视觉市场规模约为107.8亿元,3D视觉市场约为11.51亿元。 可以说,2D机器视觉技术是当下主流,3D机器视觉技术是未来趋势,3D机器视觉赛道融资持续火热是资本们试图抓住工业4.0时代红利的外在表现。 工业4.0时代,应用场景是机器视觉厂商是发展3D机器视觉业务的重要资源,梅卡曼德布局的场景广而大,未来持续扩大规模优势,行业应用将实现进一步突破,市场地位也更稳固。 综上所述,3D机器视觉厂商的场景落地之争进入白热化阶段,3D机器视觉渗透率有望提升,相信随着3D机器视觉技术取代2D机器视觉技术,机器视觉市场将迎来另一番新天地,而以梅卡曼德、灵西机器人为代表的头部3D

    39310编辑于 2022-07-30
领券