首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏全栈程序员必看

    unity3D场景_3D夜晚场景

    在学习阿发你好的网课过程中,学习完Unity的2D课程后深有感触,决定将3D学习过程一步步记录下来,也方便日后查询。 创建3D项目 Step1:在UnityHub中新建3D项目 Step2:将页面调整为2×3布局(项目中通常使用2×3) 新建项目 选择 window -> layouts -> 2 by 3 选择 window->General->Console 调出控制台 认识3D场景 天空盒skybox:上有蓝天,下有深渊,在计算机图形学学习过程中就有所涉及。 场景中还有什么? 方向标识:3D视图导航器Gizmos; 坐标网格Grid,标识y=0坐标平面(一般不作调整); 摄像机与光源。 添加一个物体 Hierarchy中右键,选择 3D Object->Plane 添加一个平面; 在Inspector窗口中将transform模块中的position置为0,0,0;把平面放于正中央。

    73530编辑于 2022-09-22
  • 来自专栏AIGC 先锋科技

    无监督3D场景理解,LLM 在 3D 场景理解中的应用与探索 !

    构建能够理解和推理3D场景的模型很难,原因在于缺乏3D监督训练的数据来源和大规模训练策略。 在这项工作中,作者问到:在没有3D预训练的情况下,预训练语言模型中的知识如何被利用来理解和推理3D场景? 最近,ConceptGraphs [4]改进了这些方法,构建一个稀疏开放词汇映射,编码物体语义(通过包括多模态语言模型如LLAVA [10]的先验)和场景图结构。 这使得作者可以构建3D地图而无需任何3D数据监督或大规模的训练模式。 图结构:作者用开放的词汇3D场景图(3DSG)表示场景,即。 作者使用LLaVA-13B [10]作为作者用于从 crops 中获取物体标签和字幕的多模态语言模型。作者更进一步,并要求LLaVA预测物体的颜色和材质,以便获得更丰富的场景表示。 ConceptGraphs框架使用预训练的多模态语言模型(如[10]中的LLaVA)来分配目标节点、标签和标题。

    82910编辑于 2024-08-27
  • 来自专栏全栈程序员必看

    3D建模场景怎么做?

    在开始做3d场景之前,我绘制了一些草图。选好需要的草图后(图01),我用3ds max从标准几何体开始制作模型,还使用了像lathe,bevel以及unwrap uvw这类的基本修改器。 图04 场景中的照明我用的一个target directional light,但是我还是在photoshop中做了进一步的加工,因为我需要把背景和最终的渲染图混合。 场景我用了adaptive dmc作为图片样本,v-ray lanczos过滤器作为边缘抗齿距过滤,irradiance贴图做基本的反弹,brute force做次要反弹。没有用任何环境照明。 完成第一个渲染之后(图05),开始用材质之前,场景看起来有点亮,就像一个阳光明媚的一天即将来临,但是我的目的却是恰恰相反的!我想要表达的是由于一场暴风雨的来临而被人们抛弃的小镇。 枯死的树木和背景中欣欣向荣的生态环境形成了鲜明的对比,我认为这样可以帮助提高场景的诡异效果。最后的润色我使用了curves图层来获得与场景和背景故事相匹配的氛围(图07)。

    1.1K20编辑于 2022-09-05
  • 来自专栏Mac软件的分享

    Substance 3D Stager for mac(3D场景设计和渲染软件)

    Substance 3D Stager是由Adobe开发的一款全新的3D场景设计和渲染软件,它可以让用户在一个直观的界面中轻松地创建、编辑和渲染高品质的3D场景。 图片Substance 3D Stager for mac(3D场景设计和渲染软件) Substance 3D Stager特色功能包括:独特的“放置模式”:可通过简单的鼠标拖动操作将各种3D模型、材质 、灯光等元素直接添加到场景中,实现快速布局和组织。 图片可视化的灯光编辑器:可直接在场景中调整灯光的位置、强度、颜色等属性,实时预览效果。支持第三方模型和材质:可以导入用户自己创建或从其他来源获取的模型和材质,并与软件内置素材进行混合使用。 图片Substance 3D Stager适用于广泛的应用场景,如游戏制作、影视特效、产品展示等。

    78100编辑于 2023-03-17
  • 来自专栏WOLFRAM

    Mathematica 爱心首饰 II: 3D 场景首饰

    01 初衷概念 我去年曾送过一枚3D打印的爱心吊坠给我的妻子。如今我在想,今年我该送点什么给拙荆作为她的生日礼物呢?更精确一点的提法,我该造点什么来表达我的爱呢? 在 Mathematica 的老版本中,3D 图形的生成效果大致如下。 但是 Mathematica 12.3 以后可以采用 MaterialShading 这个新函数。 如我之前所述,经过3D打印和失蜡法铸造后,我收到了我的爱心首饰。银是一种表现流体的理想材质,颜色、成形、质感、表面都有相似相通之处。波干涉的曲面图案非常清晰和闪耀,用"波光粼粼"来形容正是恰当。 One more thing 另有一事值得一提,就是传统首饰和3D场景首饰的区别。一般传统首饰仅有一个视角比较好看,通常是正面视角。 而3D场景首饰可以从所有的视角进行欣赏,每个视角都充满了浓浓爱意,每个视角都向您述说一段爱情故事。

    63510编辑于 2022-03-29
  • 来自专栏全栈程序员必看

    Unity入门 简单的3D场景制作

    Unity入门 简单的3D场景制作 准备 1.在左侧层级视图(Hierarchy)右键创建3D Object下的Terrain场景 2.选中Terrain层,在右边的Inspector窗口设置场景面积大小为 选项,削削它们的锐气 8.地形构建完毕,那就应该给它安一个皮,上一层纹理,需要导入资源包操作如下图所示 9.导入成功后,选择Paint Texture-Create Layer,新建一个你喜欢的纹理 10 等会儿要用的资源包集合:链接: https://pan.baidu.com/s/1sJFm5MLvPFUjZCtZjDRFdw 提取码: 8fjs 1.在左侧层级视图(Hierarchy)右键创建3D Object下的Terrain场景 2.选中Terrain层,在右边的Inspector窗口设置场景面积大小为200×200 3.选择设置高度点击SetHeight选项,设置完参数点击Flatten 削削它们的锐气 8.地形构建完毕,那就应该给它安一个皮,上一层纹理,需要导入资源包操作如下图所示 9.导入成功后,选择Paint Texture-Create Layer,新建一个你喜欢的纹理 10

    3.4K10编辑于 2022-09-06
  • 来自专栏3D视觉从入门到精通

    谷歌开源TensorFlow 3D场景理解库

    、数据处理工具、模型和指标,使得更广泛的研究社区方便地开发、训练和部署 SOTA 3D 场景理解模型。 此外,TF 3D 提供了用于训练和评估标准 3D 场景理解数据集的统一数据集规划和配置,目前支持 Waymo Open、ScanNet 和 Rio 三个数据集。 3D 稀疏卷积网络 谷歌详细介绍了 TF 3D 库中提供的高效和可配置稀疏卷积骨干网络,该网络是在各种 3D 场景理解任务上取得 SOTA 结果的关键。 下图为 3D 稀疏体素 U-Net 架构: ? 稀疏卷积网络是 TF 3D 中所提供 3D 场景理解 pipeline 的骨干。 下图为 ScanNet 数据集中室内场景3D 语义分割结果: ? 3D 实例分割 除了预测语义之外,3D 实例分割的另一目的是将属于同一物体的体素集中分组在一起。

    1K30发布于 2021-03-19
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—城市篇

    科幻风的瓦片滤镜颜色不宜过浅,以突出建筑群体为主,城市地面可适当增加科幻元素进行点缀,增添地面细节。

    74520编辑于 2022-02-15
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—地球篇

    科幻地球首先要保证底图颜色干净,为了突出数据效果,底图不宜使用过多或过亮的色彩,干净即可,陆地和海洋要有一定的颜色或明暗区分,增加画面层次。

    72030编辑于 2022-02-16
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—园区篇

    在设计及制作3D场景时,为了让场景具备更加饱满的细节,这里为大家列举出来一些必备的要素和注意事项。 一.辅楼 园区周边应根据视野可及的范围去配备辅楼来丰富周边场景,辅楼必须提取自真实数据,如果周边没有真实数据,需要从有数据的地方将形态各异的辅楼进行提取后,手动根据地形区块划分摆好。 二.道路 在摆好根据数据生成的辅楼之后,需要将辅楼与主要园区之间的道路用3D MAX勾画出来。道路不要单纯的按照直线勾画,需要将道路分出正反两种流动方向,并在路口附近有转弯来增加真实感。 六.3D园区的画面层次 园区的画面层次要有轻重。最显眼第一层的应该是园区或者是园区中的主建筑。主建筑中最显眼的应该是建筑上的灯箱大LOGO,或者玻璃,其次是大范围的建筑。

    59310编辑于 2022-02-10
  • 来自专栏音视频技术

    相机+激光雷达重绘3D场景

    将激光雷达与相机结合,再通过深度学习的方式获得场景3D模型——Ouster首席执行官在博客中介绍了相机OS-1,并装有激光雷达。LiveVideoStack对原文进行了摘译。 激光雷达数据具有突出的独特优势,——简举二例,如空间信息丰富、环境光照不敏感,——然而它缺乏类似于传统相机图像的原始(高)分辨率和高效的阵列存储结构,因而3D点云在神经网络学习或处理中迄今缺乏高效快速的硬件算法及实现 OS-1捕获近红外信号和环境数据,因此数据非常类似于相同场景的可见光图像,这使得数据具有自然的外观,且为摄像机开发的算法很好地转换为数据提供了更高的可能性。 v=JxR9MasA9Yc 因为每个像素都提供了所有的数据,所以我们能够无缝地将2D掩码转换为3D帧,以进行额外的实时处理,如边界框估计和跟踪。

    57920发布于 2021-09-01
  • 来自专栏学习与分享

    Redis的10种使用场景

    今天这篇文章就跟大家一起聊聊,我在实际工作中使用Redis的10场景,希望对你会有所帮助。 1. 统计访问次数 对于很多官方网站的首页,经常会有一些统计首页访问次数的需求。 该业务场景可以使用Redis,定义一个key,比如:OFFICIAL_INDEX_VISIT_COUNT。 比如:限制同一个ip,1分钟之内只能访问10次接口,10分钟之内只能访问50次接口,1天之内只能访问100次接口。 如果超过次数,则接口直接返回:请求太频繁了,请稍后重试。 接收的结果:{}", deserialize.toString()); } else { log.info("其他服务处理中"); } } } 10 生成全局ID 在有些需要生成全局ID的业务场景,其实也可以使用Redis。

    3.1K20编辑于 2024-07-19
  • 来自专栏HT

    如何让 3D 数字孪生场景闪闪发光

    今日图扑软件功能分享:我们将探讨 HT 系统如何通过分组管理灯光、裁切体和流光,以提高场景光影效果的精准度和整体可控性。 HT 中的灯光、裁切体、流光是会影响它所在区域一定范围内的其他节点的表现,如 场景中有个 A 灯光,默认情况下,场景中所有节点都是可以受到 A 灯光的影响。 效果展示 灯光分组 在此场景中,我们设置了两个灯光分组,分别影响车辆的不同部位,使得案例呈现出更加丰富的效果。 这种灯光分组的应用不仅提升了场景的层次感,还使得重点部分更加引人注目。 流光分组 流光效果在现代三维可视化和动画制作中发挥着重要作用,能够赋予场景独特的科技感和动态美感。 如果您有更多有趣的想法或应用场景,欢迎随时交流,分享您的见解和经验,一同探索分组技术的更多可能性。

    31510编辑于 2024-07-10
  • 来自专栏媒矿工厂

    CVPR 2023 | MIME: 人物感知的 3D 场景生成

    为了训练 MIME,本文构建了一个包含交互人物和自由空间人物的 3D 场景数据集 3D FRONT HUMAN。 实验表明,MIME 生成的 3D 场景支持人物接触和运动,并能够在自由空间中填充可信的物体。 引言 图 1:从人物运动估计 3D 场景。给定 3D 人物动作,我们可以重建运动可能发生的 3D 场景。 为了从 3D 人物运动生成 3D 室内场景,我们提出了 MIME(Mining Interaction and Movement to infer 3D Environments)来生成与人物运动相一致的室内场景 图 3:使用碰撞损失和接触损失进行场景细化。 模型生成的场景3D 边界框表示。根据边界框的大小和类别标签,我们从 3D FUTURE 中检索最接近的网格模型。 实验 定量结果 表 1:3D FRONT HUMAN 测试集上的定量比较。穿模损失、2D IoU 和 3D IoU 用于评估生成场景中人物与场景的交互。

    62010编辑于 2024-01-23
  • 来自专栏点云PCL

    点云深度学习的3D场景理解(下)

    上文请看点云深度学习的3D场景理解(上) PointNet++ PointNet 缺陷 1. 对比3Dcnn3D和2D很像,只是变成了3D卷积,多级学习 不断抽象特征,平移不变性。 ? PN在三维场景理解中的应用  点云支持我们探索全新的解决方案,基于3D数据的解决方案 ? 之前的工作是怎么处理三维物体的呢? ? 具体在3d场景理解中,3d物体识别的应用   AI不仅仅在场景理解中有用,产品设计,图片集合中 图片之间的关系。 数据集,部件分割shapenet part 场景 s-3d-s scan-net 如果仅仅使用雷达,做3D物体检测,有没有可能进行拓展?   10 有没有可能直接用PN++ 直接对点云数据做检测?   voxelnet 是解决类似的问题 11 voxelnet 只对点云数据训练做到kitti第一?   

    2.3K31发布于 2019-07-30
  • 3D古城场景角色碰撞优化的实战指南》

    可破坏物体的实时物理计算是另一大性能瓶颈,尤其是场景中密集分布的陶罐(南大街、东市等区域单区域30-50个,全场景共200+个)。 此外,我们还加入“距离衰减”逻辑优化性能:当陶罐距离相机超过15米时,碰撞后仅播放破碎动画(无实体碎片生成),通过视觉欺骗降低计算量;距离10-15米时,生成50%碎片;仅距离<10米时,生成完整碎片, 优化后,单个陶罐破碎的CPU占用峰值从3.2%降至0.8%,全场景同时破碎10个陶罐时,CPU占用率仅上升5%,远低于优化前的18%。 移动端适配是开放世界3D开发的重点难点,古城废墟场景的物理碰撞在中端机型(如天玑8100、骁龙778G)上初期表现不佳:角色走在南大街石阶上时,因石阶碰撞体精度过高(面数150+,包含台阶边缘的磨损细节 空隙);踩踏陶罐时,碰撞反馈(角色受力下沉2cm)与动画(脚部直接落地无下沉)不同步,显得僵硬,玩家调研中“交互真实感”评分仅6.2分(满分10)。

    28310编辑于 2025-10-20
  • 来自专栏刘旷专栏

    3D机器视觉厂商的场景争夺战役

    据智慧芽数据显示,灵西机器人目前共有20余件专利申请,其中10余件发明专利已获得授权,公司的专利布局主要集中于机器人、标定方法、虚拟相机等技术领域。 梅卡曼德扩大场景优势梅卡曼德和灵西机器人一样,专注3D机器视觉技术,为传统企业提供AI+3D+智能工业机器人解决方案,在3D机器视觉市场颇有建树。 梅卡曼德不断拓展和深入汽车、家电、钢铁厂、食品、物流仓、医药、金融等多个领域,积累了1000+全球案例,业务覆盖中、日、德、美、新等10余国家。 工业4.0时代,应用场景是机器视觉厂商是发展3D机器视觉业务的重要资源,梅卡曼德布局的场景广而大,未来持续扩大规模优势,行业应用将实现进一步突破,市场地位也更稳固。 机器视觉市场蓝海广阔,涌入机器视觉赛道的玩家络绎不绝,3D机器视觉技术有望得到深化,应用场景也越来越多。在此趋势下,机器视觉企业争相发力寻找落地场景,以期塑造新的增长曲线,应用落地变得紧迫。

    39310编辑于 2022-07-30
  • 来自专栏CSDN社区搬运

    用二维图像渲染3D场景视频

    概述 NeRF(Neural Radiance Fields)是一种神经辐射场,用于将图像转换为3D场景表示。 然而,在不同分辨率的训练或测试图像观察场景内容时,NeRF的渲染过程可能会产生过度模糊或伪影的图像。 原理介绍 传统NeRF的原理 NeRF使用一个连续的5D函数来表示场景,并使用少量的输入视图来优化这个函数以生成复杂场景的新视角。 NeRF使用基于MLP的全连接神经网络来表示场景,输入为一个连续的5D坐标,包括空间位置(x,y,z)和观察视角(θ, φ),输出为该空间位置的体密度σ和与视角相关的RGB颜色。 MLP输出密度和颜色,用于渲染场景

    52210编辑于 2024-12-09
  • 来自专栏点云PCL

    点云深度学习的3D场景理解(上)

    本文主要是关于 pointNet,pointNet++,frustum point 的一些整理和总结,内容包括如何将点云进行深度学习,如何设计新型的网络架构,如何将架构应用的3D场景理解。 背景 近来很多3D的应用在兴起,3D传感器在进步,随着虚拟网络的发展转到物理实际中的应用,比如(ADAS,AR,MR)自动驾驶中需要理解 汽车行人交通标识,同时也需要理解三维物体的状态静止和移动。 AR头戴显示器有深度传感器,也需要做三维场景的理解。例如把todo_list合适的放到冰箱的门上,需要一种数据驱动的方式去理解和处理三维数据,3D deep learning。 三维表达的形式 ? Point c'loud 是一种非常适合于3D场景理解的数据,原因是:   1、点云是非常接近原始传感器的数据集,激光雷达扫描之后的直接就是点云,深度传感器(深度图像)只不过是一个局部的点云,原始的数据可以做端到端的深度学习 所以栅格并不是对3D点云很好的一种表达方式   2、有人考虑过,用3D点云数据投影到2D平面上用2D cnn 进行训练,这样会损失3D的信息。

    2.8K30发布于 2019-07-30
  • 来自专栏全栈程序员必看

    Unity 基于eventTriggers的3D场景交互系统「建议收藏」

    Unity 基于eventTriggers的3D场景交互系统 Unity里的3D项目有时候需要大量的交互,而且是无UI的交互。

    1.2K20编辑于 2022-09-05
领券