首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏HT

    基于 HTML5 的 WebGL 技术构建 3D 场景(一)

    今天和大家分享的是 3D 系列之 3D 预定义模型。 接下来我们就来谈谈预定义的 3D 模型及参数设置。 在网络拓扑图 GraphView 的 2D 图形上,呈现各种图形是通过 style 中的 shape 属性决定的,HT 在 3D 上提供了 shape3d 属性预定义多种 3D 形体。 具体如何设置的,我们来看看代码: [3, 4, 5, 6, 10, 20, 40, 80, 100].forEach(function(side, index) { var x = ((index 在上面的代码中,可以看到 note 相关的设置,在这边也顺带介绍下,note.autorotate 样式是用来控制 note 的朝向,如果设置为 true,那么这个 note 永远是朝向眼睛的方向,不管场景如何旋转

    1.1K60发布于 2018-01-03
  • 来自专栏hightopo

    基于 HTML5 的 WebGL 技术构建 3D 场景(一)

    今天和大家分享的是 3D 系列之 3D 预定义模型。 接下来我们就来谈谈预定义的 3D 模型及参数设置。 在网络拓扑图 GraphView 的 2D 图形上,呈现各种图形是通过 style 中的 shape 属性决定的,HT 在 3D 上提供了 shape3d 属性预定义多种 3D 形体。 具体如何设置的,我们来看看代码: [3, 4, 5, 6, 10, 20, 40, 80, 100].forEach(function(side, index) { var x = ((index 在上面的代码中,可以看到 note 相关的设置,在这边也顺带介绍下,note.autorotate 样式是用来控制 note 的朝向,如果设置为 true,那么这个 note 永远是朝向眼睛的方向,不管场景如何旋转

    66620发布于 2018-07-09
  • 来自专栏hightopo

    基于 HTML5 WebGL 的 3D 场景中的灯光效果

    构建 3D场景除了创建模型,对模型设置颜色和贴图外,还需要有灯光的效果才能更逼真的反映真实世界的场景。这个例子我觉得既美观又代表性很强,所以拿出来给大家分享一下。 上面场景中主要的知识点包括:3D 灯光以及 3D 模型的流动。 场景搭建 整个场景中包括 2D 场景(也就是鹰眼部分)以及 3D 场景: dm = new ht.DataModel(); g3d = new ht.graph3d.Graph3dView(dm); 只要 3D 和 2D 共用同一个数据容器,那么数据容器中的图元都是共用的,也就是说只要我们排布好 2D 或者 3D 中的图元,那么剩下的那个组件中图元的排布以及样式都是根据排布好的组件来排布的。 front.uv.offset': uvOffset }); shape4.s({ 'front.uv.offset': uvOffset }); shape5.

    1.1K20发布于 2018-07-09
  • 来自专栏腾讯云TVP

    如何用Unity导出H5与小游戏的3D场景

    ,本篇将全面介绍依托Unity工具流以及LayaAir引擎及插件,将Unity中编辑的3D场景和预设等资源导出,并加载显示。 二、3D场景编辑环境配置 由于编辑3D场景是基于Unity以及LayaAir引擎提供的Unity插件。 比如我们的场景名为AAA,那么最终导出的资源全路径实际为E:/Game/3D/LayaScene_AAA。 3.3.5 多配置保存与重置 以上介绍的导出配置项,默认是存到config 1中,其实插件一共提供了5个配置列表项,如下图所示。 ? 在3D场景的渲染配置里,目前支持导出的主要是环境相关的(例如,环境光照,环境反射等)以及场景雾效等。

    11.9K8984发布于 2020-08-22
  • 来自专栏hightopo

    基于 HTML5 WebGL 的 3D 场景中的灯光效果

    前言 构建 3D场景除了创建模型,对模型设置颜色和贴图外,还需要有灯光的效果才能更逼真的反映真实世界的场景。这个例子我觉得既美观又代表性很强,所以拿出来给大家分享一下。 上面场景中主要的知识点包括:3D 灯光以及 3D 模型的流动。 1. 场景搭建 整个场景中包括 2D 场景(也就是鹰眼部分)以及 3D 场景: dm = new ht.DataModel(); g3d = new ht.graph3d.Graph3dView(dm); g3d.setGridVisible 只要 3D 和 2D 共用同一个数据容器,那么数据容器中的图元都是共用的,也就是说只要我们排布好 2D 或者 3D 中的图元,那么剩下的那个组件中图元的排布以及样式都是根据排布好的组件来排布的。 front.uv.offset': uvOffset }); shape4.s({ 'front.uv.offset': uvOffset }); shape5.

    1.1K10发布于 2019-06-05
  • 来自专栏全栈程序员必看

    unity3D场景_3D夜晚场景

    在学习阿发你好的网课过程中,学习完Unity的2D课程后深有感触,决定将3D学习过程一步步记录下来,也方便日后查询。 创建3D项目 Step1:在UnityHub中新建3D项目 Step2:将页面调整为2×3布局(项目中通常使用2×3) 新建项目 选择 window -> layouts -> 2 by 3 选择 window->General->Console 调出控制台 认识3D场景 天空盒skybox:上有蓝天,下有深渊,在计算机图形学学习过程中就有所涉及。 场景中还有什么? 方向标识:3D视图导航器Gizmos; 坐标网格Grid,标识y=0坐标平面(一般不作调整); 摄像机与光源。 添加一个物体 Hierarchy中右键,选择 3D Object->Plane 添加一个平面; 在Inspector窗口中将transform模块中的position置为0,0,0;把平面放于正中央。

    73530编辑于 2022-09-22
  • 来自专栏AIGC 先锋科技

    无监督3D场景理解,LLM 在 3D 场景理解中的应用与探索 !

    构建能够理解和推理3D场景的模型很难,原因在于缺乏3D监督训练的数据来源和大规模训练策略。 在这项工作中,作者问到:在没有3D预训练的情况下,预训练语言模型中的知识如何被利用来理解和推理3D场景? 在本文中,作者使用GPT-4 LLM和上下文提示来开发作者的3D场景理解框架。 与LLMs的时空理解:最近,使用LLMs中的知识在视频中的时空推理引起了兴趣[9]和3D推理任务[5]。 另一方面,3D-LLM [5]利用3D监督联合训练语言模型用于场景理解。然而,与作者的方法不同,它需要3D数据集进行监督,并要求大规模的联合训练方式。 这使得作者可以构建3D地图而无需任何3D数据监督或大规模的训练模式。 图结构:作者用开放的词汇3D场景图(3DSG)表示场景,即。 5 Failure Cases and Limitations SceneGPT框架由场景图表示(在本研究中,即为概念图,下同)和大型语言模型(如作者案例中的GPT-4)组成,并继承了它们的一些基本限制

    82910编辑于 2024-08-27
  • 来自专栏全栈程序员必看

    3D建模场景怎么做?

    在开始做3d场景之前,我绘制了一些草图。选好需要的草图后(图01),我用3ds max从标准几何体开始制作模型,还使用了像lathe,bevel以及unwrap uvw这类的基本修改器。 图04 场景中的照明我用的一个target directional light,但是我还是在photoshop中做了进一步的加工,因为我需要把背景和最终的渲染图混合。 场景我用了adaptive dmc作为图片样本,v-ray lanczos过滤器作为边缘抗齿距过滤,irradiance贴图做基本的反弹,brute force做次要反弹。没有用任何环境照明。 完成第一个渲染之后(图05),开始用材质之前,场景看起来有点亮,就像一个阳光明媚的一天即将来临,但是我的目的却是恰恰相反的!我想要表达的是由于一场暴风雨的来临而被人们抛弃的小镇。 枯死的树木和背景中欣欣向荣的生态环境形成了鲜明的对比,我认为这样可以帮助提高场景的诡异效果。最后的润色我使用了curves图层来获得与场景和背景故事相匹配的氛围(图07)。

    1.1K20编辑于 2022-09-05
  • 来自专栏Mac软件的分享

    Substance 3D Stager for mac(3D场景设计和渲染软件)

    Substance 3D Stager是由Adobe开发的一款全新的3D场景设计和渲染软件,它可以让用户在一个直观的界面中轻松地创建、编辑和渲染高品质的3D场景。 图片Substance 3D Stager for mac(3D场景设计和渲染软件) Substance 3D Stager特色功能包括:独特的“放置模式”:可通过简单的鼠标拖动操作将各种3D模型、材质 、灯光等元素直接添加到场景中,实现快速布局和组织。 图片可视化的灯光编辑器:可直接在场景中调整灯光的位置、强度、颜色等属性,实时预览效果。支持第三方模型和材质:可以导入用户自己创建或从其他来源获取的模型和材质,并与软件内置素材进行混合使用。 图片Substance 3D Stager适用于广泛的应用场景,如游戏制作、影视特效、产品展示等。

    78100编辑于 2023-03-17
  • 来自专栏WOLFRAM

    Mathematica 爱心首饰 II: 3D 场景首饰

    01 初衷概念 我去年曾送过一枚3D打印的爱心吊坠给我的妻子。如今我在想,今年我该送点什么给拙荆作为她的生日礼物呢?更精确一点的提法,我该造点什么来表达我的爱呢? 在 Mathematica 的老版本中,3D 图形的生成效果大致如下。 但是 Mathematica 12.3 以后可以采用 MaterialShading 这个新函数。 如我之前所述,经过3D打印和失蜡法铸造后,我收到了我的爱心首饰。银是一种表现流体的理想材质,颜色、成形、质感、表面都有相似相通之处。波干涉的曲面图案非常清晰和闪耀,用"波光粼粼"来形容正是恰当。 One more thing 另有一事值得一提,就是传统首饰和3D场景首饰的区别。一般传统首饰仅有一个视角比较好看,通常是正面视角。 而3D场景首饰可以从所有的视角进行欣赏,每个视角都充满了浓浓爱意,每个视角都向您述说一段爱情故事。

    63510编辑于 2022-03-29
  • 来自专栏全栈程序员必看

    Unity入门 简单的3D场景制作

    Unity入门 简单的3D场景制作 准备 1.在左侧层级视图(Hierarchy)右键创建3D Object下的Terrain场景 2.选中Terrain层,在右边的Inspector窗口设置场景面积大小为 选择设置高度点击SetHeight选项,设置完参数点击Flatten按钮,图层会向上移动50个单位,方便我们后面挖湖 4.选择Raise or Lower Terrain 选项,默认是升高,按住SHIFT键是降低 5. 找到发布的文件夹,运行.exe 可以自嗨了 准备 下载安装Unity,创建自己的账户,新建一个3DProject 等会儿要用的资源包集合:链接: https://pan.baidu.com/s/1sJFm5MLvPFUjZCtZjDRFdw 提取码: 8fjs 1.在左侧层级视图(Hierarchy)右键创建3D Object下的Terrain场景 2.选中Terrain层,在右边的Inspector窗口设置场景面积大小为200×200 SetHeight选项,设置完参数点击Flatten按钮,图层会向上移动50个单位,方便我们后面挖湖 4.选择Raise or Lower Terrain 选项,默认是升高,按住SHIFT键是降低 5.

    3.4K10编辑于 2022-09-06
  • 来自专栏3D视觉从入门到精通

    谷歌开源TensorFlow 3D场景理解库

    、数据处理工具、模型和指标,使得更广泛的研究社区方便地开发、训练和部署 SOTA 3D 场景理解模型。 此外,TF 3D 提供了用于训练和评估标准 3D 场景理解数据集的统一数据集规划和配置,目前支持 Waymo Open、ScanNet 和 Rio 三个数据集。 3D 稀疏卷积网络 谷歌详细介绍了 TF 3D 库中提供的高效和可配置稀疏卷积骨干网络,该网络是在各种 3D 场景理解任务上取得 SOTA 结果的关键。 下图为 3D 稀疏体素 U-Net 架构: ? 稀疏卷积网络是 TF 3D 中所提供 3D 场景理解 pipeline 的骨干。 下图为 ScanNet 数据集中室内场景3D 语义分割结果: ? 3D 实例分割 除了预测语义之外,3D 实例分割的另一目的是将属于同一物体的体素集中分组在一起。

    1K30发布于 2021-03-19
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—城市篇

    科幻风的瓦片滤镜颜色不宜过浅,以突出建筑群体为主,城市地面可适当增加科幻元素进行点缀,增添地面细节。

    74520编辑于 2022-02-15
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—地球篇

    科幻地球首先要保证底图颜色干净,为了突出数据效果,底图不宜使用过多或过亮的色彩,干净即可,陆地和海洋要有一定的颜色或明暗区分,增加画面层次。

    72030编辑于 2022-02-16
  • 来自专栏数字孪生可视化

    科幻3D场景必备要素—园区篇

    在设计及制作3D场景时,为了让场景具备更加饱满的细节,这里为大家列举出来一些必备的要素和注意事项。 一.辅楼 园区周边应根据视野可及的范围去配备辅楼来丰富周边场景,辅楼必须提取自真实数据,如果周边没有真实数据,需要从有数据的地方将形态各异的辅楼进行提取后,手动根据地形区块划分摆好。 二.道路 在摆好根据数据生成的辅楼之后,需要将辅楼与主要园区之间的道路用3D MAX勾画出来。道路不要单纯的按照直线勾画,需要将道路分出正反两种流动方向,并在路口附近有转弯来增加真实感。 六.3D园区的画面层次 园区的画面层次要有轻重。最显眼第一层的应该是园区或者是园区中的主建筑。主建筑中最显眼的应该是建筑上的灯箱大LOGO,或者玻璃,其次是大范围的建筑。

    59310编辑于 2022-02-10
  • 来自专栏音视频技术

    相机+激光雷达重绘3D场景

    将激光雷达与相机结合,再通过深度学习的方式获得场景3D模型——Ouster首席执行官在博客中介绍了相机OS-1,并装有激光雷达。LiveVideoStack对原文进行了摘译。 激光雷达数据具有突出的独特优势,——简举二例,如空间信息丰富、环境光照不敏感,——然而它缺乏类似于传统相机图像的原始(高)分辨率和高效的阵列存储结构,因而3D点云在神经网络学习或处理中迄今缺乏高效快速的硬件算法及实现 OS-1捕获近红外信号和环境数据,因此数据非常类似于相同场景的可见光图像,这使得数据具有自然的外观,且为摄像机开发的算法很好地转换为数据提供了更高的可能性。 v=JxR9MasA9Yc 因为每个像素都提供了所有的数据,所以我们能够无缝地将2D掩码转换为3D帧,以进行额外的实时处理,如边界框估计和跟踪。

    57920发布于 2021-09-01
  • 来自专栏HT

    如何让 3D 数字孪生场景闪闪发光

    今日图扑软件功能分享:我们将探讨 HT 系统如何通过分组管理灯光、裁切体和流光,以提高场景光影效果的精准度和整体可控性。 HT 中的灯光、裁切体、流光是会影响它所在区域一定范围内的其他节点的表现,如 场景中有个 A 灯光,默认情况下,场景中所有节点都是可以受到 A 灯光的影响。 效果展示 灯光分组 在此场景中,我们设置了两个灯光分组,分别影响车辆的不同部位,使得案例呈现出更加丰富的效果。 这种灯光分组的应用不仅提升了场景的层次感,还使得重点部分更加引人注目。 流光分组 流光效果在现代三维可视化和动画制作中发挥着重要作用,能够赋予场景独特的科技感和动态美感。 如果您有更多有趣的想法或应用场景,欢迎随时交流,分享您的见解和经验,一同探索分组技术的更多可能性。

    31510编辑于 2024-07-10
  • 来自专栏媒矿工厂

    CVPR 2023 | MIME: 人物感知的 3D 场景生成

    为了训练 MIME,本文构建了一个包含交互人物和自由空间人物的 3D 场景数据集 3D FRONT HUMAN。 实验表明,MIME 生成的 3D 场景支持人物接触和运动,并能够在自由空间中填充可信的物体。 引言 图 1:从人物运动估计 3D 场景。给定 3D 人物动作,我们可以重建运动可能发生的 3D 场景。 为了从 3D 人物运动生成 3D 室内场景,我们提出了 MIME(Mining Interaction and Movement to infer 3D Environments)来生成与人物运动相一致的室内场景 实验 定量结果 表 1:3D FRONT HUMAN 测试集上的定量比较。穿模损失、2D IoU 和 3D IoU 用于评估生成场景中人物与场景的交互。 定性结果 图 53D FRONT HUMAN 测试集上的定性比较。在输入自由空间和接触人物的情况下,MIME 生成的场景中接触人物与物体进行了互动,自由空间人物与所有生成物体的碰撞较少。

    62010编辑于 2024-01-23
  • 来自专栏点云PCL

    点云深度学习的3D场景理解(下)

    上文请看点云深度学习的3D场景理解(上) PointNet++ PointNet 缺陷 1. 对比3Dcnn3D和2D很像,只是变成了3D卷积,多级学习 不断抽象特征,平移不变性。 ? PN在三维场景理解中的应用  点云支持我们探索全新的解决方案,基于3D数据的解决方案 ? 之前的工作是怎么处理三维物体的呢? ? 具体在3d场景理解中,3d物体识别的应用   AI不仅仅在场景理解中有用,产品设计,图片集合中 图片之间的关系。 数据集,部件分割shapenet part 场景 s-3d-s scan-net 如果仅仅使用雷达,做3D物体检测,有没有可能进行拓展?   只需要强行pad到一样的数目即可 5. 未来发展趋势?  2D和3D结合,传感器的分辨率不高,3D几何信息丰富,更好的结合。 6. 激光雷达 近密远疏 ,该怎么处理呢?   

    2.3K31发布于 2019-07-30
  • 3D古城场景角色碰撞优化的实战指南》

    可破坏物体的实时物理计算是另一大性能瓶颈,尤其是场景中密集分布的陶罐(南大街、东市等区域单区域30-50个,全场景共200+个)。 优化后,单个陶罐破碎的CPU占用峰值从3.2%降至0.8%,全场景同时破碎10个陶罐时,CPU占用率仅上升5%,远低于优化前的18%。 ,仅12个动态物体就占用每帧碰撞计算量的25%(2300次/帧),其中80%的计算属于“无效交互”(角色距离物体5米以上,无碰撞可能)。 移动端适配是开放世界3D开发的重点难点,古城废墟场景的物理碰撞在中端机型(如天玑8100、骁龙778G)上初期表现不佳:角色走在南大街石阶上时,因石阶碰撞体精度过高(面数150+,包含台阶边缘的磨损细节 具体来说,我们在角色骨骼系统中设置了5个关键“碰撞检测点”:脚部2个(脚尖、脚跟,检测半径3cm)、手部2个(掌心、指节,检测半径2cm)、躯干1个(腰部,检测半径5cm),每个检测点都与物理引擎实时通信

    28310编辑于 2025-10-20
领券