首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏用户10122115的专栏

    Autodesk 3ds Max2020中文版免费下载安装图文教程

    3dmax2020中文版新增14个新的OSL着色器并增加高效的工具箱集成,帮助用户快速生成专业品质的3D动画、渲染和模型工具。 5、增加新的艺术渲染器,可使用与360相同的光线追踪引擎,还可以渲染动画。       6、3dmax2020中的节点材质编辑器可通过从传统材质编辑器拣取样本球。        7、3dmax2020可以跟Arnold、V-Ray和Iray等许多渲染器搭配使用,从而创建出更加出色的场景和惊人的视觉效果       8、Chamfer修改器的改进,并且扩展了对OSL着色的支持,       1、3dmax2020可以跟Arnold、V-Ray和Iray等许多渲染器搭配使用,从而创建出更加出色的场景和惊人的视觉效果       2、Chamfer修改器的改进,并且扩展了对OSL 5、3dmax2020支持为游戏、建筑和产品设计创建极具想象力的角色和逼真的场景。       

    2.2K50编辑于 2022-10-20
  • 来自专栏毛利学Python

    yolov5模型转换NCNN模型部署

    写作原因:最近看了下nihui大佬的ncnn,练习着将yolov5训练的模型转换成ncnn模型并部署,同时借鉴了网上优秀的博文,记录一下,如有不对的地方,请多多指教。 说明:pytorch模型转换成onnx模型,及onnx模型简化和转ncnn模型在引用的文章中都有详细的说明,可移步至引用文章中查看。 图1 其实yolov5 v1-v5版本在训练完后,使用onnx2ncnn.exe将简化后的onnx模型转换成ncnn模型时主要出现这个问题。 V6版本在输出上和前5个版本有一点不同,这里针对1-5版本。 下面说下修改的是什么,这样就可以知道自己的模型应该修改哪里了。

    3.1K20编辑于 2022-09-22
  • 来自专栏光芯前沿

    新加坡New Silicon Corp. :GaN MicroLED+SiN光波导实现封装内光互连方案

    为突破这些限制,新硅公司(nsc)提出了一种基于大规模并行、封装内发光二极管(LED)的光互连方案——光学流式链接(OSL)。 OSL技术架构:低功耗高并行的光互连方案 OSL的核心定位是替代传统局部硅中介层,通过TSV微凸点实现与小芯片(如GPU和高带宽内存HBM)的直接连接。 同时,SiNₓ波导的间距可缩减至5微米以下,结合并行链路设计,有望实现超过2Tbps/mm的聚合带宽密度。 其关键性能指标明确:单通道数据速率超过12 Gbps,链路间距小于5um,聚合带宽密度超过2Tbps/mm,功耗低于0.5 pJ/bit,传输距离超过25mm。 3. 针对串扰性能的FDTD仿真结果表明,当相邻SiNₓ波导采用窄至2.5dB的间距(远小于5um的目标间距)时,对于约束良好的传输模式,串扰约为-44.17dB;即使是弱约束模式(最坏情况,因为波导光为所有允许模式的混合

    74921编辑于 2025-11-18
  • 来自专栏CreateAMind

    5篇生成模型相关 paper

    5 SEMANTIC INTERPOLATION IN IMPLICIT MODELS Yannic Kilcher, Aure ́lien Lucchi, Thomas Hofmann Department

    48010发布于 2018-07-24
  • 5种大模型Agent模式

    模型中的5种AI Agent模式在大模型中,AI Agent(人工智能代理)模式是一种重要的应用方式,可以从以下几个方面来理解:1. 在大模型的背景下,AI Agent 是基于大规模预训练模型(如 GPT 等)构建的智能代理,能够利用模型的语言理解和生成能力来完成复杂的任务。 智能性:它基于大模型的强大语言理解能力,能够理解自然语言指令,并生成自然语言响应。这种智能性使其能够处理复杂的语言任务,如对话、写作、翻译等。 下面介绍5种常见的AI Agent模式:1. 5. 多智能体模式(Multi-agent Pattern)正在上传图片...核心架构: 角色分工: 项目经理代理(PM agent):协调任务分配(Delegation)。

    4K10编辑于 2025-05-07
  • 来自专栏Java Porter

    5. Java内存模型JMM

    answer : JVM 定义了 JMM 用于屏蔽各种硬件与操作系统的内存访问差异,实现 JVM 跨平台达到一致的内存访问效果 Java 内存模型 JavaMemoryModel JMM (Java 内存模型 JavaMomary Model,简称 JMM), 本身是一种抽象的概念并不真实存在,仅仅描述了一组约定或规范,(本质) 通过这组规范定义了程序中(特别是多线程)各个变量的读写访问方式 某些情况下需要禁止指令重排序 多线程对变量的读写过程 读取过程 JVM 运行程序的实体是线程 每个线程创建时 JVM 都会为其创建工作内存(又称为栈空间) 工作内存是每个线程的私有数据区 Java 内存模型规定所有的变量均存储在主内存中 线程 A 执行 y=x 线程 B 执行 上述称之为:写后续 y 是否等于 5 呢? 如果线程 A 的操作(x=5)happens-before 线程 B 的操作(y=x),那么可以确定线程 B 执行后 y=5 必定成立 若不存在 heppens-before 原则,则 y=5 不一定成立

    26410编辑于 2024-03-09
  • 来自专栏图形学与OpenGL

    实验5 OpenGL模型视图变换

    由于模型和视图的变换都通过矩阵运算来实现,在进行变换前,应先设置当前操作的矩阵为“模型视图矩阵”。 注意:模型视图矩阵和投影矩阵都有相应的堆栈。使用glMatrixMode来指定当前操作的究竟是模型视图矩阵还是投影矩阵。 (1)视图变换函数gluLookAt(0.0,0.0,5.0,0.0,0.0,0.0,0.0,1.0,0.0,)设置照相机的位置 把照相机放在(0,0,5),镜头瞄准(0,0,0),朝上向量定为(0,1 % 360; glutPostRedisplay(); break; case 'Y': year = (year - 5) % 360; glutPostRedisplay(); break; case 5. 实验作业: (1)尝试在太阳系中增加一颗卫星,一颗行星。提示:使用glPushMatrix()和glPopMatrix()在适当的时候保存和恢复坐标系统的位置。

    2.2K30发布于 2018-10-09
  • 基于python部署paddleocrv5的onnx模型PPOCRv5模型部署源码+onnx模型+使用说明

    项目简介 本项目是 PaddleOCRv5 的 ONNX 版本实现,具有以下特点: 支持简体中文、繁体中文、中文拼音、英文和日文识别 无需深度学习训练框架,可直接部署使用 支持 ARM 和 x86 架构 项目提供两种模型版本: Mobile 版本(默认) 已包含在项目中,位于 onnxocr/models/ppocrv5 目录下 无需额外下载 Server 版本(推荐,效果更好,但是推理时间会变长 可以调整批处理大小来减少内存使用 识别效果不理想 尝试使用 Server 版本模型 确保图片清晰度足够 检查图片是否包含支持的语言类型 6. 性能优化建议 使用 GPU 版本可以获得更好的性能 对于批量处理,建议使用批处理模式 可以根据实际需求调整模型参数 对于特定场景,可以考虑使用模型量化来提升性能 7. 源码特点 使用PP-OCRv5 模型 支持 5 种文字类型识别 识别精度比v4及其版本提升 13% 与 PaddleOCR 3.0 精度保持一致

    2.2K10编辑于 2025-07-18
  • 来自专栏育种数据分析之放飞自我

    混合线性模型学习笔记5

    5. 所有可能的混线性模型分析这个数据 因此,我们要考虑数据的集群性质。与其像上面的SLiM中那样忽略聚类,不如考虑为每个人运行完全独立的回归。 5.9 Mixed Model 5b: Multivariate normal model ? 5.10 Mixed Model 6: Penalized regression ? ? # total n # parameters sigma = 1 # residual sd tau = .5 ASReml 4.1.0 Wed Apr 5 16:34:50 2020 LogLik Sigma2 DF wall cpu 1 -3817.282 1811.528 1.0 998 16:34:50 0.0 4 -1082.178 1.0 998 16:34:50 0.0 5

    1.6K10发布于 2020-05-14
  • 来自专栏罗西的思考

    Facebook如何训练超大模型--- (5)

    [源码分析] Facebook如何训练超大模型--- (5) 目录 [源码分析] Facebook如何训练超大模型--- (5) 0x00 摘要 0x01 背景 0x02 思路 2.1 学习建议 2.2 ---(1) [源码分析] Facebook如何训练超大模型 --- (2) [源码分析] Facebook如何训练超大模型 --- (3) [源码分析] Facebook如何训练超大模型---(4) x = torch.Tensor([[1,2,3]]) y = torch.Tensor([[4,5,6], [7,8,9], [10,11,12]]) z = torch.cat((x,y), dim ], [10., 11., 12.]]) torch.Size([4, 3]) # chunk之后的输出 (tensor([[1., 2., 3.]]), tensor([[4., 5. Language Model Training on GPU Clusters Using Megatron-LM.” arXiv preprint arXiv:2104.04473 (2021). [5]

    1.6K10编辑于 2022-11-28
  • 基于winform部署PP-OCRv5的推理模型paddleocrv5模型部署

    编译并运行(F5)。 若需在 Release 下运行,可将 Debug 文件夹内所有文件复制到 Release 文件夹。 操作步骤 启动程序后,点击"选择图片"按钮,选择待识别的图片文件。

    45600编辑于 2025-07-22
  • 来自专栏HarmonyOS知识集合

    【HarmonyOS 5】鸿蒙中Stage模型与FA模型详解

    一、前言在HarmonyOS 5的应用开发模型中,featureAbility是旧版FA模型(Feature Ability)的用法,Stage模型已采用全新的应用架构,推荐使用组件化的上下文获取方式, 当初我在开发OpenHarmony的时候,最早用的就是FA模型,正是因为FA模型在开发过程中的诸多不方便,大概在API8时,官方推出了Stage模型,进行初步替代。 Stage模型,见名知意,是在系统提供的舞台容器上,进行应用的开发。整理更新的低耦合,高内聚。应用进程的管理也更加合理高效。本文主要针对Stage模型与FA模型的区别。 以及Stage模型如何获取上下文作出讲解。二、Stage模型与FA模型的核心区别下面的表格是官方文档的信息梳理,建议针对FA模型有大概了解即可。重点关注Stage模型的内容。 featureAbility.getContext() 生命周期管理 基于UIAbility的生命周期回调(onCreate/onDestroy)基于FeatureAbility的生命周期 在HarmonyOS 5

    46200编辑于 2025-06-14
  • 来自专栏Linux成长之路

    【Docker项目实战】使用Docker部署our-shopping-list购物清单工具

    一、our-shopping-list介绍1.1 our-shopping-list简介OSL (Our Shopping List)是一个简单的共享列表应用程序。 pull nanawel/our-shopping-list五、部署our-shopping-list应用5.1 创建部署目录创建部署目录/data/dockermkdir -p /data/docker/osl version: '3.2'services: app: image: nanawel/our-shopping-list container_name: osl# command: environment: LISTEN_PORT: 8080 MONGODB_HOST: mongodb MONGODB_PORT: 27017 MONGODB_DB: osl 1.1s ⠿ Container osl

    63610编辑于 2024-04-25
  • 来自专栏存储公众号:王知鱼

    揭秘 NVIDIA Dynamo:分布式AI推理的高效引擎

    在NVIDIA Hopper GPU上运行Llama 70B模型时,其性能提升超过两倍。 左:TensorRT-LLM,FP4,ISL/OSL(输入/输出):32K/8K。 二、序列长度配置 ISL/OSL:3K/50 ISL(Input Sequence Length):输入序列最大长度(3K = 3000 tokens)。 OSL(Output Sequence Length):输出序列最大长度(50 tokens)。 作用: 控制上下文窗口大小,直接影响显存占用(序列越长,显存需求越高)。 图5. NVIDIA Dynamo智能路由避免KV缓存重新计算,加速模型响应并提升用户体验 2x HGX-H100节点。8x DeepSeek-R1-Distill-Llama-70B。 AI Models Mar 18, 2025 By Amr Elmeleegy[1], Harry Kim[2], David Zier[3], Kyle Kranen[4], Neelay Shah[5]

    3.6K10编辑于 2025-03-29
  • 来自专栏机器学习

    【sklearn | 5】:集成学习与模型解释

    本篇教程将专注于集成学习和模型解释,这两者在提高模型性能和理解模型行为方面非常重要。集成学习集成学习通过结合多个基学习器来提高模型的性能和稳定性。 袋装法(Bagging)袋装法通过在训练集中进行随机采样并训练多个模型,然后对这些模型的预测结果进行平均或投票,以提高整体性能和减少过拟合。 accuracy_score(y_test, y_pred)print(f"Accuracy: {accuracy}")print(classification_report(y_test, y_pred))模型解释模型解释是理解和解释机器学习模型输出的过程 对于复杂的模型模型解释可以帮助识别重要特征、检测潜在的偏差和提高模型的透明度。 集成学习包括袋装法、提升法和堆叠法,模型解释涵盖了特征重要性分析、部分依赖图和 SHAP 值。这些技术和方法可以帮助你构建更强大的模型,并更好地理解模型的行为,从而提高模型的可信度和可解释性。

    67521编辑于 2024-07-24
  • 来自专栏人人都是极客

    5.训练模型之利用训练的模型识别物体

    导出训练结果导出为可用作推导的模型文件。 导出模型文件 大约 6 个小时以后,模型就训练好了。这个时候可以把训练文件夹打包下载到我们的笔记本上面,然后关闭和终止训练主机,这样就不再计费了。 把这个模型导入到《物体识别》系列课程中的 Android App中,检验一下识别效果: ? 效果还不错, 可以在后台回复“熊猫模型”发送给你模型文件。 可能有人会问,我们用一个可以识别很多其他物体的模型做转移学习,训练出来了一个可以识别熊猫的模型,那么训练出来模型是不是也可以识别其他物体呢。 答案是否定的,你不能通过转移学习向一个已经训练好的识别模型里面增加可识别的物体,只能通过转移学习来加速你自己模型的训练速度。

    2.1K40发布于 2018-04-08
  • 来自专栏用户12399043的专栏

    YOLOv5模型训练流程说明

    一、模型训练流程概述YOLOv5 是一种常见的目标检测模型,在实际应用中,其训练过程通常涉及多个阶段,包括数据处理、模型训练与结果验证等环节。 /dataset/images/val nc: 2 names: ['cat', 'dog']该配置文件用于描述:数据路径类别数量类别名称五、模型选择(Model Selection)YOLOv5提供多种规模的模型结构 ,不同模型在计算资源消耗与性能表现上有所差异:模型特点yolov5s结构较轻,计算量较小yolov5m综合性能平衡yolov5l参数较多,检测能力较强yolov5x模型规模较大实际选择通常与计算资源条件和应用需求相关 python train.py --data data.yaml --weights yolov5s.pt --epochs 100常见训练过程中涉及的参数包括:预训练权重 十、总结YOLOv5模型训练过程通常涉及数据准备、模型训练以及结果验证等多个环节。模型性能通常受到数据质量、模型结构以及训练参数等因素的综合影响。

    10610编辑于 2026-04-13
  • 来自专栏机器学习算法与Python学习

    机器学习(5) -- 模型评估与选择

    因此,我们的参数向量θ5在拟合测试集时的结果很可能导致一个比实际泛化误差更完美的预测结果。换言之,我们是找了一个最能拟合测试集的参数d,因此我再用测试集来评价我们的模型就显得不公平了。 Pick the hypothesis with the lowest cross validation error. e.g. pick θ5 4. 与多项式次数与误差类似,我们可以画出λ与误差的函数关系,如图6-5所示 ? 图6-5 λ与误差的关系 6.5 学习曲线(Learning Curves) 有时我们需要检查学习算法运行是否一切正常,或者希望改进算法的表现或效果,那么学习曲线(Learning Curves)就是一种很好的工具 学习曲线和图6-5类似,它们的区别在于学习曲线是以训练集的大小m为横坐标。纵坐标仍然是训练集误差Jtrain和交叉检验误差Jcv。

    96150发布于 2018-04-04
  • winform部署yolov5-onnx模型

    【官方框架地址】 https://github.com/ultralytics/yolov5 【算法介绍】 Yolov5,全称为You Only Look Once version 5,是计算机视觉领域目标检测算法的一个里程碑式模型模型由ultralytics团队开发,并因其简洁高效的特点而备受关注。Yolov5在保留了前代模型(Yolov3)优点的同时,进一步优化了网络结构,提高了检测速度和准确率。 相较于前代模型,Yolov5在训练过程中采用了许多优化策略,如数据增强、学习率衰减、知识蒸馏等,进一步提高了模型的性能。 此外,Yolov5还支持多任务学习(Multi-task Learning),可以在同一模型中同时进行目标检测、实例分割和关键点检测等任务,提高了模型的泛化能力。 此外,由于Yolov5的简洁高效特点,该模型在移动设备、嵌入式系统等领域也有着广泛的应用前景。 总的来说,Yolov5是计算机视觉领域目标检测算法的一个重要进展。

    44510编辑于 2025-07-17
  • 来自专栏图形学与OpenGL

    CG实验5 简单光照明模型

    1.实验目的和要求 目的:了解简单光照明模型的基本原理,掌握简单光照明模型的计算方法; 要求:读懂WebGL光照示范代码,实现简单物体的光照效果。 2. 结合示范代码,学习掌握简单光照明模型的基本原理与实现; (2) 修改示范代码,给出不同光照参数和立方体位置,观察与验证光照效果; (3) 示范代码仅有漫反射光的光照效果,请尝试为其添加环境反射光和镜面反射光效果 4.实验分析 简单光照明模型指的是物体表面上一点P反射到视点的光强I为环境光的反射光强IeIeI_{e}、理想漫反射光强IdIdI_{d}、和镜面反射光IsIsI_{s}的总和,即 I=Ie+Id 在用Phong模型进行真实感图形计算时,对物体表面上的每个点P,均需计算光线的反射方向R,再由V计算(R⋅V)(R⋅V)(R \cdot V)。 right 1.0, 1.0, 1.0, 1.0, 1.0,-1.0, -1.0, 1.0,-1.0, -1.0, 1.0, 1.0, // v0-v5-v6-v1 up -

    1.2K30发布于 2018-10-09
领券