首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CNNer

    【SLAM】开源 | 北大&谷歌--提出了一种用于立体视觉惯性里程计估计的新型SLAM框架,性能SOTA!

    论文地址: http://arxiv.org/pdf/2009.12662v1.pdf 代码: https://github.com/lixin97/co-planar-parametrization. 来源: 北京大学,慕尼黑工业大学,谷歌 论文名称:Co-Planar Parametrization for Stereo-SLAM and Visual-Inertial Odometry 原文作者:

    83920发布于 2020-11-11
  • 来自专栏用户2442861的专栏

    python format 使用 技巧

    , new style formatting allows all of the components of the format to be specified dynamically using parametrization Old style formatting also supports some parametrization but is much more limited. Namely it only allows parametrization of the width and precision of the output.

    1.7K20发布于 2018-09-19
  • 来自专栏信数据得永生

    PyTorch 2.2 中文官方教程(十四)

    一旦我们有了这个,我们可以通过以下方式将任何常规层转换为对称层 layer = nn.Linear(3, 3) parametrize.register_parametrization(layer, " 每当我们请求layer.weight时,此属性会计算parametrization(weight),就像我们在上面的LinearSymmetric实现中所做的那样。 layer = nn.Linear(3, 3) print(f"Unparametrized:\n{layer}") parametrize.register_parametrization(layer (layer_orthogonal, "weight", Skew()) parametrize.register_parametrization(layer_orthogonal, "weight", (layer_orthogonal, "weight", Skew()) parametrize.register_parametrization(layer_orthogonal, "weight",

    1K10编辑于 2024-02-05
  • 来自专栏一个会写诗的程序员的博客

    【讲解清晰生动,深入浅出,通俗易懂】什么是测地线(geodesic)?

    微积分里面的术语叫parametrization(参数化),先不做过多讲解。当把曲面参数化成二维面之后,我们可以通过微积分求导,最后把二维重新转回三维。

    2.4K10发布于 2020-11-03
  • 来自专栏机器之心

    CVPR 2019 | 一个高阶张量搞定整个全卷积网络

    有证据表明,这些方法成功背后的关键特征是过度参数化(over-parametrization),其有助于找出良好的局部最小值。 此外,通过将一个低秩结构强加于张量,这种参数化(parametrization)可以隐式地正则化整个网络,大幅减少参数数量。

    763100发布于 2019-05-17
  • 来自专栏CreateAMind

    paper:Multi-Level Discovery of Deep Options

    decoupling of low-level option discovery from high-level meta-control policy learning, facilitated by under-parametrization

    50910发布于 2018-07-20
  • 来自专栏DeepHub IMBA

    DeepCluster:用于表示视觉特征的无监督学习聚类算法

    Trivial parametrization 在聚类中Trivial parametrization的含义为大量的数据被聚类到少量的几类上,我也不知道中文翻译成什么,所以就直接写英文了。

    2.1K30发布于 2021-10-09
  • 来自专栏巴山学长

    matlab封闭曲线拟合 (针对一些列离散点)

    used to: (i) return the fit itself; (ii) interpolate values within the curve using an arc-length parametrization

    2.3K10编辑于 2022-04-27
  • 来自专栏半杯茶的小酒杯

    从零开始学习自动驾驶系统(六)-Error State卡尔曼滤波

    ., it has the same number of parameters as degrees of freedom), avoiding issues related to over-parametrization

    1.2K20编辑于 2022-04-28
  • 来自专栏机器之心

    单个GPU无法训练GPT-3,但有了这个,你能调优超参数了

    最近,有研究 [54] 表明不同的神经网络参数化会导致不同的无限宽度限制(infinitewidth limits),他们提出了最大更新参数化(Maximal Update Parametrization 相比之下,虽然标准参数化 (standard parametrization,SP) 在初始化时保证了激活是单位顺序的,但实际上在训练 [54] 时,由于每层学习率的不平衡,导致激活在宽模型中爆炸。

    1.2K50编辑于 2022-03-09
  • 来自专栏大数据文摘

    单个GPU也能训练GPT-3!快来看看HP调优新范式吧!

    最近,有研究表明不同的神经网络参数化会导致不同的无限宽度极限(infinite-width limits),他们提出了最大更新参数化(Maximal Update Parametrization,µP) 相比之下,虽然标准参数化 (standard parametrization,SP) 在初始化时保证了激活的一致性,但实际上在训练时,由于每层学习率的不平衡,导致激活在宽模型中爆炸。

    1.2K30编辑于 2022-04-11
  • 来自专栏相约机器人

    微软最新机器学习研究引入 μTransfer:一种新技术,仅使用 7% 的预训练计算即可调整 67 亿参数的 GPT-3 模型

    使用的 µ-Parametrization是一种在无限宽度限制内学习所有特征的独特方法。研究人员与 OpenAI 团队合作,测试该方法在各种实际案例中的实际效益。

    1K40编辑于 2022-04-14
  • 来自专栏机器学习、深度学习

    重温目标检测--YOLO v2 -- YOLO9000

    the image, regardless of what locationpredictedthebox Since we constrain the location prediction the parametrization

    73120发布于 2019-05-27
  • 来自专栏大数据文摘

    你还在纠结单个GPU怎么训练GPT-3吗?快来看看HP调优新范式吧!

    最近,有研究表明不同的神经网络参数化会导致不同的无限宽度极限(infinite-width limits),他们提出了最大更新参数化(Maximal Update Parametrization,µP) 相比之下,虽然标准参数化 (standard parametrization,SP) 在初始化时保证了激活的一致性,但实际上在训练时,由于每层学习率的不平衡,导致激活在宽模型中爆炸。

    93310编辑于 2022-05-12
  • 来自专栏量子位

    单张GPU搞定GPT-3超参数!先训练小模型,再“一键迁移” | 已开源

    在一个GPU上调参GPT-3大模型 方法名叫muP (Maximal Update Parametrization),作者分别来自微软和OpenAI。

    89010编辑于 2022-03-14
  • 来自专栏机器之心

    李飞飞团队新作:AI透视眼,穿越障碍看清你,渲染遮挡人体有新突破了

    为此,该研究采用场景自分解技术,在倒球参数化(inverted sphere parametrization)的基础上,提出了遮挡感知场景参数化。

    52310编辑于 2024-01-04
  • 来自专栏新智元

    普林斯顿大学教授:用理论的力量横扫深度学习(77PPT)

    过度参数化(over-parametrization)和泛化(generalization)理论 教科书中说:大型模型会导致过拟合 ?

    58000发布于 2018-07-31
  • 来自专栏码匠的流水账

    聊聊flink的StateDescriptor

    Serializer initialization is lazy, * to allow parametrization of serializers with an {@link ExecutionConfig

    1.6K10发布于 2018-12-23
  • 来自专栏机器之心

    人民大学&字节Seed:利用μP实现Diffusion Transformers高效扩展

    https://github.com/ML-GSAI/Scaling-Diffusion-Transformers-muP μP的背景和问题 μP全称为最大更新参数化(Maximal Update Parametrization

    30500编辑于 2025-06-28
  • 来自专栏机器之心

    学界 | 牛津大学提出神经网络新训练法:用低秩结构增强网络压缩和对抗稳健性

    可以认为,修正后的训练过程能够防止神经网络出现过度参数化(over-parametrization),不过使用了和目前普遍的稀疏性诱导方法(如 Anwar et al. (2017); Wen et al

    53950发布于 2018-06-08
领券