首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏算法与数据之美

    图像增强:灰度变换(Python实现)

    Power-law transformation 指数变换可以做到扩展或者压缩灰度的作用。指数小于1时,作用与对数变换相似,将低亮度区域拉伸,变得更亮。 ?

    2.6K30发布于 2020-05-16
  • 来自专栏机器之心

    GPT超越扩散、视觉生成Scaling Law时刻!北大&字节提出VAR范式

    此外,对于视觉生成领域是否存在「Scaling Law 缩放定律」仍未知,即测试集损失是否随模型或训练开销增长而呈现出可预测的幂律 (Power-law) 下降趋势仍待探索。 相关研究已经确定,在 Scale up 自回归大型语言模型过程中,测试集上的交叉熵损失 L,会随着模型参数量 N、训练 token 个数 T,以及计算开销 Cmin 进行可预测的降低,呈现出幂律(Power-law

    44210编辑于 2024-04-13
  • 来自专栏新智元

    20亿参数+30亿张图像,刷新ImageNet最高分!谷歌大脑华人研究员领衔发布最强Transformer

    研究人员随后训练了多个更微型的模型版本,以寻找架构的缩放规律(scaling law),结果观察到性能遵循幂律函数(power-law function),类似于用于NLP的Transformer模型。

    64320发布于 2021-07-06
  • 来自专栏机器之心

    AAAI 2018 | 浙江大学提出设计网络嵌入算法的度惩罚原则,可有效保留无标度特性

    我们尝试从理论上分析和理解这一点,并研究通过把我们的问题转化为高维球体填充问题(Sphere-Packing Problem),在欧氏空间中恢复幂律分布(power-law distributed)顶点度的可行性

    1.1K60发布于 2018-05-10
  • 来自专栏LLM - 可解释性

    [论文速递] LLM/Attention的引力场是存在的

    它与香农熵/Huffman 编码等原理类似,源于人们对 语言高效性、简洁性,用最小字数表达最大信息量事件的习惯,也与可靠性增长问题、学习曲线的底层原理比较一致,也与二八定律、马太效应这些典型场景一致,都符合Power-Law 既然我们认为 PASL 应该属于Power-Law 问题,那为何在本文的测试中,基于指数形式的函数拟合也能取得很好的结果呢? 包括在 KEPPLE 论文中, KEPPLE-log(其实就是Power-Law) 的表现虽然全面优于 KEPPLE-power(其实是指数形式),但优势其实比较微弱,这又是为何? 即我们猜测认为,Power-Law 更忠实于PASL 问题, 而指数函数对PASL的拟合可能没有那么精准、但差异大比较的尾部数据对最终计算造不成影响,甚至于它对尾部数据做的额外抑制、使其更适合后续Attention-score 所以,AGF 是 PASL 问题呈现 Power-Law 表象的更底层原因。

    20110编辑于 2026-03-06
  • 来自专栏用户8870853的专栏

    复杂网络基本概念

    现实生活的复杂网络一般服从幂律分布(Power-law Distribution),幂律分布衰减慢很多,所以会有部分节点有较大的度。因为幂律分布与特定的标度无关,所以这样的网络也称之为无标度网络。

    1.7K21发布于 2021-07-27
  • 来自专栏后端开发你必须学会的干货

    Redis的过期键删除策略和数据逐出策略

    通用规则如下: 如果期望用户请求呈现幂律分布(power-law distribution),也就是,期望一部分子集元素被访问得远比其他元素多时,可以使用allkeys-lru策略。

    1.9K50发布于 2019-08-16
  • 来自专栏图数据库

    WeGraphDB: 微信自研超大规模图数据库

    1.图普遍具有power-law分布特性,少数点连接了多数的边。 2.n跳查询会n次方恶化8-2原则,让系统变得极不稳定。

    3.1K1090发布于 2021-11-10
  • 来自专栏全栈程序员必看

    伽马校正_液晶电视伽马校正

    这种特性称为幂-律(power-law)转换特性。按照惯例,”输入”和”输出”都缩放到0~1之间。其中,0表示黑电平(黑电平指在经过一定校准的显示装置上,没有一行光亮输出的视频信号电平。

    1.6K61编辑于 2022-11-10
  • 来自专栏技术那些事

    Redis淘汰机制+热点数据问题

    淘汰策略选择 根据使用经验, 一般来说回收策略可以这样来配置: allkeys-lru:如果期望用户请求呈现幂律分布(power-law distribution),也就是,期望一部分子集元素被访问得远比其他元素多时

    1.1K20发布于 2020-03-25
  • 来自专栏机器学习与推荐算法

    KDD2022推荐系统论文集锦(附pdf下载)

    Chinese University of Hong Kong) https://arxiv.org/abs/2207.09051 Considering the prevalence of the power-law hyperbolic recommendation lies in that its exponentially increasing capacity is well-suited to describe the power-law

    77020编辑于 2022-10-31
  • 来自专栏机器之心

    大模型量化训练极限在哪?腾讯混元提出低比特浮点数训练Scaling Laws

    那么在限定资源下,通过求解方程组: 可以得出一个符合经典幂律关系(Power-law)的最佳性价比精度配方: 根据实验结果推算,在一个非常大的算力范围内,理论预测的最佳性价比落在 4-8 比特之间。

    45000编辑于 2025-02-03
  • 来自专栏生信技能树

    ​cytoscape的十大插件之五--Centiscape(计算多个中心值)

    指向临近点时,其数目成为 out-degree 作用: 判断网络的分布 如呈高斯分布(Gaussian distribution ),证明网络没有高度集中的节点,此为随机,非自然的网络 如呈幂律度分布(power-law

    9K63发布于 2021-05-27
  • 来自专栏自然语言处理

    【LLM系列之LLaMA】LLaMA: Open and Efficient Foundation Language Models

    最主要的发现: 性能主要与模型大小相关,而与模型结构弱相关 性能与上面三个因素有比较贴合的power-law关系 从实验来看,模型越大越好,小模型确实达不到大模型大力出奇迹的效果,而模型结构也并没有那么重要

    1.4K21编辑于 2023-08-25
  • 来自专栏机器学习与推荐算法

    论文周报 | 推荐系统领域最新研究进展,含SIGIR、AAAI、CIKM等顶会论文

    Collaborative Graph for Recommendation Lu Zhang, Ning Wu https://arxiv.org/abs/2304.02961 Due to the naturally power-law

    73110编辑于 2023-08-22
  • 来自专栏集智书童

    最强Transformer | 太顶流!Scaling ViT将ImageNet Top-1 Acc刷到90.45%啦!!!

    2.2 Double-saturating power law 对于超过2个数量级的计算,计算和性能之间的关系遵循power-law( ),在log-log图上形成一条直线。

    1.9K40发布于 2021-07-07
  • 来自专栏CreateAMind

    分层网络结构作为生物系统分层的动力学

    Hierarchical network structure as the source of hierarchical dynamics (power-law frequency spectra) in Personality Personality development States Traits State-trait continuum Pink noise 1/f noise Zipf’s law Power-law On the functional significance of power-law dynamics in living systems 关于生物系统中幂律动力学的功能意义 幂律频率分布的普遍存在引发了对其功能意义的问题 Explaining power-law frequency distributions in the timeseries of living systems 为了解释幂律频率分布(即系统动态)如图 Explaining changes in power-law frequency spectra during development, task performance,stress and disease

    77110编辑于 2024-01-17
  • 来自专栏自然语言处理(NLP)论文速递

    特别详细!大模型的网络优化:超参最佳实践与规模律

    L 与 成幂律分布(Power-law),即 。 这里 指的是在给定 下的最佳性能,即最低的损失值。该规律的前提条件是不受另外两个因素制约。

    2.4K10编辑于 2023-12-12
  • 来自专栏算法进阶

    大规模神经网络调参及优化规律

    L 与 成幂律分布(Power-law),即 。 这里 指的是在给定 下的最佳性能,即最低的损失值。该规律的前提条件是不受另外两个因素制约。

    73310编辑于 2023-12-13
  • 来自专栏程序萌部落

    图布局算法的发展

    Visualisation of power-law network topologies[C]// The 11th IEEE International Conference on Networks

    2.5K30发布于 2019-08-08
领券