首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI科技大本营的专栏

    GitHub超全机器学习工程师成长路线图,开源两日收获3700+Star!

    Google Crash 教程中可以找到: 梯度下降: https://developers.google.com/machine-learning/crash-course/reducing-loss/gradient-descent

    62130发布于 2019-05-06
  • 来自专栏CDA数据分析师

    GitHub超全机器学习工程师成长路线图,开源两日收获3700+Star!

    Google Crash 教程中可以找到: 梯度下降: https://developers.google.com/machine-learning/crash-course/reducing-loss/gradient-descent

    63720发布于 2019-05-09
  • 来自专栏新智元

    Hinton《机器学习中使用的神经网络》课程亮点总结

    再次,它们的公式与你的标准方法(例如 backprop 和 gradient-descent)完全不同。但学习它们能给你广度,让你思考是否标准的方法就是正确的方法。 那么这门课好吗? 当然!

    1K100发布于 2018-03-27
  • 来自专栏nobody

    【3blue1brown神经网络教程】第二章:梯度下降(Gradient descent),神经网络如何学习

    翻译自:https://www.3blue1brown.com/lessons/gradient-descent

    49910编辑于 2025-04-10
  • 来自专栏arXiv每日学术速递

    统计学学术速递[8.20]

    the agents can solve this problem by collaborating with the server using the traditional distributed gradient-descent However, when the aggregate cost is ill-conditioned, the gradient-descent method (i) requires a large algorithm converges linearly with an improved rate of convergence than the traditional and adaptive gradient-descent

    79410发布于 2021-08-24
  • 来自专栏社区的朋友们

    个性化资讯推荐算法 (上)

    本文优化目标是基于贝叶斯理论推导出来的最大化后验概率(maximum-a-posteriori, MAP),而优化方法则采用熟知的梯度下降法(gradient-descent, GD)。

    5.2K10发布于 2017-07-10
  • 来自专栏PPV课数据科学社区

    为你分享73篇论文解决深度强化学习的18个关键问题

    Fast gradient-descent methods for temporal-difference learning with linear function approximation.

    1.3K20发布于 2018-07-24
  • 来自专栏AI研习社

    今日头条成功的核心技术秘诀是什么?

    本文优化目标是基于贝叶斯理论推导出来的最大化后验概率(maximum-a-posteriori, MAP),而优化方法则采用熟知的梯度下降法(gradient-descent, GD)。

    2.8K40发布于 2018-03-19
  • 来自专栏数据派THU

    为你分享73篇论文解决深度强化学习的18个关键问题

    Fast gradient-descent methods for temporal-difference learning with linear function approximation.

    1.1K91发布于 2018-01-29
  • 来自专栏CSDN技术头条

    深度解密今日头条的个性化资讯推荐技术

    本文优化目标是基于贝叶斯理论推导出来的最大化后验概率(maximum-a-posteriori, MAP),而优化方法则采用熟知的梯度下降法(gradient-descent, GD)。

    2.5K60发布于 2018-02-13
  • 来自专栏arXiv每日学术速递

    机器学习学术速递[7.28]

    In this paper, we develop a novel Accelerated Gradient-descent Multiple Access (AGMA) algorithm that

    1.6K40发布于 2021-07-29
  • 来自专栏arXiv每日学术速递

    机器学习学术速递[6.23]

    摘要:With leveraging the weight-sharing and continuous relaxation to enable gradient-descent to alternately

    2.1K20发布于 2021-07-02
领券