首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏图像处理与模式识别研究所

    gradient滤波

    Gradient filter. US. Yang, L. , Hwang, S. M. , Zhuang, Q. , Lu, J. , & Chang, S. L. . (2010). Using conjugate gradient method to calculate filter coefficient for time domain equalizer.[1]Geerten An adjustable gradient filter for volume visualization image enhancement. Rotation therapy using a novel high-gradient filter. Radiology, 145(2), 473-478. Adaptive exponent smoothing gradient algorithm.

    41320编辑于 2022-05-29
  • 来自专栏mathor

    Gradient Descent

    在你测试集上,通过最小化代价函数$J(\omega,b)$来训练参数$\omega$和$b$

    39810发布于 2019-12-30
  • 来自专栏Echo is learning

    Gradient Descent

    \frac {1}{m} \sum_{i=1}^m ((h_\theta(x_i)-y_i)x_i)$                                        } batch gradient descent 以上:在每一步更新参数时,让所有的训练样本都参与更新的做法,称为batch gradient descent; 注意到:虽然梯度下降算法可能会陷入局部最优的情况,但是在线性回归中不存在这种问题

    43130发布于 2018-06-20
  • 来自专栏小狐狸说事

    CSS Gradient

    CSS Gradient ---- 网站介绍 如果你经常要用到渐变,那么你一点会喜欢 CSS Gradient。我已经用了很长时间,非常完美。 而且你还可以在CSS Gradient上获得一些工具,比如渐变按钮等等。

    33620编辑于 2022-11-17
  • 来自专栏AngelNI

    Gradient Descent

    Gradient Descent 相关概念 1.步长或学习效率(learning rare):步长决定在梯度下降过程中,每一步沿梯度负方向前进的距离。 梯度下降的形式BGD、SGD、以及MBGD 三种算法中文名分别为 批量梯度下降(Batch gradient descent) 批量梯度下降法(Batch Gradient Descent,简称BGD) 随机梯度下降(Stochastic gradient descent) 随机梯度下降是通过每个样本来迭代更新一次, 如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta 小批量梯度下降(Mini-batch gradient descent) 有上述的两种梯度下降法可以看出,其各自均有优缺点,那么能不能在两种方法的性能之间取得一个折衷呢? 即,算法的训练过程比较快,而且也要保证最终参数训练的准确率,而这正是小批量梯度下降法(Mini-batch Gradient Descent,简称MBGD)的初衷。

    66710发布于 2020-04-15
  • 来自专栏从流域到海域

    Policy Gradient 算法

    本文链接:https://blog.csdn.net/Solo95/article/details/103302108 常见的policy gradient算法,写出来挺简单的,但是有一个复杂的推导过程 Vanilla Policy Gradient Algorithm ? GtiG_t^iGti​可以是TD estimate、bootsrap,也可以是简单的从t开始的reward。 ?

    82030发布于 2019-12-02
  • 来自专栏计算机视觉漫谈

    Policy Gradient实战

    目录 1.前言2.算法2.1算法主循环2.2 Policy Gradient部分3. 结果分析 1.前言 今天利用上篇文章讲解的Policy Gradient理论进行实战,背景仍然是杆子不倒游戏和小车登顶游戏。 ? ? 在屏幕上显示模拟窗口会拖慢运行速度,我们等计算机学的差不多了再进行模拟 7 8env = gym.make('CartPole-v0') 9env.seed(1) # 普通的Policy gradient 54 plt.show() 55 break 56 57 observation = observation_ 2.2 Policy Gradient 结果分析 我们来看看vt的输出,看看他是怎么诱导我们的gradient descent。 ?

    82440发布于 2020-05-31
  • 来自专栏用户7873631的专栏

    移动端的(-webkit-linear-gradient -webkit-radial-gradient)

    200px; position: absolute;left: 0;top: 0;right: 0;bottom: 0;margin: auto;background: -webkit-linear-gradient javascript"> var deg=45; setInterval(function() { deg++; div1.style.background='-webkit-linear-gradient 200px; position: absolute;left: 0;top: 0;right: 0;bottom: 0;margin: auto;background: -webkit-radial-gradient javascript"> var deg=0; setInterval(function() { deg++; div1.style.background='-webkit-radial-gradient

    67120发布于 2020-10-28
  • 来自专栏漫漫深度学习路

    Learning to Learn by Gradient Descent by Gradient Descent网络前向计算图

    Learning to Learn By Gradient Descent by Gradient Descent 前向计算图(黄色线表示梯度流动方向) ?

    77730发布于 2019-08-29
  • 来自专栏漫漫深度学习路

    pytorch学习笔记(二):gradient

    gradient 在BP的时候,pytorch是将Variable的梯度放在Variable对象中的,我们随时都可以使用Variable.grad得到对应Variable的grad。 net.parameters(), lr = 0.01) # in your training loop: for i in range(steps): optimizer.zero_grad() # zero the gradient 关于 backward() backward(gradient=None, retain_variables=False) 参数: gradient (Tensor) – Gradient of Required only if the data has more than one element z.backward(gradient=grads) 上面代码应该怎么解释呢?

    1.3K80发布于 2018-01-02
  • 来自专栏用户7873631的专栏

    详解:50 deg-gradient

    :linear-gradient(90deg,red,green);} .box4{background-image:linear-gradient(135deg,red,green); {background-image:linear-gradient(315deg,red,green);} .box9{background-image:linear-gradient( background-image:linear-gradient(-45deg,red,green);} .box12{background-image:linear-gradient( {background-image:linear-gradient(-180deg,red,green);} .box15{background-image:linear-gradient {background-image:linear-gradient(-315deg,red,green);} .box18{background-image:linear-gradient

    37010发布于 2020-10-28
  • 来自专栏用户7873631的专栏

    详解:49 linear gradient

    (to top,black,red); } .box2 { background-image: linear-gradient(to right,black,red); } .box3 { background-image:linear-gradient(to bottom,black,red); } .box4{ background-image:linear-gradient(to left,black ,red); } .box5{ background-image:linear-gradient(to top left,black,red); :linear-gradient(to right top,black,red); } .box12{ background-image:linear-gradient

    42220发布于 2020-10-28
  • 来自专栏mathor

    Typical Loss and its gradient

    常用的norm有L1-norm,L2-norm即L1,L2范数。那么问题来了,什么是范数?

    50410发布于 2019-12-31
  • 来自专栏从流域到海域

    Policy Gradient - 策略梯度

    策略梯度(Policy Gradient) 在一个包含Actor、Env、Reward Function的强化学习的情景中,Env和Reward Function是你所不能控制的。

    81120发布于 2019-08-29
  • 来自专栏计算机视觉理论及其实现

    clip_gradient_norms()

    def clip_gradient_norms(gradients_to_variables, max_norm): clipped_grads_and_vars = [] for grad, var

    1.2K20编辑于 2022-09-04
  • 来自专栏计算机视觉理论及其实现

    tf.stop_gradient

    原链接: https://tensorflow.google.cn/versions/r1.11/api_docs/python/tf/stop_gradient?hl=en

    2.3K40编辑于 2022-09-04
  • 来自专栏计算机视觉理论及其实现

    torch(五)、Locally disabling gradient computation

    ), torch.enable_grad(), and torch.set_grad_enabled() are helpful for locally disabling and enabling gradient See Locally disabling gradient computation for more details on their usage.

    49630编辑于 2022-09-03
  • 来自专栏机器学习实践二三事

    GBDT(Gradient Boosting Decision Tree)

    从上面我们可以看出Boosting和Bagging的区别,通过Gradient Boosting算法引入Bagging的思想,加上正则项,使得模型具有比一般Boosting算法(比如Adaboost)更强的 Gradient Boosting Boosting更像是一种思想, gradient boosting是一种boosting的方法. Gradient Boosting是boosting思想下的一种优化的方法,首先将函数分解为可加的形式(其实所有的函数都是可加的,只是是否好放在这个框架中,以及最终的效果如何),然后进行m次迭代,通过使得损失函数在梯度方向上减少 GBDT算法原理解析 3. gradient boosting解析 4.

    3.3K70发布于 2018-01-02
  • 来自专栏柠檬先生

    css3 gradient 渐变

    分为linear-gradient(线性渐变)和radial-gradient(径向渐变)。 例如:   background: -moz-linear-gradient( top,#ccc,#000); 2.线性渐变在Webkit下的应用   语法:-webkit-linear-gradient :-webkit-linear-gradient(top,#ccc,#000); 3.线性渐变在Oper 下的应用:   语法:-o-linear-gradient([<point> || <angle f96);   background: -webkit-linear-gradient(left top, #ace, #f96);   background: -o-linear-gradient -o-linear-gradient(30deg, #ace, #f96);

    90860发布于 2018-01-19
  • 来自专栏用户7873631的专栏

    详解:53 radial-gradient

    : 200px; border:5px solid gray; margin:30px auto; } .box1 { background-image: radial-gradient (ellipse,yellow,red); } .box2 { background-image: radial-gradient(circle,yellow,red); } : radial-gradient(50px 100px at 0px 100px,yellow,red); } .box5 { background-image: radial-gradient 50%,yellow,red); } .box7 { background-image: radial-gradient(150px 100px at 50% 50%,yellow, :radial-gradient(150px 100px at left top,yellow,red); } .box11 { background-image:radial-gradient

    38420发布于 2020-10-28
领券