首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏菩提树下的杨过

    算法练习(5)-计数排序法及优化

    日常开发中,会遇到一些特定的排序场景:“待排序的值”范围很明细,比如:基金的星级排名,客服的好评星级排名,一般星级排名也就从1星到5星。 这种情况下,有一个经典的“下标计数排序法”,可以用O(n)的时间复杂度完成排序: static void sort0() { int[] arr = new int[]{5, 4 } } System.out.println("\n"); } 输出: indexCountArr=>[0, 1, 1, 1, 2, 1] 1 2 3 4 4 5 但这是一个不稳定的排序算法,而且输出结果只有值,如果是一个复杂的对象,比如下面这样: static class EmpScore { public String empNo; main(String[] args) { EmpScore[] arr = new EmpScore[]{ new EmpScore("S01", 5)

    50430发布于 2021-03-27
  • 来自专栏文武兼修ing——机器学习与IC设计

    神经网络优化算法总结优化算法框架优化算法参考

    优化算法框架 优化算法的框架如下所示: $$ w_{t+1} = w_t - \eta_t \ \eta_t = \cfrac{\alpha}{\sqrt{V_t}} \cdot m_t $$ ,g_t) \ g_t = \nabla f(w_t) $$ 一阶动量和二阶动量均是历史梯度和当前梯度的函数 优化算法 固定学习率优化算法 学习率固定的优化算法均有一个特点:不考虑二阶动量(即$M _2(g_i) = I$) 随机梯度下降(SGD) 随机梯度下降时最简单的优化算法,有:$m_t = g_t,V_t = I$,带入公式有优化公式为:$\eta_t = \alpha \cdot g_t m_{t-1}) \ m_t = \beta \cdot m_{t-1} + (1-\beta)\cdot g_t \ \eta_t = \alpha \cdot m_t $$ 自适应学习率优化算法 自适应学习率的优化算法考虑二阶动量,一般来说,一阶动量决定优化方向,二阶动量自适应学习率 AdaGrad 二阶动量取梯度平方和:$V_t = \sum\limits^t_{i=1} g^2_i$,此时

    1.3K80发布于 2018-04-27
  • 来自专栏全栈程序员必看

    优化算法】粒子群优化算法简介

    代码实现 5. Conclusion 参考资料 ---- 1. 简介 人工智能是计算机科学的一个大领域,它模拟计算机中的智能行为。 在此基础上,提出了一种基于元启发式( metaheuristic)的粒子群优化算法来模拟鸟类觅食、鱼群移动等。这种算法能够模拟群体的行为,以便迭代地优化数值问题。 )的强大算法,受鸟群中的规则启发,连续优化过程允许多目标和更多的变化。 ---- 粒子群优化算法伪代码: 其中: V i ( k + 1 ) V_i(k+1) Vi​(k+1) 是下一个迭代速度; W W W 是惯性参数。 为了测试算法,Rastrigin函数将被用作误差函数,这是优化问题中最具挑战性的函数之一。在平面上有很多余弦振荡会引入无数的局部极小值,在这些极小值中,boid会卡住。

    1.9K20编辑于 2022-11-10
  • 来自专栏hotarugaliの技术分享

    优化算法

    简介 深度学习网络中参数更新的优化方法主要分为两种: 调整学习率,使得优化更稳定 梯度估计修正,优化训练速度 2. 常用优化方法汇总 image.png 3. L​,⋯,∂Wt​∂L​)​ 其中, 是第 步的梯度, 是第 步的学习率(可以进行衰减,也可以不变); 是学习率缩放函数,可以取 1 或者历史梯度的模的移动平均; 是优化后的参数更新方向

    1.7K10编辑于 2022-03-10
  • 来自专栏null的专栏

    优化算法——遗传算法

    遗传算法的基本概念 遗传算法(Genetic Algorithm, GA)是由Holland提出来的,是受遗传学中的自然选择和遗传机制启发发展起来的一种优化算法,它的基本思想是模拟生物和人类进化的方法求解复杂的优化问题 基本定义 个体(individual):在遗传学中表示的是基因编码,在优化问题中指的是每一个解。 适应值(fitness):评价个体好坏的标准,在优化问题中指的是优化函数。 遗传算法的基本流程 遗传算法的过程中主要包括这样几个要素:1、参数的编码。2、初始群体的设定。3、适应度函数的设计。4、遗传操作设计。5、控制参数的设定。 基本遗传算法的具体过程如下: ? 适应度函数的计算 适应度函数的目的是评价个体的好坏,如上面的优化问题中,即为最终的优化目标函数。 我在这里简单介绍了遗传算法,遗传算法是一个研究较多的算法,还有利用遗传算法求解组合优化问题,带约束的优化问题,还有一些遗传算法的理论知识,如模式定理,积木块假设,在这里就不一一列举了,希望我的博文对你的学习有帮助

    4.4K61发布于 2018-03-20
  • 来自专栏null的专栏

    优化算法——遗传算法

    遗传算法的基本概念 遗传算法(Genetic Algorithm, GA)是由Holland提出来的,是受遗传学中的自然选择和遗传机制启发发展起来的一种优化算法,它的基本思想是模拟生物和人类进化的方法求解复杂的优化问题 基本定义 个体(individual):在遗传学中表示的是基因编码,在优化问题中指的是每一个解。 适应值(fitness):评价个体好坏的标准,在优化问题中指的是优化函数。 遗传算法的基本流程 遗传算法的过程中主要包括这样几个要素:1、参数的编码。2、初始群体的设定。3、适应度函数的设计。4、遗传操作设计。5、控制参数的设定。 基本遗传算法的具体过程如下: ? bb是确定非均匀度的一个参数,通常取2∼52\sim 5。 控制参数的设定 控制参数主要包括种群的规模NN,演化代数TT,杂交概率pcp_c,变异概率pmp_m等等。 我在这里简单介绍了遗传算法,遗传算法是一个研究较多的算法,还有利用遗传算法求解组合优化问题,带约束的优化问题,还有一些遗传算法的理论知识,如模式定理,积木块假设,在这里就不一一列举了,希望我的博文对你的学习有帮助

    1.7K20发布于 2019-02-13
  • 来自专栏从流域到海域

    Adam优化算法

    Adam优化算法 基本思想是把动量梯度下降和RMSprop放在一起使用。 Adam优化算法计算方法 动量梯度下降部分: vdw=β1vdw+(1−β1)dWv_{dw}=\beta_1 v_{dw}+(1-\beta_1)dWvdw​=β1​vdw​+(1−β1​)dW 这是Adam名称的由来,大家一般称之为:Adam Authorization Algorithm(Adam权威算法)。 默认参数值选取 α\alphaα 学习速率是你需要是调参的。 β2=0.999\beta_2=0.999β2​=0.999 -> dw2dw^2dw2 -> (dw2)(dw^2)(dw2) RMSprop term. 0.999出自Adam paper,即该算法提出者

    1.3K20发布于 2019-05-26
  • 来自专栏WD学习记录

    kmeans优化算法

    k-means算法的优、缺点 1、优点: ①简单、高效、易于理解 ②聚类效果好 2、缺点: ①算法可能找到局部最优的聚类,而不是全局最优的聚类。使用改进的二分k-means算法优化方法 二分k-means算法:首先将整个数据集看成一个簇,然后进行一次k-means(k=2)算法将该簇一分为二,并计算每个簇的误差平方和,选择平方和最大的簇迭代上述过程再次一分为二,直至簇数达到用户指定的 算法进行细聚类。 k-means算法的k值自适应优化算法:首先给定一个较大的k值,进行一次k-means算法得到k个簇中心,然后计算每两个簇中心之间的距离,合并簇中心距离最近的两个簇,并将k值减1,迭代上述过程,直至簇类结果 参考: k-means算法、性能及优化

    2.3K30发布于 2018-09-04
  • 来自专栏美小妮

    智能优化算法

    智能优化算法神经网络算法利用的是目标函数导数信息去迭代更新参数,选找目标函数最优值。智能优化算法是一种收索算法,也是通过迭代,筛选,选找目标函数最优值(极值)。 一般步骤为:给定一组初始解评价当前这组解的性能从当前这组解中选择一定数量的解作为迭代后的解的基础在对其操作,得到迭代后的解若这些解满足要求则停止,否则将这些迭代得到的解作为当前解重新操作智能优化算法包含有许多 ,比如粒子群优化算法(PSO),飞蛾火焰算法(MFO)...等一.飞蛾火焰算法(MFO)算法核心思想:飞蛾以螺旋线运动方式不断靠近火焰,痛过对火焰的筛选,不断选出离目标函数极值最接近的位置。 用随机的位置与该鲸鱼位置做差,然后用该随机的位置和做差后的值继续做差,去更新鲸鱼位置三.樽海鞘群优化算法(SSA)算法核心思想:与MFO类似,初始化鱼群后,对其求自适应度,然后进行排序,记录最小位置(也就是最优位置 四.灰太狼优化器(GWO)算法核心思想:与前面几种都是类似初始化狼群(随机初始化)和初始化3只重要程度递减的狼(Alpha、Beta、Delta,求解极小值问题时候初始化为无穷大)判断狼群是否超出边界,

    93320编辑于 2023-10-06
  • 来自专栏null的专栏

    优化算法——凸优化的概述

    一、引言    在机器学习问题中,很多的算法归根到底就是在求解一个优化问题,然而我们的现实生活中也存在着很多的优化问题,例如道路上最优路径的选择,商品买卖中的最大利润的获取这些都是最优化的典型例子 ,前面也陆续地有一些具体的最优化算法,如基本的梯度下降法,牛顿法以及启发式的优化算法(PSO,ABC等)。 三、三类优化问题 主要有三类优化问题: 无约束优化问题 含等式约束的优化问题 含不等式约束的优化问题 针对上述三类优化问题主要有三种不同的处理策略,对于无约束的优化问题,可直接对其求导 四、正则化 在“简单易学的机器学习算法——线性回归(1)”中,在处理局部加权线性回归时,我们碰到了如下的三种情况: ? ? ? ? ? ? 当 ? 时模型是欠拟合的,当 ? 时模型可能会出现过拟合。 正则化主要有两种: L1-Regularization,见“简单易学的机器学习算法——lasso” L2-Regularization,见“简单易学的机器学习算法——岭回归(Ridge Regression

    1.5K70发布于 2019-02-13
  • 来自专栏全栈程序员必看

    粒子群优化算法matlab程序_多目标优化算法

    粒子群优化算法概述 2. 粒子群优化算法求解 2.1 连续解空间问题 2.2 构成要素 2.3 算法过程描述 2.4 粒子速度更新公式 2.5 速度更新参数分析 3. 粒子群优化算法小结 4. MATLAB代码 1. 粒子群优化算法概述 粒子群优化算法是一种基于 种群寻优的启发式搜索算法。在1995年由Kennedy和Eberhart首先提出来的。 粒子群优化算法借鉴了这样的思想,每个粒子代表待求解问题搜索解空间中的一一个潜在解,它相当于一只飞行信息”包括粒子当前的 位置和速度两个状态量。 粒子群优化算法求解 粒子群优化算法一般适合解决连续解空间的问题,比如通过粒子群在解空间里进行搜索,找出极大值。 粒子群优化算法改进 随着粒子群算法的广泛使用,人们发现如果加入一个惯性权重的话,优化的效果更好。 引入了一个 w w w 参数,控制先前粒子速度对下一轮粒子速度的影响,以适应不同场景。

    1.1K20编辑于 2022-11-10
  • 来自专栏全栈程序员必看

    神经网络的优化算法_梯度下降优化算法

    最近回顾神经网络的知识,简单做一些整理,归档一下神经网络优化算法的知识。关于神经网络的优化,吴恩达的深度学习课程讲解得非常通俗易懂,有需要的可以去学习一下,本人只是对课程知识点做一个总结。 吴恩达的深度学习课程放在了网易云课堂上,链接如下(免费): https://mooc.study.163.com/smartSpec/detail/1001319001.htm 神经网络最基本的优化算法是反向传播算法加上梯度下降法 Momentum算法 Momentum算法又叫做冲量算法,其迭代更新公式如下: \[\begin{cases} v=\beta v+(1-\beta)dw \\ w=w-\alpha v \end{cases 实验表明,相比于标准梯度下降算法,Momentum算法具有更快的收敛速度。为什么呢?看下面的图,蓝线是标准梯度下降法,可以看到收敛过程中产生了一些震荡。 Adam算法 Adam算法则是以上二者的结合。

    1K20编辑于 2022-09-16
  • 来自专栏null的专栏

    优化算法——凸优化的概述

    一、引言    在机器学习问题中,很多的算法归根到底就是在求解一个优化问题,然而我们的现实生活中也存在着很多的优化问题,例如道路上最优路径的选择,商品买卖中的最大利润的获取这些都是最优化的典型例子,前面也陆续地有一些具体的最优化算法 ,如基本的梯度下降法,牛顿法以及启发式的优化算法(PSO,ABC等)。 三、三类优化问题 主要有三类优化问题: 无约束优化问题 含等式约束的优化问题 含不等式约束的优化问题 针对上述三类优化问题主要有三种不同的处理策略,对于无约束的优化问题,可直接对其求导 四、正则化 在“简单易学的机器学习算法——线性回归(1)”中,在处理局部加权线性回归时,我们碰到了如下的三种情况: ? ? ? ? ? ? 当 ? 时模型是欠拟合的,当 ? 时模型可能会出现过拟合。 正则化主要有两种: L1-Regularization,见“简单易学的机器学习算法——lasso” L2-Regularization,见“简单易学的机器学习算法——岭回归(Ridge Regression

    2.8K100发布于 2018-03-19
  • 来自专栏mathor

    枚举+优化5)——双指针优化1

    ,x + k - 1) return x + k - 1  以题目样例为例,由于k=5,现有最大整数是13。 检查X开头的顺子是否能凑出来的算法是,枚举X~(X+K-1)这K个数中,有几个在现有的整数中,有几个不在,需要用百搭卡。 ,X + k - 1 if not Hashtable.find(i) need_card++; return need_card <= M  这样整个算法的时间复杂度是O(PK ),P是这个数组的最大值,所以有可能有10^8^这么大,K最大10^5^,显然会超时 优化1  第一个能优化的地方是对于X的枚举,也就是顺子开头的数值。 ,X+K) 优化2  第二个可以优化的地方就是判断能不能凑出X开头的顺子。我们利用双指针可以把这一步均摊时间复杂度降到O(1)。

    63530发布于 2018-06-19
  • 来自专栏全栈程序员必看

    a星算法详解_matlab优化算法

    概述 基于上一篇文章提到的DFS算法和BFS算法 A星算法属于图这种数据结构的搜索算法,对比于树的遍历搜索,需要考虑到的问题是:同一个节点的重复访问,所以需要对于已经访问过的节点进行标记。 算法伪码: function AStar_Routing(Gragh(V,E),src,dst) create vertex List openList create vertex List closeList

    77420编辑于 2022-11-10
  • 来自专栏null的专栏

    优化算法——粒子群算法(PSO)

    一、粒子群算法的概述     粒子群算法(PSO)属于群智能算法的一种,是通过模拟鸟群捕食行为设计的。假设区域里就只有一块食物(即通常优化问题中所讲的最优解),鸟群的任务是找到这个食物源。 二、粒子群算法的流程     粒子群算法通过设计一种无质量的粒子来模拟鸟群中的鸟,粒子仅具有两个属性:速度 ? 和位置 ? ,速度代表移动的快慢,位置代表移动的方向。 粒子群算法的思想相对比较简单,主要分为:1、初始化粒子群;2、评价粒子,即计算适应值;3、寻找个体极值 ? ;4、寻找全局最优解 ? ;5、修改粒子的速度和位置。下面是程序的流程图: ?

    6.8K20发布于 2019-02-13
  • 来自专栏null的专栏

    优化算法——模拟退火算法

    模拟退火算法原理 爬山法是一种贪婪的方法,对于一个优化问题,其大致图像(图像地址)如下图所示: 其目标是要找到函数的最大值,若初始化时,初始点的位置在CC处,则会寻找到附近的局部最大值AA点处 模拟退火算法便是基于这样的原理设计而成。 模拟退火算法从某一较高的温度出发,这个温度称为初始温度,伴随着温度参数的不断下降,算法中的解趋于稳定,但是,可能这样的稳定解是一个局部最优解,此时,模拟退火算法中会以一定的概率跳出这样的局部最优解,以寻找目标函数的全局最优解 模拟退火算法 模拟退火算法过程 模拟退火算法流程 模拟退火算法的Java实现 Java代码 package sa; /** * 实现模拟退火算法 * @author zzy *Email:zhaozhiyong1989 double result = 6 * Math.pow(x, 7) + 8 * Math.pow(x, 6) + 7 * Math.pow(x, 3) + 5

    2.6K40发布于 2018-03-16
  • 来自专栏全栈程序员必看

    优化算法——模拟退火算法

    模拟退火算法原理 爬山法是一种贪婪的方法,对于一个优化问题,其大致图像(图像地址)如下图所示: 其目标是要找到函数的最大值,若初始化时,初始点的位置在 C C C处,则会寻找到附近的局部最大值 模拟退火算法从某一较高的温度出发,这个温度称为初始温度,伴随着温度参数的不断下降,算法中的解趋于稳定,但是,可能这样的稳定解是一个局部最优解,此时,模拟退火算法中会以一定的概率跳出这样的局部最优解,以寻找目标函数的全局最优解 模拟退火算法流程 模拟退火算法的Java实现 求解函数最小值问题: F ( x ) = 6 x 7 + 8 x 6 + 7 x 3 + 5 x 2 − x y F\left ( x \right )=6x^7+8x^6+7x^3+5x^2-xy F(x)=6x7+8x6+7x3+5x2−xy 其中, 0 ≤ x ≤ 100 0\leq x\leq 100 0≤x≤100,输入任意 y y y值 double y) { double result = 6 * Math.pow(x, 7) + 8 * Math.pow(x, 6) + 7 * Math.pow(x, 3) + 5

    87940编辑于 2022-09-09
  • 来自专栏null的专栏

    优化算法——粒子群算法(PSO)

    一、粒子群算法的概述     粒子群算法(PSO)属于群智能算法的一种,是通过模拟鸟群捕食行为设计的。假设区域里就只有一块食物(即通常优化问题中所讲的最优解),鸟群的任务是找到这个食物源。 二、粒子群算法的流程 image.png ? (PSO流程) 下面我们具体解释下流程图里面的每一个步骤: 1、初始化    首先,我们需要设置最大的速度区间,防止超出最大的区间。

    4.5K40发布于 2018-03-16
  • 来自专栏修也的进阶日记

    算法手记5

    12000编辑于 2025-03-17
领券