首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏labuladong的算法专栏

    谁能想到,求值的算法还能优化

    其实不然,其中的细节操作十分精妙,渐进时间复杂度肯定是 O(n) 无法再减少,但如果深究算法的执行速度,仍然有优化空间。 接下来,我们想办法优化这两个算法,使这两个算法只需要固定的1.5n次比较。 最大值和最小值 为啥一般的解法还能优化呢?肯定是因为没有充分利用信息,存在冗余计算。 对于这个问题,还有另一种优化方法,那就是分治算法。大致的思路是这样: 先将数组分成两半,分别找出这两半数组的最大值和最小值,然后max就是两个最大值中更大的那个,min就是两个最小值中更小的那个。 具体到这个问题来说,我们把nums中的元素视为集合A,先将集合A平分为两个集合P和Q,分别求出P,Q中的最大元素和第二大元素(称为p1, p2和q1, q2),然后通过这 4 个数字得到集合A的最大元素和第二大元素 PS:其实这个分治算法可以再优化,比较次数可以进一步降到 n + log(n),但是稍微有点麻烦,所以这里就不展开了。

    1.2K20发布于 2021-09-23
  • 来自专栏分布式|微服务|性能优化|并发编程|源码分析

    性能优化|讲的清楚的垃圾回收算法

    结论:使用标记-清除算法,清理垃圾后会发现存活对象分布的位置比较零散,如果有有大对象需要分配的话,很难有连续的空间进行分配;缺点:效率低、空间碎片 复制算法 为了解决内存碎片问题,jvm大师们研究出了复制算法 ,复制算法的原理是将内存空间分为两块,当其中一块内存使用完之后,就会将存活对象复制到另外一块内存上,将之前的内存块直接清理掉,这样就不会产生内存碎片的问题了。 使用复制算法,内存前后对比 ? ? 结论:解决了内存碎片的问题,但是会导致内存空间缩减一半,适用于存活对象少的区域。 标记整理算法 标记整理算法的步骤和标记-清除是一样的,不过最后多加一步就是整理,用来整理存活对象造成的内存碎片,使用标记-整理后内存前后对比: ? ? 分代收集算法 分代收集算法主要就是将内存分为两个年代,一个是年轻代,一个是老年代,在年轻代中使用复制算法,因为年轻代存活的对象少,比较适合使用复制算法,老年代使用标记整理算法,因为老年代垃圾比较少,所以适用于标记整理算法

    1.1K20发布于 2020-11-19
  • 来自专栏caoqi95的记录日志

    深度学习笔记4-模型优化算法

    「这里记录的是吴恩达Andrew Ng在深度学习课程中提到过的优化算法,以及其他受推荐的优化算法。 以及日常感谢Andrew Ng的视频」 梯度下降的优化 1.指数加权平均 引入概念 在讲下面几个优化算法之前,先引出指数加权平均的概念。 最后在几次迭代后就能够快速的到达最小值附近(如上图红线所示) 3.RMSprop 还有一个算法叫做RMSprop,全称是root mean square prop,也是一种能加快梯度下降的算法。 同理计算sdb=βsdb+(1-β)db2; 最后更新权重w = w-αdw/sqrt(sdw+ε)和偏置b = b-αdb/sqrt(sdb+ε) (常用ε=10-8,加上ε是防止分母为零的情况出现) 4. Adam Adam基本上就是结合了Momentum和RMSprop这两种算法

    79320发布于 2019-03-27
  • 算法之冒泡排序:直观的排序哲学与优化智慧

    5, 8] } } 三、性能分析 指标 数值 说明 时间复杂度 平均O(n²) 双重循环结构 最优O(n) 输入已排序时(优化版) 空间复杂度 O(1) 原地排序 算法特性: 稳定排序(相同元素保持原序 ) 实现简单但效率较低 优化后对部分有序数据敏感 四、应用场景 教学演示:理解排序算法的基础教学案例 硬件限制环境:内存有限的嵌入式设备 数据监控:检测数据是否已有序(优化版只需 true; } } start++; } } 六、哲学启示 冒泡排序教会我们: 耐心观察:通过多轮遍历逐步解决问题 简单力量:基础的算法也能蕴含深刻思想 优化智慧:提前终止机制体现效率意识 当你能在面试白板上5分钟写出优化版冒泡排序时,说明掌握了算法工程师的基本功——在简单中见真章。 记住:算法优化的本质是在理解问题特征后做针对性改进,就像这个优化版本通过检测交换状态提前终止不必要的遍历。

    26810编辑于 2025-10-14
  • 来自专栏决策智能与机器学习

    近端策略优化算法(PPO):RL经典的博弈对抗算法之一「AI核心算法

    作者:Abhishek Suran 转载请联系作者 提要:PPO强化学习算法解析及其TensorFlow 2.x实现过程(含代码) 在本文中,我们将尝试理解Open-AI的强化学习算法:近端策略优化算法 算法的步骤 游戏n步,存储状态,动作概率,奖励,完成变量。 基于上述经验,应用广义优势估计方法。我们将在编码部分看到这一点。 通过计算各自的损失,训练神经网络在某些时期的运行。 call(self, input_data): x = self.d1(input_data) a = self.a(x) return a 行动选择: 我们定义代理类并初始化优化器和学习率

    8.2K20发布于 2020-12-14
  • 来自专栏北京马哥教育

    史上简单!冒泡、选择排序的Python实现及算法优化详解

    冒泡排序、简单选择排序、直接插入排序就是简单排序算法。 评价排序算法优劣的标准主要是两条:一是算法的运算量,这主要是通过记录的比较次数和移动次数来反应;另一个是执行算法所需要的附加存储单元的的多少。 2、简单排序之冒泡法Python实现及优化 原理图 2.1、基本实现 2.2、优化实现 思路:如果本轮有交互,就说明顺序不对;如果本轮无交换,说明是目标顺序,直接结束排序。 原理图 3.1、基本实现 3.2、优化实现——二元选择排序 思路:减少迭代次数,一轮确定2个数,即最大数和最小数。 3.3、等值情况优化 思路:二元选择排序的时候,每一轮可以知道最大值和最小值,如果某一轮最大最小值都一样了,说明剩下的数字都是相等的,直接结束排序。 还可能存在一些特殊情况可以优化,但是都属于特例的优化了,对整个算法的提升有限。

    2.2K40发布于 2018-05-02
  • 来自专栏文武兼修ing——机器学习与IC设计

    神经网络优化算法总结优化算法框架优化算法参考

    优化算法框架 优化算法的框架如下所示: $$ w_{t+1} = w_t - \eta_t \ \eta_t = \cfrac{\alpha}{\sqrt{V_t}} \cdot m_t $$ ,g_t) \ g_t = \nabla f(w_t) $$ 一阶动量和二阶动量均是历史梯度和当前梯度的函数 优化算法 固定学习率优化算法 学习率固定的优化算法均有一个特点:不考虑二阶动量(即$M _2(g_i) = I$) 随机梯度下降(SGD) 随机梯度下降时简单的优化算法,有:$m_t = g_t,V_t = I$,带入公式有优化公式为:$\eta_t = \alpha \cdot g_t m_{t-1}) \ m_t = \beta \cdot m_{t-1} + (1-\beta)\cdot g_t \ \eta_t = \alpha \cdot m_t $$ 自适应学习率优化算法 自适应学习率的优化算法考虑二阶动量,一般来说,一阶动量决定优化方向,二阶动量自适应学习率 AdaGrad 二阶动量取梯度平方和:$V_t = \sum\limits^t_{i=1} g^2_i$,此时

    1.3K80发布于 2018-04-27
  • 来自专栏全栈程序员必看

    优化算法】粒子群优化算法简介

    鸟群智能建模 4. 代码实现 5. Conclusion 参考资料 ---- 1. 简介 人工智能是计算机科学的一个大领域,它模拟计算机中的智能行为。 在此基础上,提出了一种基于元启发式( metaheuristic)的粒子群优化算法来模拟鸟类觅食、鱼群移动等。这种算法能够模拟群体的行为,以便迭代地优化数值问题。 )的强大算法,受鸟群中的规则启发,连续优化过程允许多目标和更多的变化。 ---- 粒子群优化算法伪代码: 其中: V i ( k + 1 ) V_i(k+1) Vi​(k+1) 是下一个迭代速度; W W W 是惯性参数。 为了测试算法,Rastrigin函数将被用作误差函数,这是优化问题中最具挑战性的函数之一。在平面上有很多余弦振荡会引入无数的局部极小值,在这些极小值中,boid会卡住。

    1.9K20编辑于 2022-11-10
  • 来自专栏hotarugaliの技术分享

    优化算法

    简介 深度学习网络中参数更新的优化方法主要分为两种: 调整学习率,使得优化更稳定 梯度估计修正,优化训练速度 2. 常用优化方法汇总 image.png 3. L​,⋯,∂Wt​∂L​)​ 其中, 是第 步的梯度, 是第 步的学习率(可以进行衰减,也可以不变); 是学习率缩放函数,可以取 1 或者历史梯度的模的移动平均; 是优化后的参数更新方向

    1.7K10编辑于 2022-03-10
  • 来自专栏张俊红

    懒惰的算法—KNN

    总第77篇 本篇介绍机器学习众多算法里面基础也是“懒惰”的算法——KNN(k-nearest neighbor)。你知道为什么是懒的吗? 该算法常用来解决分类问题,具体的算法原理就是先找到与待分类值A距离最近的K个值,然后判断这K个值中大部分都属于哪一类,那么待分类值A就属于哪一类。 02|算法三要素: 通过该算法的原理,我们可以把该算法分解为3部分,第一部分就是要决定K值,也就是要找他周围的几个值;第二部分是距离的计算,即找出距离他最近的K个值;第三部分是分类规则的确定,就是以哪种标准去评判他是哪一类 训练算法:KNN没有这一步,这也是为何被称为算法的原因。 测试算法:将提供的数据利用交叉验证的方式进行算法的测试。 使用算法:将测试得到的准确率较高的算法直接应用到实际中。 2、准备数据 3、分析数据 4、测试算法 通过测试最后得出,如果一部电影中含有18次打斗次数,90次接吻次数,那么可以判定为该电影是爱情片。

    2.5K50发布于 2018-04-11
  • 来自专栏Python数据结构与算法

    JAVA学习(4)-全网详细~

    Unicode可以使用UTF-8、UTF-16等不同的编码方式表示,其中UTF-8是一种可变长编码,可以根据不同的字符来使用不同的字节数表示,为了支持更多的字符,UTF-8的编码长度可以达到4字节。 3.字符常量可以直接赋值给字符变量,例如:char c = 'a'; 字符串常量必须用String类来定义,例如:String str = "Hello World"; 4.字符常量可以与其他字符常量或者数值直接进行运算 只有两个取值 true 和 false * 3.在JAVA中 布尔类型 没有 所谓的 0是假 非0是真 * 真 只有 true 假 只有 false * 4.

    33710编辑于 2024-01-18
  • 来自专栏全栈程序员必看

    gbdt算法_双色球简单的算法

    解释一下GBDT算法的过程 1.1 Boosting思想 1.2 GBDT原来是这么回事 3. GBDT的优点和局限性有哪些? 3.1 优点 3.2 局限性 4. 解释一下GBDT算法的过程 GBDT(Gradient Boosting Decision Tree),全名叫梯度提升决策树,使用的是Boosting的思想。 训练过程 简单起见,假定训练集只有4个人:A,B,C,D,他们的年龄分别是14,16,24,26。其中A、B分别是高一和高三学生;C,D分别是应届毕业生和工作两年的员工。 /ML-NLP/Machine Learning/3.2 GBDT 代码补充参考for——小白: Python科学计算——Numpy.genfromtxt pd.DataFrame()函数解析(清晰的解释 ) iloc的用法(简单) scikit-learn 梯度提升树(GBDT)调参小结(包含所有参数详细介绍) 版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。

    2K20编辑于 2022-11-07
  • 来自专栏null的专栏

    优化算法——遗传算法

    遗传算法的基本概念 遗传算法(Genetic Algorithm, GA)是由Holland提出来的,是受遗传学中的自然选择和遗传机制启发发展起来的一种优化算法,它的基本思想是模拟生物和人类进化的方法求解复杂的优化问题 遗传算法的基本流程 遗传算法的过程中主要包括这样几个要素:1、参数的编码。2、初始群体的设定。3、适应度函数的设计。4、遗传操作设计。5、控制参数的设定。 基本遗传算法的具体过程如下: ? 遗传算法过程中的具体操作 参数的编码 遗传算法中的参数编码的方式主要有:1、二进制编码。2、Gray编码。3、实数编码。4、有序编码。 二进制编码 二进制编码是原始的编码方式,遗传算法最初是在二进制编码的方式下进行运算的。二进制编码也是遗传算法中使用最为直接的运算编码方式。二进制编码是指利用00和11对问题的解向量进行编码。 我在这里简单介绍了遗传算法,遗传算法是一个研究较多的算法,还有利用遗传算法求解组合优化问题,带约束的优化问题,还有一些遗传算法的理论知识,如模式定理,积木块假设,在这里就不一一列举了,希望我的博文对你的学习有帮助

    4.4K61发布于 2018-03-20
  • 来自专栏null的专栏

    优化算法——遗传算法

    遗传算法的基本概念 遗传算法(Genetic Algorithm, GA)是由Holland提出来的,是受遗传学中的自然选择和遗传机制启发发展起来的一种优化算法,它的基本思想是模拟生物和人类进化的方法求解复杂的优化问题 遗传算法的基本流程 遗传算法的过程中主要包括这样几个要素:1、参数的编码。2、初始群体的设定。3、适应度函数的设计。4、遗传操作设计。5、控制参数的设定。 基本遗传算法的具体过程如下: ? 遗传算法过程中的具体操作 参数的编码 遗传算法中的参数编码的方式主要有:1、二进制编码。2、Gray编码。3、实数编码。4、有序编码。 二进制编码 二进制编码是原始的编码方式,遗传算法最初是在二进制编码的方式下进行运算的。二进制编码也是遗传算法中使用最为直接的运算编码方式。二进制编码是指利用00和11对问题的解向量进行编码。 我在这里简单介绍了遗传算法,遗传算法是一个研究较多的算法,还有利用遗传算法求解组合优化问题,带约束的优化问题,还有一些遗传算法的理论知识,如模式定理,积木块假设,在这里就不一一列举了,希望我的博文对你的学习有帮助

    1.7K20发布于 2019-02-13
  • 来自专栏从流域到海域

    Adam优化算法

    Adam优化算法 基本思想是把动量梯度下降和RMSprop放在一起使用。 Adam优化算法计算方法 动量梯度下降部分: vdw=β1vdw+(1−β1)dWv_{dw}=\beta_1 v_{dw}+(1-\beta_1)dWvdw​=β1​vdw​+(1−β1​)dW 这是Adam名称的由来,大家一般称之为:Adam Authorization Algorithm(Adam权威算法)。 默认参数值选取 α\alphaα 学习速率是你需要是调参的。 β2=0.999\beta_2=0.999β2​=0.999 -> dw2dw^2dw2 -> (dw2)(dw^2)(dw2) RMSprop term. 0.999出自Adam paper,即该算法提出者

    1.3K20发布于 2019-05-26
  • 来自专栏WD学习记录

    kmeans优化算法

    k-means算法的优、缺点 1、优点: ①简单、高效、易于理解 ②聚类效果好 2、缺点: ①算法可能找到局部最优的聚类,而不是全局最优的聚类。使用改进的二分k-means算法优化方法 二分k-means算法:首先将整个数据集看成一个簇,然后进行一次k-means(k=2)算法将该簇一分为二,并计算每个簇的误差平方和,选择平方和最大的簇迭代上述过程再次一分为二,直至簇数达到用户指定的 算法进行细聚类。 k-means算法的k值自适应优化算法:首先给定一个较大的k值,进行一次k-means算法得到k个簇中心,然后计算每两个簇中心之间的距离,合并簇中心距离最近的两个簇,并将k值减1,迭代上述过程,直至簇类结果 参考: k-means算法、性能及优化

    2.3K30发布于 2018-09-04
  • 来自专栏河湾欢儿的专栏

    4.页面优化

    为什么要优化优化的好处 1.提升网页响应速度 2.有利于搜索引擎搜索 3.对后期维护比较方便 怎么优化? 1.减少请求 2.减少文件的大小 3.页面性能 4.可读性、维护性 1.图片合并 2.css文件合并 (多个css文件合并为一个、少量的行内样式、避免import的方式引入文件) 3.减少图片的大小 (选择合适的图片格式) 4.css值缩写 5.0px 中px省略 0% 0 0.5可以写成.5 6.选择器合并 7.link标签引入样式放到head标签中 8.js脚本建议放在底部,等页面加载完之后再处理 尽量用语义化的标签来编写,有利于seo 15.类型和id名,以内容语义来命名 16.避免hack 17.模块化(一系列相关的结构做成一个模块来处理) 18.必要的时候添加注释,可读性比较好 比如说代码优化 ,大家试着说一下怎么优化

    51320发布于 2018-09-06
  • 来自专栏修也的进阶日记

    算法手记4

    解题代码: 本题解题代码如下: class Solution { public: int vis[101][101]={0};//标记这个位置是否被用过 int dx[4]={0,0,1 ,-1}; int dy[4]={1,-1,0,0}; bool exist(vector<string>& board, string word) { word.size()-1) return true; //进入这个位置就把这个位置锁住 vis[x][y] = 1; //如果递归的是中间字符,继续搜索4个方位有没有符合下一个的 ,如果有,继续递归搜 for(int i=0; i<4; i++) { int a = x+dx[i],b=y+dy[i]; 如果四个位置找完没有符合下一个字符的,那么释放本位置的锁,返回false vis[x][y]=0; return false; } }; 结语 说点啥好呢...牵扯二维的算法就有点难了

    17310编辑于 2025-03-15
  • 来自专栏技术杂记

    Mysql 优化存储4

    优化脚本 一般此过程会非常漫长,可以写一个脚本来后台运行,或简单的控制一下IO [hunter@opti-slave ~]$ cat opti.bash #! opti.bash >> /path/to/optimize.log 2>&1 & 通过监控 optimize.log 来判断执行完成状态 也可以通过查看监控,IOPS很能反映问题 ---- 恢复备份 优化完成后 ,立刻恢复备份 start slave; 通过对比前后数据文件大小,可以明显看到优化效果 一般少也能缩减5%的空间,平均在10%左右,我自己经历明显效果的是减少了32%的空间,对于一个大库来说,能节省不少磁盘空间 ,并且对查询性能也有一定优化效果 ---- 命令汇总 pt-table-checksum --nocheck-replication-filters --nocheck-binlog-format --

    41620编辑于 2022-03-21
  • 来自专栏美小妮

    智能优化算法

    智能优化算法神经网络算法利用的是目标函数导数信息去迭代更新参数,选找目标函数最优值。智能优化算法是一种收索算法,也是通过迭代,筛选,选找目标函数最优值(极值)。 一般步骤为:给定一组初始解评价当前这组解的性能从当前这组解中选择一定数量的解作为迭代后的解的基础在对其操作,得到迭代后的解若这些解满足要求则停止,否则将这些迭代得到的解作为当前解重新操作智能优化算法包含有许多 ,比如粒子群优化算法(PSO),飞蛾火焰算法(MFO)...等一.飞蛾火焰算法(MFO)算法核心思想:飞蛾以螺旋线运动方式不断靠近火焰,痛过对火焰的筛选,不断选出离目标函数极值最接近的位置。 用随机的位置与该鲸鱼位置做差,然后用该随机的位置和做差后的值继续做差,去更新鲸鱼位置三.樽海鞘群优化算法(SSA)算法核心思想:与MFO类似,初始化鱼群后,对其求自适应度,然后进行排序,记录最小位置(也就是最优位置 四.灰太狼优化器(GWO)算法核心思想:与前面几种都是类似初始化狼群(随机初始化)和初始化3只重要程度递减的狼(Alpha、Beta、Delta,求解极小值问题时候初始化为无穷大)判断狼群是否超出边界,

    93320编辑于 2023-10-06
领券