首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习与统计学

    优化

    优化“ 是指一种比较特殊的优化,是指求取最小值的目标函数为凸函数的一类优化问题。其中,目标函数为凸函数且定义域为集的优化问题称为无约束优化问题。 而目标函数和不等式约束函数均为凸函数,等式约束函数为仿射函数,并且定义域为集的优化问题为约束优化问题。 之所以要研究优化问题是因为其有一套非常完备的求解算法,如果将某个优化问题确认或者转化为优化问题,那么能够快速给出最优解。 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

    77330发布于 2019-04-10
  • 来自专栏懂点编程的数据分析师

    优化

    定义 优化问题(OPT,convex optimization problem)指定义在集中的凸函数最优化的问题。尽管优化的条件比较苛刻,但仍然在机器学习领域有十分广泛的应用。 优化问题的优势 优化问题的局部最优解就是全局最优解 很多非问题都可以被等价转化为优化问题或者被近似为优化问题(例如拉格朗日对偶问题) 优化问题的研究较为成熟,当一个具体被归为一个优化问题, 二元半正定二次型图像 优化问题 1. 定义: ? 当 ? 和 ? 均为凸函数,而 ? 均为仿射函数时, 上述的优化问题即优化问题。 2. 常见的优化问题 2.1 线性规划(LP, Linear Program) ? 其中目标函数和不等式约束都是仿射函数,且 ? 表示按元素小于等于。 优化问题的一般求解过程 由于优化问题具有局部最优解即全局最优解的优良特性,因此求解过程可以简化为:找到一个点列使得目标函数值持续减少,直到触发停止条件或达到一个最小值。 设 ? 为第 ?

    1.9K30发布于 2020-06-09
  • 来自专栏计算机视觉理论及其实现

    优化和非优化的区别

    优化问题是指 是闭合的集且 是 上的凸函数的最优化问题,这两个条件任一不满足则该问题即为非的最优化问题。 为什么要求是集呢?因为如果可行域不是集,也会导致局部最优? 实际建模中判断一个最优化问题是不是优化问题一般看以下几点:目标函数 如果不是凸函数,则不是优化问题决策变量 中包含离散变量(0-1变量或整数变量),则不是优化问题约束条件写成 时, 如果不是凸函数,则不是优化问题之所以要区分优化问题和非的问题原因在于优化问题中局部最优解同时也是全局最优解,这个特性使优化问题在一定意义上更易于解决,而一般的非优化问题相比之下更难解决。 非优化问题如何转化为优化问题的方法: 1)修改目标函数,使之转化为凸函数 2)抛弃一些约束条件,使新的可行域为集并且包含原可行域

    4.6K30编辑于 2022-09-03
  • 来自专栏SIGAI学习与实践平台

    理解优化

    导言 优化(convex optimization)是最优化问题中非常重要的一类,也是被研究的很透彻的一类。对于机器学习来说,如果要优化的问题被证明是优化问题,则说明此问题可以被比较好的解决。 在本文中,SIGAI将为大家深入浅出的介绍优化的概念以及在机器学习中的应用。 优化简介 在SIGAI之前的公众号文章“理解梯度下降法”中我们介绍了最优化的基本概念以及梯度下降法。 同时满足这两个限制条件的最优化问题称为优化问题,这类问题有一个非常好性质,那就是局部最优解一定是全局最优解。接下来我们先介绍集和凸函数的概念。 优化 有了集和凸函数的定义之后,我们就可以给出优化的定义。如果一个最优化问题的可行域是集,并且目标函数是凸函数,则该问题为优化问题。优化问题可以形式化的写成: ? 其中x为优化变量;f为目标函数;C是优化变量的可行域,是一个集。这个定义给了我们证明一个问题是优化问题的思路,即证明目标函数是凸函数(一般是证明它的Hessian矩阵半正定),可行域是集。

    1.4K20发布于 2018-08-07
  • 来自专栏算法之名

    优化整理

    集 在最优化范畴中,优化问题是一类比较常见的,性质很好,很多时候可以帮助我们解决非问题的工具。 如果一个凸函数min f(x),它的可行集x∈S,S是一个集合,如此一般来说我们就认为这是一个优化的问题。 包(convex hull of set C):由任意一个集合C(不一定是集)中点的组合构成 在上图中的左图中离散的点是集合C,我们任取一些点来做组合,最终会形成外面的五点的五边形。 在右图中的集合C是 蓝色曲线连接的区域,任取一些点来做组合 这里我们会发现因为包是组合构成的,所以它一定是集。 对于一个非集来说,如果对该集合产生一个包,那么就会将该非集转化成一个集。 包的作用主要用于解非优化问题的时候,会对一个非的问题进行化的作用。

    76440编辑于 2023-03-01
  • 来自专栏算法之名

    优化整理(二)

    优化整理 基于线搜索的下降算法基本思路 给定初始点\(x^0\),k=0; 判断\(x^k\)是否满足终止条件:是,则终止; 寻找\(x^k\)处的下降方向\(d^k\); 选择合适的步长\(α_k

    51430编辑于 2023-03-01
  • 来自专栏null的专栏

    优化算法——优化的概述

    一、引言    在机器学习问题中,很多的算法归根到底就是在求解一个优化问题,然而我们的现实生活中也存在着很多的优化问题,例如道路上最优路径的选择,商品买卖中的最大利润的获取这些都是最优化的典型例子,前面也陆续地有一些具体的最优化的算法 ,如基本的梯度下降法,牛顿法以及启发式的优化算法(PSO,ABC等)。 三、三类优化问题 主要有三类优化问题: 无约束优化问题 含等式约束的优化问题 含不等式约束的优化问题 针对上述三类优化问题主要有三种不同的处理策略,对于无约束的优化问题,可直接对其求导 ,并使其为0,这样便能得到最终的最优解;对于含等式约束的优化问题,主要通过拉格朗日乘数法将含等式越是的优化问题转换成为无约束优化问题求解;对于含有不等式约束的优化问题,主要通过KKT条件(Karush-Kuhn-Tucker Condition)将其转化成无约束优化问题求解。

    2.8K100发布于 2018-03-19
  • 来自专栏算法之名

    优化整理(三)

    优化整理(二) 约束优化 约束优化问题 考虑如下一般形式约束优化问题: 记可行集为 假设问题(P)中的函数f(x),\(g_i\)(x),\(h_i\)(x)均为连续可微函数; 注意几类非光滑函数的转化 例:约束优化最优解的特征 min f(x)            x∈\(R^n\) s.t. 

    50220编辑于 2023-03-01
  • 来自专栏算法之名

    优化整理(四)

    优化整理(三) 对偶理论 考虑如下一般形式约束优化问题: 记可行集为 这里跟之前不同的地方在于x∈X。 鲁棒优化,锥优化跟对偶问题在某些前提下具有一定的等价关系。 ,l均为线性函数;即原问题P是一个优化问题。 假设存在 ∈X使得 (严格可行点),且0∈int h(X),其中h(X)={\((h_1(x),... ,l,x∈X} 由f(x)是凸函数,\(g_i(x)\)是凸函数,X是集合,可知H是集合,且\((0,0,0)^T\)∉H,这里第一个0是1维,第二个0是m维,第三个0是l维 根据集分离定理(见优化整理 {i=1}^m\) \(g_i(x)\)+\(\sum_{i=1}^l\) \(h_i(x)\)≥γ,∀x∈X 可得d( , )≥γ=v(P) 故v(D)=d( , )=v(P)  得证 优化问题

    92630编辑于 2023-03-01
  • 来自专栏AI启蒙研究院

    【通俗理解】优化

    今天介绍一点优化方面的知识~内容可能有点无聊,看懂了这篇文章,会对求极值和收敛有进一步理解,比如: 了解为什么向量机(SVM)等的推导中,求极值时可以把约束条件加在目标函数后面来变成一个无约束的优化问题 这两个问题优化都可以帮我们回答。 在开始之前,我们先来回顾一下支持向量机(SVM)的推导过程。 SVM的任务就是寻找这样一个超平面H把样本无误地分割成两部分,并且使H1和H2的距离最大。 其中supporting定理通过函数上镜图的概念和凸函数联系起来了,这构成了优化中对偶性duality的基石。在优化中的对偶,和信号处理里的傅里叶变换一样重要。 求解这个最优化问题(quadratic programing)就用了Lagrangian dual。有人说了,好像没有看到有求所谓的h(y)啊,是不是打开方式不对? 总结 对偶是优化的基石,延伸出各种优化方法。正如信号处理中时域上不好解决的问题变换到频域去解决。遇到目标函数是二次函数的,直接看看KKT条件能不能用。

    2K30发布于 2018-07-20
  • 来自专栏null的专栏

    优化算法——优化的概述

    一、引言    在机器学习问题中,很多的算法归根到底就是在求解一个优化问题,然而我们的现实生活中也存在着很多的优化问题,例如道路上最优路径的选择,商品买卖中的最大利润的获取这些都是最优化的典型例子 ,前面也陆续地有一些具体的最优化的算法,如基本的梯度下降法,牛顿法以及启发式的优化算法(PSO,ABC等)。 三、三类优化问题 主要有三类优化问题: 无约束优化问题 含等式约束的优化问题 含不等式约束的优化问题 针对上述三类优化问题主要有三种不同的处理策略,对于无约束的优化问题,可直接对其求导 ,并使其为0,这样便能得到最终的最优解;对于含等式约束的优化问题,主要通过拉格朗日乘数法将含等式越是的优化问题转换成为无约束优化问题求解;对于含有不等式约束的优化问题,主要通过KKT条件(Karush-Kuhn-Tucker Condition)将其转化成无约束优化问题求解。

    1.5K70发布于 2019-02-13
  • 来自专栏MyBlog

    优化笔记(1) 引言

    优化笔记(1) 引言 1. 引言 1.1 数学优化 优化问题可以写成如下形式 ? 优化即讨论约束函数和目标函数是凸函数的优化问题,即 ? 1.3 优化 优化问题具有以下形式化 ? 其中需要满足 ? 且 ? 1.3.1 求解优化问题 优化问题没有一个确定的解析解,但是和线性规划类似,存在许多算法求解优化问题,实际意义中内点法就比较有效 1.3.2 使用优化 同线性规划和最小二乘类似,我们可以将某个问题转化为优化问题进而将其求解 在全局优化中,人们致力于搜索问题的全局最优解,付出的代价是效率 1.4.3 非问题中优化的应用 局部优化中利用优化进行初始值的选取 非优化中的启发式算法 随机化算法 搜索带约束条件的稀疏向量

    93310发布于 2019-03-15
  • 来自专栏海风

    优化和机器学习

    优化问题,就是把你考虑的各个因素表示成为一组函数(代价函数),解决这个问题就是在一集备选解中选择最好的解。 那么,为什么我们要讨论优化而不是一般的优化问题呢? (实际上就是太一般的优化问题讨论不来) 2.优化的定义 首先明确两个定义: ---- (1) 如果 ? 中任意两点之间的线段任在 ? 中,那么集合 ? 被称为集。即对任意 ? 也就是说,优化问题是指需要最小化的函数(代价函数)是凸函数,而且定义域为集的问题。 3.优化问题的一般求解方法 有些优化问题比较简单,是可以直接求解的,譬如二次规划,这里不做说明。 求解优化问题,就要利用该问题的“”性——只要我一直朝着代价函数减小的方向去,那么我一定不会走错!这就是下降方法的基本思想。 《convex optimization》这本书中,将优化问题分为无约束优化、等式约束优化和不等式约束优化分别介绍了其算法,然其本质并无区别。下降方法即产生一优化点列 ? 其中 ? 并且 ? 。

    1.1K30发布于 2019-09-11
  • 来自专栏闪电gogogo的专栏

    优化之基追踪

    范数问题,因为L1范数与L0范数等价,所以将L0范数转换为L1范数问题来求解,基追踪是将L1范数问题转为成为线性规划问题来进行求解,博主还提到了基追踪降噪问题,是转换为二次规划问题来进行求解的,但是这类优化问题计算复杂度高

    1.7K111发布于 2018-04-02
  • 来自专栏学弱猹的精品小屋

    优化(1)——引入,优化实例分析,集举例与相关性质

    这是一个全新的系列,我们会给大家介绍优化(Convex Optimization)相关的内容。 优化在机器学习,深度学习等人工智能与大数据相关的方向都有举足轻重的作用。 而且事实上,在当今的算法工程师面试中,很多企业都会加入对面试者优化知识的考查。相信很多相关专业的本科生和研究生,也修过学校的《优化》这一门课。 对于优化,我们最容易产生的疑惑就是它与最优化(数值优化)有什么区别?虽然它们俩本质上都是优化,但是优化的研究范围更窄,可以看出对“”的要求更高。 因为优化与数值优化的交集甚多,故很多优化所需要的知识,其实我们在数值优化中很有可能已经介绍过。因此在这个系列中,会有大量对《数值优化》这个系列的引用。 引入:优化的问题形式与基本性质 对于优化,我们的问题形式如下 这里的话 就是目标和约束函数所有的限制的交集。也就是《数值优化》中已经提到的可行域的概念。

    1.9K10发布于 2021-08-09
  • 来自专栏AINLP

    优化及无约束最优化

    很多年前,我的师兄 Jian Zhu 在这里发表过一个系列《无约束最优化》,当时我写下了一段话: 估计有些读者看到这个题目的时候会觉得很数学,和自然语言处理没什么关系,不过如果你听说过最大熵模型、条件随机场 ,并且知道它们在自然语言处理中被广泛应用,甚至你明白其核心的参数训练算法中有一种叫LBFGS,那么本文就是对这类用于解无约束优化算法的Quasi-Newton Method的初步介绍。 事实上,无论机器学习还是机器学习中的深度学习,数值优化算法都是核心之一,而在这方面,斯坦福大学Stephen Boyd教授等所著的《优化》堪称经典:Convex Optimization – Boyd

    1.1K70发布于 2019-10-11
  • 来自专栏一点人工一点智能

    书籍分享-《Convex Optimization(优化)》

    《Convex Optimization(优化)》从理论、应用和算法三个方面系统地介绍优化内容。 优化在数学规划领域具有非常重要的地位。 从应用角度看,现有算法和常规计算能力已足以可靠地求解大规模优化问题,一旦将一个实际问题表述为优化问题,大体上意味着相应问题已经得到彻底解决,这是非优化问题所不具有的性质。 从理论角度看,用优化模型对一般性非线性优化模型进行局部逼近,始终是研究非线性规划问题的主要途径,因此,通过学习优化理论,可以直接或间接地掌握数学规划领域几乎所有重要的理论结果。 本书理论部分由4章构成,不仅涵盖了优化的所有基本概念和主要结果,还详细介绍了几类基本的优化问题以及将特殊的优化问题表述为优化问题的变换方法,这些内容对灵活运用优化知识解决实际问题非常有用。 本书算法部分也由3章构成,依次介绍求解无约束优化模型、等式约束优化模型以及包含不等式约束的优化模型的经典数值方法,以及如何利用优化理论分析这些方法的收敛性质。

    81530编辑于 2022-12-27
  • 来自专栏gojam技术备忘录

    优化与梯度下降

    首先抛一个知乎的回答:在数学中一个非的最优化问题是什么意思?

    1.9K60发布于 2019-05-14
  • 来自专栏杨熹的专栏

    优化有什么用

    本文结构: 优化有什么用? 什么是优化? ---- 优化有什么用? 鉴于本文中公式比较多,先把优化的意义写出来吧,就会对它更有兴趣。 优化的价值也在于思维转变,当我们在现实生活中遇到计算量接近无穷大的问题时,我们要想办法将模型转换成“优化问题”,因为优化已经相对嚼得比较烂,所以只要问题转化成优化,我们就可以分布迭代去运算。 当然现实中绝大部分优化问题并不是优化问题,但是优化非常重要, 因为: 还是有相当一部分问题是或等价于优化问题,例如下面会举例说明 SVM,最小二乘等。 大部分优化问题解起来比较快。 很多非优化或NP-Hard的问题可以转化(并非是等价的)为P的优化问题。并给出问题的界或近似。例如用对偶(Duality),松弛(Relaxation)等方法将一个优化问题转化为优化。 ---- 什么是优化? 关于优化,有几个基础概念:集,凸函数,优化问题,局部最优和全局最优。以及一个很重要的性质,就是所有局部最优点都是全局最优的 1.

    4.8K80发布于 2018-04-03
  • 来自专栏智能大数据分析

    【深度学习优化算法】02:

    性(convexity)在优化算法的设计中起到至关重要的作用,这主要是由于在这种情况下对算法进行分析和测试要容易。换言之,如果算法在性条件设定下的效果很差,那通常我们很难在其他条件下看到好的结果。 此外,即使深度学习中的优化问题通常是非的,它们也经常在局部极小值附近表现出一些性。这可能会产生一些比较有意思的新优化变体。 三、约束   优化的一个很好的特性是能够让我们有效地处理约束(constraints)。 此外,这是一个鞍点(saddlepoint)优化问题。 我们这里只需要知道 L 的鞍点是原始约束优化问题的最优解就足够了。 (二)惩罚   一种至少近似地满足约束优化问题的方法是采用拉格朗日函数 L 。

    41510编辑于 2025-06-10
领券