来源:DeepHub IMBA 本文约1800字,建议阅读5分钟 本文解释了这两种模型类型之间的区别,并讨论了每种方法的优缺点。 分类模型可以分为两大类:生成式模型与辨别式模型。 生成式模型在估计类概率之前学习输入的分布。 区别和优缺点 生成式模型和辨别式模型的主要区别在于它们学习的目标不同。生成式模型学习输入数据的分布,可以生成新的数据样本。辨别式模型学习输入数据和输出标签之间的关系,可以预测新的标签。 对数据分布的假设比较强,因为生成式模型要建立输入数据和输出数据之间的联合分布,需要对数据的分布进行假设和建模,因此对于复杂的数据分布,生成式模型在小规模的计算资源上并不适用。 生成模型可以处理多模态数据,因为生成式模型可以建立输入数据和输出数据之间的多元联合分布,从而能够处理多模态数据。
生成式模型是对联合概率分布 P(X,Y,Z) 进行建模,在给定观测集合X的条件下,通过计算边缘分布来得到对变量集合Y的推断,即: P(Y|X)=\frac{P(X,Y)}{P(X)}=\frac{\ sum_ZP(X,Y,Z)}{\sum_{Y,Z}P(Y,Z|X)} 判别式模型是直接对条件概率分布 P(Y,Z|X) 进行建模,然后消掉无关变量 Z 就可以得到对变量集合 Y 的预测,即: P(Y |X)=\sum_Z{P(Y,Z|X)} 常见的概率图模型有朴素贝叶斯、最大熵模型、贝叶斯网络、隐马尔可夫模型、条件随机场、pLSA、LDA。 朴素贝叶斯、贝叶斯网络、pLSA、LDA等模型都是先对联合概率分布进行建模,然后再通过边缘计算得到对变量的预测,所以它们都属于生成式模型。 隐马尔可夫模型(HMM)也属于生成式模型 条件随机场(CRF)属于判别式模型
生成式模型 我把每个国家的语言都学一遍,这样我就能很容易知道A说的是哪国语言,并且C、D说的是哪国的我也可以知道,进一步我还能自己讲不同国家语言。 判别式模型 我只需要学习语言之间的差别是什么,学到了这个界限自然就能区分不同语言,我能说出不同语言的区别,但我哦可能不会讲。 它们的区别在于: 对于输入x,类别标签y: 生成式模型估计它们的联合概率分布P(x,y) 判别式模型估计条件概率分布P(y|x) 生成式模型可以根据贝叶斯公式得到判别式模型,但反过来不行 on-discriminative-vs-generative-classifiers-a-comparison-of-logistic-regression-and-naive-bayes.pdf 常见生成式模型 Experts Mixtures of Multinomials HMM Markov random fields Sigmoidal belief networks Bayesian networks 常见判别式模型
生成式模型和判别式模型的概念是机器学习领域非常重要的基础知识,但能准确区分开二者并不是一件非常容易的事情,笔者经常是看一遍忘一遍,为了巩固下知识点,我将从以下几个方面对两种模型进行介绍和对比。 定义 生成式模型先对数据的联合分布 进行建模,然后再通过贝叶斯公式计算样本属于各类别的后验概率 。 判别式模型直接进行条件概率建模,由数据直接学习决策函数 或条件概率分布 作为预测的模型。 用一句话总结就是生成模型估计的是联合概率分布,判别式模型估计的是条件概率分布。 我们可以看到,生成式模型强调数据本身特点,判别式模型强调数据边界。在分类的过程中,生成式模型对每个结果都要亲自试一试,遍历完一遍后取概率最大的结果;而判别式模型直接通过模型得到结果。 代表算法 生成式模型:朴素贝叶斯、贝叶斯网络、隐马尔可夫模型、隐马尔可夫模型; 判别式模型:k 近邻法、决策树、逻辑斯谛回归模型、最大熵模型、支持向量机、条件随机场。
摘要 生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。 生成式对抗网络最最直接的应用是数据的生成,而数据质量的好坏则是评判GAN成功与否的关键。 一般而言,深度学习模型可以分为判别式模型与生成式模型。由于反向传播(Back propagation, BP)、Dropout等算法的发明,判别式模型得到了迅速发展。 然而,由于生成式模型建模较为困难,因此发展缓慢,直到近年来最成功的生成模型——生成式对抗网络的发明,这一领域才焕发新的生机。 GAN的基本模型 设z为随机噪声,x为真实数据,生成式网络和判别式网络可以分别用G和D表示,其中D可以看作一个二分类器,那么采用交叉熵表示,可以写作 其中第一项的logDx表示判别器对真实数据的判断,
摘要 生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。 生成式对抗网络最最直接的应用是数据的生成,而数据质量的好坏则是评判GAN成功与否的关键。 一般而言,深度学习模型可以分为判别式模型与生成式模型。由于反向传播(Back propagation, BP)、Dropout等算法的发明,判别式模型得到了迅速发展。 然而,由于生成式模型建模较为困难,因此发展缓慢,直到近年来最成功的生成模型——生成式对抗网络的发明,这一领域才焕发新的生机。 GAN的基本模型 设z为随机噪声,x为真实数据,生成式网络和判别式网络可以分别用G和D表示,其中D可以看作一个二分类器,那么采用交叉熵表示,可以写作: ?
摘要 生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。 生成式对抗网络最最直接的应用是数据的生成,而数据质量的好坏则是评判GAN成功与否的关键。 一般而言,深度学习模型可以分为判别式模型与生成式模型。由于反向传播(Back propagation, BP)、Dropout等算法的发明,判别式模型得到了迅速发展。 然而,由于生成式模型建模较为困难,因此发展缓慢,直到近年来最成功的生成模型——生成式对抗网络的发明,这一领域才焕发新的生机。 GAN的基本模型 设z为随机噪声,x为真实数据,生成式网络和判别式网络可以分别用G和D表示,其中D可以看作一个二分类器,那么采用交叉熵表示,可以写作 其中第一项的logDx表示判别器对真实数据的判断,
前言 基于denoising diffusion probabilistic model (DDPM)的扩散模型,该模型已在图像/音频/视频生成领域取得显著成果。 生成模型的扩散概念最早在2015年由Sohl-Dickstein等人介绍,但直到2019年和2020年分别在斯坦福大学和Google Brain才各自独立地改进了这种方法。 Diffusion模型通过正向扩散过程逐步向图像添加高斯噪声,然后通过反向去噪过程,利用神经网络逐步去除噪声,最终生成实际图像。这两个过程在有限的时间步长内完成,最终得到各向同性的高斯分布。 扩散模型实现原理 前向过程,即向图片上加噪声的过程。通过定义前向扩散过程和动态方差的方法,可以逐步生成图像,使得最终的图像越来越接近纯噪声。 总结 扩散模型是一种基于噪声逐步去噪的生成模型,与其他生成模型如变分自编码器、生成对抗网络等相比,扩散模型较为简单,但在图像、音频、视频等领域取得了较好的效果。
上一期为大家说明了什么是极大似然法,以及如何使用极大似然法搭建生成模型,本期将为大家介绍第一个显式生成模型完全可见置信网络FVBN。 PixelRNN和PixelCNN也属于完全可见置信网络,从名字可以看出,这两个模型一般用于图像的生成。 PixelRNN和PixelCNN此后仍有非常多改进模型,但由于它是逐个像素点地生成图片,具有串行性,故在实际应用中效率难以保证,这也是FVBN模型的通病。 ? 深度学习 总结 本期带大家学习了第一种显式生成模型完全可见置信网络,并对其中的自回归网络和pixelRNN,pixelCNN做了讲解,并讲解了一份完整的pixelCNN代码。 下一期我们将对第二个显式模型流模型进行讲解。
很多人曾经尝试将 BERT 等预训练语言模型应用于文本生成任务(Natural Language Generation),然而结果并不理想。究其原因,是在于预训练阶段和下游任务阶段的差异。 其原因和目的也很简单: BERT的这种简单替换导致的是encoder端的输入携带了有关序列结构的一些信息(比如序列的长度等信息),而这些信息在文本生成任务中一般是不会提供给模型的。 Left-to-Right Pretraining会提升生成任务的效果:和Masked Language Model和Permuted Language Model相比,包含Left-to-Right预训练的模型在生成任务上表现更好 Masked Language Model和Permuted Language Model相比于包含Left-to-Right Auto-regressive Pre-training的模型,在生成任务上明显表现要差一些 实验2: 大规模实验 实验发现,在discriminative任务(NLU)上和RoBERTa/XLNet效果持平,在生成任务上显著高于BERT, UniLM, XLNet, RoBERTa等模型 4.1
生成式AI 生成式人工智能最近变得非常流行,它被大众用来生成不同类型的内容,包括文本、图像、视频等。 生成式 AI 是人工智能 (AI) 技术的一个子集,专注于根据输入数据或从现有数据中学习的模式生成新的原创内容。 与专为分类或预测等特定任务而设计的传统 AI 模型不同,生成式 AI 模型能够创建全新的数据样本,这些样本类似于它们所接触的训练数据。它使用生成模型,这些模型根据现有数据的学习概率分布生成新内容。 Gemmi Gemini 是由 Google Deepmind 开发的 LLM(大型语言模型),能够生成文本、翻译语言和编写各种创意内容。
机器之心编译 参与:李志伟、Geek AI 生成模型不止有 GAN,本教程讨论了数学上最直接的生成模型(易处理的密度估计模型)。读罢本文,你将了解如何定量地比较似然模型。 散度最小化:生成模型的一般框架 生成模型(其实都是统计机器学习模型)旨在从一些(可能是条件的)概率分布 p(x) 中取样本数据,并学习对 p(x) 进行近似的模型 pθ(x)。 在散度最小化的框架下考虑生成模型是很有用的,因为这让我们可以仔细思考:为了进行训练,我们对生成模型有何要求。 它可能是隐式的密度模型(GAN),此时采样相对容易,而并不能计算对数概率;它也可能是基于能量的模型,此时无法进行采样,而(非标准化的)对数概率则易于计算。 当然,我们通常不希望我们的生成模型过拟合这种极端情况,但在调试生成模型时,记住这个上限,作为一种检合理性检查是很有用的。
已知输入变量x,判别模型(discriminative model)通过求解条件概率分布P(y|x)或者直接计算y的值来预测y。 生成模型(generative model)通过对观测值和标注数据计算联合概率分布P(x,y)来达到判定估算y的目的。 判别模型 常见的判别模型有线性回归(Linear Regression),逻辑回归(Logistic Regression),支持向量机(SVM), 传统神经网络(Traditional Neural Networks),线性判别分析(Linear Discriminative Analysis),条件随机场(Conditional Random Field); 生成模型 常见的生成模型有朴素贝叶斯( 相关阅读 判别式模型 vs. 生成式模型 ?
使用Nova LLM评估生成式AI模型评估大型语言模型(LLM)的性能不仅仅局限于困惑度或双语评估替补(BLEU)分数等统计指标。 对于大多数现实世界的生成式AI场景,关键是要了解模型是否比基线或早期迭代产生更好的输出。这在摘要生成、内容创作或智能代理等应用中尤为重要,因为这些应用需要主观判断和细微的正确性评估。 中的高值或大标准误差表明评估过程中可能存在问题,例如提示格式不一致或样本量不足解决方案概述此解决方案演示了如何使用Nova LLM-as-a-Judge能力在Amazon SageMaker AI上评估生成式 Nova LLM-as-a-Judge评估,需要从要比较的候选模型生成输出。 结论本文演示了如何通过Amazon SageMaker AI提供的专门评估模型Nova LLM-as-a-Judge来系统测量生成式AI系统的相对性能。
从技术层面讲,知一使用了百度文心大模型技术。大规模预训练技术提升模型性能,蒸馏压缩率高达99%的模型小型化技术以降低成本,得以在搜索场景全面应用。 比如虚拟人技术加持下,可以实现交互式对话,单纯的搜索之外又有了聊天、陪伴需求。 正如百度研究院在年初的十大科技趋势中所预测的,AIGC(AI Generated Content,人工智能生成内容)在今年大放异彩。 未来AIGC继续与搜索深度结合,还将带来“搜索即生成”甚至“搜索即创造”。 搜索模型推理优化,对于保障亿万用户流畅的搜索体验、控制算力成本开销至关重要。希望参赛者通过各种优化技术,挑战最优的模型推理性能。
从图像生成到文本创作,从音乐合成到视频生成,生成式AI正在改变我们对创造力的理解。本文将深入探讨两种最重要的生成模型:生成对抗网络(GAN)和扩散模型(Diffusion Models)。 生成式AI基础 什么是生成模型? 生成模型的目标是学习数据的真实分布,从而能够生成新的、与训练数据相似但不完全相同的样本。与判别模型(用于分类或回归)不同,生成模型专注于创造和理解数据分布。 () compare_models() 生成式AI的应用 1. 的两种主要技术:GAN和扩散模型,涵盖了: 生成模型基础:理解生成式AI的核心概念 GAN技术:从基础GAN到DCGAN、WGAN等改进版本 扩散模型:新兴的强大生成技术 实际应用:图像生成、去噪、编辑等任务 技术比较:GAN和扩散模型的优缺点对比 生成式AI正在快速演进,从最初简单的GAN到今天强大的扩散模型,我们已经能够生成高质量、多样化的内容。
了解生成式语言模型的基本概念 了解生成式语言模型是一种能够生成文本或其他类型数据的模型,通常基于神经网络等技术,能够学习语言的结构和规律,从而生成类似人类写作风格的文本。 2. 学习如何评估生成式语言模型的性能,例如使用困惑度(Perplexity)等指标。 5. 实践项目和案例 参与生成式语言模型相关的项目和竞赛,如文本生成、对话生成等。 生成式语言模型中的moe agent rag 生成式语言模型领域,MOE、Agent 和 RAG 是三个不同但相关的概念。 这种方法可以有效地加速模型推理,并且可以应用于生成式语言模型中。 硬件加速: 利用专用硬件(如GPU、TPU等)加速生成式语言模型的推理是一种常见的方法。 生成式语言模型的验证数据集 生成式语言模型的验证数据集是评估这些模型在特定任务或语言理解能力方面性能的重要工具。
随着生成式人工智能与大语言模型技术的快速发展,传统方法在面对非结构化数据(如自然语言文本、语音、图像等)和复杂场景时的处理能力已难以满足日益增长的分析需求。 1.2生成式人工智能与大语言模型架构生成式人工智能(GenerativeArtificialIntelligence,AIGC)是人工智能技术的重要分支,指基于深度学习、生成对抗网络(GAN)、变分自编码器 其本质是通过模型对数据的高维表示进行建模与泛化,从而实现条件驱动下的创意内容生成,典型GPT模型是生成式人工智能的有效解释,如图1.3所示。 关键内容包括:生成式(Generative)预训练(Pre-trained)转换器(Transformer)图1.3GPT模型引导生成式人工智能生成式人工智能的发展可追溯至2014年IanGoodfellow 图1.4生成式人工智能应用场景大语言模型(LargeLanguageModel,LLM)是当前生成式人工智能发展的核心技术,指在大规模文本语料上预训练的深度神经网络模型,具备自然语言理解、生成与推理能力
OpenAI 现在第一个研究成果已经公开:这四个项目 有着同样的主题——那就是加强或者使用了生成式模型. 生成式模型是无监督学习 的一个分支. 而最为棘手的部分就是发展出可以分析和理解数据中潜藏的珍宝的模型和算法. 生成式模型是达到这个目标的最为可能的方式之一. 要训练一个生成式模型,我们首先收集某个领域中的大量数据(如,数以百万计的图像、句子或者声音等),然后训练一个可以生成像这些数据模型. 现在我们构造生成式模型,将他们训练成可以生成如同这些样本图的模型. 因此,你可以想象绿色分布从随机开始,然后训练过程迭代式改变参数 $\theta$ 来拉长和压缩自己使得更匹配蓝色分布. ---- 生成式模型三个方法 大多数生成式模型有这个基础的设置,但是细节不同.
OpenAI 现在第一个研究成果已经公开:这四个项目 有着同样的主题——那就是加强或者使用了生成式模型. 生成式模型是无监督学习 的一个分支. 而最为棘手的部分就是发展出可以分析和理解数据中潜藏的珍宝的模型和算法. 生成式模型是达到这个目标的最为可能的方式之一. 要训练一个生成式模型,我们首先收集某个领域中的大量数据(如,数以百万计的图像、句子或者声音等),然后训练一个可以生成像这些数据模型. 现在我们构造生成式模型,将他们训练成可以生成如同这些样本图的模型. ---- 生成式模型三个方法 大多数生成式模型有这个基础的设置,但是细节不同.