首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 对比不同开源语言模型的结构有什么区别?

    今天我们来分析和对比一下目前比较流行的几个开源LLM在模型结构上有什么区别,这里挑选的openai的gpt2、开源鼻祖llama、国内的代表qwen2、欧洲的代表号称效果很好的模型mistral 、和号称完全开源模型olmo。 这边文章首先从gpt2开始分析,对比gpt2和trainsformer结构的区别,再对比gpt2到llama的演变,最后横向对比LLM时代llama、qwen2、mistral和olmo模型结构的区别。 三、qwen2、mistral、olmo和llama结构的区别上面的分析可以看到,llama在gpt2的结构上还是做了一些修改的,下面看看这几个其他的开源模型有没有在llama的基础上进行修改。 不过这对模型的业界工作可能也是一个好消息,模型结构是确定的,大家只需要把更多的精力关注在数据​和训练策略上就可以了,一定程度上降低了模型开发的复杂度。

    2.2K10编辑于 2024-08-19
  • 来自专栏睡前机器学习

    开源模型到底开源什么?

    语言模型的“开源”完全不是这么一回事。先别管OpenAI现在名叫钮钴禄氏·CloseAI,就算哪天良心发现,真的要找回自己做一个名副其实的OpenAI,洗心革面把GPT-4给开源了。 那么,现在很多研究者在呼吁的开源,到底是要开源什么呢?开源模型,具体来说,是开源训练好的模型参数。模型参数拿到手,基本上就能完整复现能力了。 前面说过,模型这玩意距离能力复现就一步之遥,有很多人爱开源模型,也有很多人不爱开源模型,原因和上面差不多,还有一种是大公司机构才敢用,官方辞令很多,譬如“出于社会责任考虑”,或者“安全伦理存在巨大风险 这里为咱们的中文开源语言模型打个Call吧,能讲中文还开源语言模型真的不多,清华放出来的ChatGLM-6B应该是佼佼者,而是真·单卡就能运行。这里说的是消费级显卡。 最后就是开源数据集了,这项工作很重要,但也很容易被圈外忽视。现在中文语言模型缺的东西很多,抱怨的也很多,还有一票人天天平替这个平替那个,实在不知道怎么想。

    1.6K20编辑于 2023-09-09
  • 来自专栏学习

    开源模型与闭源模型

    在人工智能(AI)和机器学习(ML)的快速发展过程中,模型(Large Models)已经成为推动技术进步的重要力量。当前,业界存在两种主要的模型开发模式:开源模型和闭源模型。 一、开源模型 开源模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。 三、开源模型与闭源模型对比 1.透明性与可控性: 开源模型的透明性更高,任何人都可以查看和验证其代码和数据,确保模型的行为符合预期。这对于学术研究和技术验证非常重要。 3.资源共享与独占优势: 开源模型在资源共享方面表现突出,任何人都可以利用这些开源资源进行学习和研究,促进技术的普及和应用。 闭源模型通过控制代码和数据的访问,能够更好地保护用户隐私和数据安全,降低被恶意利用的风险。 五、总结 开源模型和闭源模型各有优缺点,适合不同的应用场景和需求。

    1.7K10编辑于 2024-10-09
  • 6开源的最佳本地运行语言模型(LLM)工具

    •AI 对话与 Playground :支持使用语言模型进行多轮对话,并可同时加载多个模型进行对比与实验。 在前文提到的所有开源本地 LLM 工具中,Ollama 拥有最多的贡献者,且具备更强的可扩展性。 6. •支持模型广泛(Supported Models): 支持多种主流 LLM 模型,如: Mistral 7B[26] ,Mixtral MoE[27] ,DBRX[28] ,Falcon[29],以及更多开源模型 许多开源的图形界面(GUI)本地 LLM 工具,如 LM Studio和 Jan, 提供了直观的前端界面,方便用户在无需订阅 OpenAI 或 Claude 等服务的情况下,配置和测试语言模型。 search=tiiuae%2Ffalcon [30]更多开源模型:https://github.com/ggerganov/llama.cpp?

    3.9K10编辑于 2026-03-13
  • 来自专栏机器学习入门

    【AI模型】LLM主流开源模型介绍

    学习目标 了解LLM主流开源模型. 掌握ChatGLM、LLaMA、Bloom等基础模型的原理 LLM主流模型类别 随着ChatGPT迅速火爆,引发了模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款模型发布及应用 目前,市面上已经开源了各种类型的语言模型,本章节我们主要介绍其中的三类: ChatGLM-6B:衍生的模型(wenda、ChatSQL等) LLaMA:衍生的模型(Alpaca、Vicuna 、BELLE、Phoenix、Chimera等) Bloom:衍生的模型(Bloomz、BELLE、Phoenix等) ChatGLM-6B模型 ChatGLM-6B 是清华大学提出的一个开源 小结 本小节主要介绍了LLM主流的开源模型,对不同模型架构、训练目标、优缺点进行了分析和总结。

    1.2K10编辑于 2024-09-24
  • 来自专栏java工会

    6 主流 Web 框架优缺点对比

    Angular 1 的迅速流行是因为那些来自其他交互式应用程序开发环境的人会发现对于开发单页面 web 应用程序具有相似的模型-视图模式。 如果你的 web 应用能够很好的转化为标准的模型-视图模式,那么你也可以忽略其他直接考虑使用 Angular2+ 。 在模型-视图应用程序和状态容器类型的应用程序之间的互相转换可能会令人感到困惑,即使没有完美包含一个模式到另一个模式的完美转换,但让人感觉希望能维持两个模式的相关性。 如果您致力于Web模型视图应用程序模块,并且你和你的团队试图想把一些事做的更好,那么Aurelia会是一个选择。它就像是一个正在寻求一个更大的社区来帮助它的发展和进化的框架。

    2.2K00发布于 2018-07-31
  • 来自专栏java工会

    6 主流 Web 框架优缺点对比

    Angular 1 的迅速流行是因为那些来自其他交互式应用程序开发环境的人会发现对于开发单页面 web 应用程序具有相似的模型-视图模式。 如果你的 web 应用能够很好的转化为标准的模型-视图模式,那么你也可以忽略其他直接考虑使用 Angular2+ 。 在模型-视图应用程序和状态容器类型的应用程序之间的互相转换可能会令人感到困惑,即使没有完美包含一个模式到另一个模式的完美转换,但让人感觉希望能维持两个模式的相关性。 如果您致力于Web模型视图应用程序模块,并且你和你的团队试图想把一些事做的更好,那么Aurelia会是一个选择。它就像是一个正在寻求一个更大的社区来帮助它的发展和进化的框架。

    2.8K20发布于 2018-10-18
  • 来自专栏机器学习入门

    【AI模型】BERT GPT ELMo模型对比

    单/双向语言模型: 三者之中, 只有GPT采用单向语言模型, 而ELMo和BERT都采用双向语言模型. ELMo虽然被认为采用了双向语言模型, 但实际上是左右两个单向语言模型分别提取特征, 然后进行特征拼接, 这种融合特征的能力比BERT一体化的融合特征方式弱. BERT: * 优点: * BERT使用了双向Transformer提取特征, 使得模型能力大幅提升. * 添加了两个预训练任务, MLM + NSP的多任务方式进行模型预训练. * 缺点: * 模型过于庞大 三者所采用的语言模型单/双向不同. BERT采用的是最彻底的双向语言模型, 可以同时关注context before和context after. ELMo表面上被认为是双向语言模型, 但实际上是左右两个单向LSTM模型分别提取特征, 在进行简单的拼接融合.

    55210编辑于 2025-01-17
  • 语言模型集成策略对比研究

    这是集成方法的关键问题有效利用多样性已被证明能够提升包括语言模型(LLM)在内的各种机器学习模型的性能。然而,如何最有效地使用多样性仍然是一个挑战。 本研究比较了两种用于回答二元问题的LLM多样性方法:模型多样性:依赖多个模型回答同一问题问题解释多样性:依赖同一模型以不同方式表述的同一问题在这两种情况下,都采用多数投票作为集成共识启发式方法来确定最终答案 在boolq、strategyqa和pubmedqa数据集上的实验表明,与模型多样性相比,问题解释多样性始终能够带来更好的集成准确率。 此外,对GPT和LLaMa的分析显示,模型多样性通常产生的结果介于最佳和最差集成成员之间,而没有明显的改进。

    13800编辑于 2025-09-03
  • 来自专栏技术趋势

    google开源模型-gemini

    官网:https://deepmind.google/technologies/gemini/#introduction 简介 Gemini是谷歌公司发布的人工智能模型,能够在从数据中心到移动设备等不同平台上运行 “双子座”Ultra版本是首个在“大规模多任务语言理解”(MMLU)领域超越人类专家的模型。---百度百科 https://baike.baidu.com/item/Gemini/63729669? spm_id_from=888.80997.embed_other.whitelist&vd_source=7d0e42b081e08cb3cefaea55cc1fa8b7 相关能力对比 能力 基准 描述 最后 gemini虽然说能力存在造假质疑,但是不妨我们学习,还是有很多能力还没有完全去验证出来,我这个只是基于api去调用,有兴趣的同学可以用python或前端等方式去实现,然后与文心一言、千义通问等对比看效果 随着未来模型的普及我们的工作肯定有一部分会通过AI来提高效率,所以可以提升了解并实践

    2.4K10编辑于 2024-01-15
  • 来自专栏大模型&AIGC

    6模型微调技术

    值得一提的是,通过使用T5模型进行模型大小的消融实验,我们展示了提示微调随着规模的增加变得更加具有竞争力:当模型参数超过数十亿时,我们的方法“缩小了差距”并达到了模型微调(即调整所有模型权重)的强大性能 input和target,则使用原始的input embedding(5) 使用方式离散和连续template token混合时,显示地插入一下anchor(离散的token)有助于template的优化(6) ,无需verbalizer(4) 特点在小、模型上,效果均优于P-tuning。 当参数量达10B,效果相当于FT6.LoRA(2021)(1) 论文信息来自论文:《LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS》(2)摘要自然语言处理的一个重要范式包括在通用领域数据上进行大规模预训练 Model),学习目标为而加入LoRA后,学习目标为:(6) 配置在多个部位$(Q/K/V/Output)$同时添加$\bigtriangleup W$ ,会比只在单一部分上添加权重$\bigtriangleup

    2.7K00编辑于 2025-05-08
  • 来自专栏机器学习AI算法工程

    开源语言模型LLMs汇总

    语言模型 语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。 2023年3月15日,Open AI发布了多模态预训练模型GPT4.0。 2023年2月,谷歌发布会公布了聊天机器人Bard,它由谷歌的语言模型LaMDA驱动。 开源语言模型 本文列举了截止到 2023 年 6 月 8 日开源语言模型 1、LLaMA 简介 meta 开源的 LLaMA LLaMA完全是在公共开源预训练数据上训练。 llama 2、ChatGLM - 6B 简介 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。 骆驼(Luotuo)项目是由冷子昂 @ 商汤科技, 陈启源 @ 华中师范大学 以及 李鲁鲁 @ 商汤科技 发起的中文语言模型开源项目,包含了一系列语言模型

    2.9K10编辑于 2023-09-04
  • 来自专栏Python进阶之路

    开源教育对话模型 EduChat

    EduChat 是华东师范大学计算机科学与技术学院的 EduNLP 团队开发的开源教育对话模型。 该项目主要研究以预训练模型为基底的教育对话模型相关技术,融合多样化的教育垂直领域数据,辅以指令微调、价值观对齐等方法,提供教育场景下自动出题、作业批改、情感支持、课程辅导、高考咨询等丰富功能,服务于广大老师 在未来,开发者们将持续投入对基础模型的研究,并持续推出更为强大的 EduChat 版本,以丰富全球教育模型生态,加速全球教育信息化进程。 鉴于上述模型的局限性,我们要求开发者仅将开源的代码、数据、模型以及由该项目生成的衍生物仅用于研究目的,禁止用于商业用途,以及其他可能对社会带来危害的用途。 ---- ️ 参考链接: EduChat - 探索了针对教育垂直领域的对话模型相关项目研发 EduChat 模型 - 在 educhat-base-002-7b 基础上,使用构建的教育领域多技能数据微调后得到

    1.9K30编辑于 2023-07-10
  • 来自专栏DevOps

    AI模型开源语言模型bloom学习

    作为一名开源爱好者,我非常不喜欢知识付费或者服务收费的理念,所以便有决心写下此系列,让一般大众们可以不付费的玩转当下比较新的开源语言模型bloom及其问答系列模型bloomz。 一、模型介绍 bloom是一个开源的支持最多59种语言和176B参数的语言模型。 bigscience在hugging face上发布的bloom模型包含多个参数多个版本,本文中出于让大家都能动手实践的考虑,选择最小号的bloom-1b1版本,其他模型请自行尝试。 (checkpoint) #下载模型 网速足够快的情况下等一会就下载好了,但通常情况下我们得ctrl+c打断代码运行,手动下载模型存放到对应位置,即.cache\huggingface\hub\models–bigscience–bloom 下载模型地址: https://huggingface.co/bigscience/bloom-1b1/tree/main 把如上图所示链接中的五个文件(不包含这个flax_model.msgpack)

    93010编辑于 2024-03-29
  • 来自专栏6G

    6G,AI , 与模型?

    6G与AI融合的未来方向 6G 网络的内生 AI 设计将赋能网络的AI模型,同时使网络能够支持 AI 模型的训练和服务。 另外,从小模型模型,生产效率跨越式提升基础通用模型具有泛化性,网络智能化将从用例驱动转变为能力驱动,迅速降低应用开发门槛,加速 AI 工程化、规模化落地。 6G 网络将承担数据采集、预处理等数据服务,为云AI训练提供更好的支持。此外,6G 网络的分布式部署将使得 AI 模型更靠近用户侧,从而在时延方面具有潜在优势。 在数据获取和处理方面,与 ChatGPT 不同,网络中存在大量结构化数据,且网络不同问题间的共性不清晰,网络 AI 模型面临较大挑战。6G 网络面临如何有效采集适合AI模型训练的数据的挑战。 而在构建 AI 模型的路径上,需要分阶段探索,从离线小规模模型开始,逐步过渡到实时大规模模型,最终实现统一的网络 AI 模型。 本文摘自于中国移动的“6G内生AI架构及AI模”汇报材料。

    42510编辑于 2024-04-24
  • 来自专栏科技云报道

    开源才是模型的未来?

    目前,国内也有近一半的模型选择了开源的方式: 今年7月,智谱AI宣布开源模型ChatGLM-6B和ChatGLM2-6B,这两个模型的下载量已经先后超过300万和120万。 有业内人士认为,未来90%的企业会倾向基于开源模型发展。那么,开源是否真的是模型的未来? 开源模型快速赶超 开源模型的核心理念是开放源代码,允许公众访问、使用、修改和分发模型的源代码。 开源模型的商业化挑战 尽管开源已成为现阶段模型发展的一种主流趋势,开源模型的发展速度也远快于封闭生态系统,但并非所有的厂商都选择开源路线,也并不代表厂商会一直开源所有的模型。 比如,以开源切入模型赛道的百川智能,在发布完Baichuan-7B、Baichuan-13B开源模型后,参数更大的Baichuan-53B模型则选择了闭源。 对比商业版本,开源版本一定是滞后的,包括技术的迭代、维护等等。 因此,两者的优势并不在同一个位置,也很难断言哪一个模式将完全主导模型的未来。

    47410编辑于 2023-12-26
  • 来自专栏AI工程落地

    语言模型--开源数据集

    Huggingface排行榜默认数据集 Huggingface开源模型排行榜: Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH4 本文主要介绍Huggingface开源模型排行榜上默认使用的数据集以及如何搭建自己的模型评估工具 搭建模型评估工具 1.下载数据集到本地 from datasets import load_dataset openai/human-eval: Code for the paper "Evaluating Large Language Models Trained on Code" (github.com) 对比自己的实现和开源分数差异 2110.14168.pdf (arxiv.org) 数据集地址:gsm8k · Datasets at Hugging Face 语言:English 介绍:GSM8K是一个包含8.5k的小学数学题,主要用于测试模型的数学和逻辑推理能力 arxiv.org/abs/2107.03374 数据集地址:openai/openai_humaneval · Datasets at Hugging Face 语言:English 介绍:OpenAI发布的测试模型编程能力的数据集

    2K20编辑于 2024-09-18
  • 来自专栏CDA数据分析师

    2017年6热门开源项目

    原作者 William Belk 编译 CDA 编译团队 本文为 CDA 数据分析师原创作品,转载需授权 2017 年哪些开源项目值得关注?让我们来看看 2017 年的 6 热门开源项目。 企业必须依赖于脆弱的开源项目、昂贵的专有平台或广泛的内部工具来管理它们的虚拟集群容器。 虽然 Lab41 本身不是一个开源项目,但是它提出了一些有趣的问题,这些问题导致了开源代码,并对社区做出了贡献。它揭示了开源原则,风险投资和政府优先事项的交集。 原文链接: https://hackernoon.com/top-6-open-source-projects-in-2017-db34b9d034a2

    2.2K80发布于 2018-02-26
  • 来自专栏数据派THU

    中文对话模型BELLE全面开源

    来源:高能AI本文约1000字,建议阅读5分钟模型调优仅使用由ChatGPT生成的数据,为中文指令提供更好的支持。 中文对话模型开源社区迎来了一名浓眉大眼的新成员! 但是这样的技术不应该只被掌握在一家公司手中,因此BELLE项目应运而生了,他们的初衷是为了促进中文对话模型开源社区的发展。为此,他们在三个方面做了初步的尝试,并已经开源了他们的研究成果。 他们已经开源其中的150万数据。 模型模型的训练往往具有较高的成本,而一个具备初步的能力的对话模型,将大大降低使用和科研的门槛。 为此,他们基于Bloom和LLAMA,训练了出具效果的对话模型,并完全开放了这些模型的参数。 轻量化:为了便于模型的部署和试用,BELLE团队同时开源了对话模型的量化版本。 总结 可以说BELLE的出现,大大促进了中文开源对话模型的发展,基于他们开源的数据和模型,更多的人可以尝试这些模型,更多的研究工作可以更快捷的展开。

    99120编辑于 2023-04-05
  • 来自专栏大模型应用

    模型应用:模型参数调优:结合本地模型对比多种组合探索差异.7

    引言 在模型的应用中,参数调优是连接模型潜力与实际效能的关键桥梁。与传统的软件参数不同,模型的生成参数更像是一组精密的调控旋钮,它们不改变模型的基础知识,而是影响模型如何思考和表达。 理解这些参数的本质,不仅能够提升模型输出的质量,更是将模型从玩具转变为工具的关键一步。 今天我们将从理论基础到实践应用,全面解析模型的核心参数体系,详细的介绍模型推理中常用的参数项,并通过本地模型示例展示参数调整对模型效能的影响。常见参数项:max_length:生成文本的最大长度。 的对比:特性Top-kTop-p筛选方式固定数量固定概率累积适应性静态动态稳定性高中等推荐使用简单任务复杂任务4. 分步调优流程图五、总结 模型的参数调优本质上是在控制与释放之间寻找平衡的艺术。

    73832编辑于 2026-02-04
领券