首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小洁叫你mysql

    AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 }") 什么是模型模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device

    1.5K30编辑于 2023-10-10
  • 来自专栏量子位

    AI模型时代 ≠ 只有模型AI时代

    从这个规律来看,语言模型(简称LLM)出现后虽然霸占了所有与AI相关的关键词,吸引了所有人的注意力,但这并不代表“LLM之前无AI”。 所以,AI不是只有模型AI模型时代也 ≠ 只有模型AI时代。 成熟的AI,早就已经上岗了 或许你还不敢相信,现在哪怕小小的快递背后,都已经有AI技术在加持了。 然而,这些仅仅是已经成熟上岗的AI技术在英特尔®️ 平台得到的优化,英特尔的能力还远不止如此。 这就要说回模型了。 因此,英特尔就祭出了一款增强型的“减(量)重(化)神(工)器(具)”,可以让一个十亿参数的语言模型瘦身3/4,增强其准确性,还能有效地提升模型在英特尔®️ 平台上的推理性能。 更多《英特尔平台上的行业AI实战与模型优化》相关内容,可扫描下方海报中的二维码获取。点击原文链接,阅读英特尔《最“in”模型》专栏的所有文章。 — 完 —

    65110编辑于 2023-09-27
  • 来自专栏司钰秘籍

    AI模型学习

    在当前技术环境下,AI模型学习不仅要求研究者具备深厚的数学基础和编程能力,还需要对特定领域的业务场景有深入的了解。 通过不断优化模型结构和算法,AI模型学习能够不断提升模型的准确性和效率,为人类生活和工作带来更多便利。 AI模型学习的理论基础 数学基础: 线性代数:AI 模型中大量使用向量和矩阵运算,如矩阵乘法、向量点积等,用于表示和操作数据。 AI模型在特定领域的应用 在自然语言处理领域,AI 模型如 GPT-3 被广泛应用于文本生成、机器翻译、问答系统等。 此外,模型的性能也受到计算资源、数据质量和算法优化等因素的影响 AI模型学习的伦理与社会影响 AI 模型学习确实带来了一些伦理和社会问题,我们需要认真对待: 1.

    65710编辑于 2024-04-04
  • 来自专栏人工智能领域

    AI模型学习

    AI模型学习 在当前技术环境下,AI模型学习不仅要求研究者具备深厚的数学基础和编程能力,还需要对特定领域的业务场景有深入的了解。 方向一:AI模型学习的理论基础 AI 模型学习的理论基础涉及深度学习、神经网络、优化算法等多个方面。 ———————————————— 方向二:AI模型的训练与优化 AI 模型学习的理论基础涉及深度学习、神经网络、优化算法等多个方面。 ———————————————— 方向三:AI模型在特定领域的应用 AI模型的训练与优化是深度学习领域中至关重要的一部分。 ———————————————— 方向四:AI模型学习的伦理与社会影响 AI模型学习的伦理与社会影响是一个备受关注的话题,以下是一些关于这个方向的重要内容: 数据隐私:AI模型需要大量的数据来训练

    64110编辑于 2024-12-18
  • 零基础学AI模型之读懂AI模型

    模型知识,因此希望可以通过自己学习然后以写文章的形式向大家同样想零基础学习模型的同学进行互相交流,欢迎大家在评论区打出自己的疑问或者本文不正确的地方,我们一起学习 零基础学AI模型之读懂AI模型 甚至企业里说的“开发模型”,真的是从头造一个“大脑”吗? 今天就用通俗的语言,把AI模型的核心逻辑、能力边界和落地场景讲透,最后再给大家一份主流模型的选择指南。 一、什么是AI模型? 这时候,AI智能体(Agent) 才是模型的“落地形态”。 企业真正要开发的是AI智能体:模型的“升级版” 所谓“AI智能体(Agent)”,是给模型加上“手脚”“记忆”和“规划能力”,让它从“聊天工具”变成“能干活的助手”。 (70B)对硬件配置要求较高 最后:AI模型的核心不是“越复杂越好”,而是“越实用越好” 看完这些,你会发现:AI模型的本质是“用海量规律解决问题”,而它的落地关键是“智能体”——把“语言能力”变成

    1.2K20编辑于 2025-12-22
  • 来自专栏机器学习入门

    AI模型】LLM主流开源模型介绍

    掌握ChatGLM、LLaMA、Bloom等基础模型的原理 LLM主流模型类别 随着ChatGPT迅速火爆,引发了模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款模型发布及应用 目前,市面上已经开源了各种类型的语言模型,本章节我们主要介绍其中的三类: ChatGLM-6B:衍生的模型(wenda、ChatSQL等) LLaMA:衍生的模型(Alpaca、Vicuna 同样,我们可以得到x_1的二维位置编码是[1, 0], x_2的位置编码是[2, 0], x_4的位置编码是[4, 0]。 显存(推理) 最低GPU显存(高效参数微调) FP16(无量化) 13GB 14GB INT8 10GB 9GB INT4 6GB 7GB 2.5 模型特点 优点: 较低的部署门槛: INT4 精度下 闻达:大型语言模型调用平台,基于 ChatGLM-6B 实现了类 ChatPDF 功能 LLaMA模型 LLaMA(Large Language Model Meta AI),由 Meta AI 于2023

    1.2K10编辑于 2024-09-24
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强 一个极为流行的 Python AI 框架,用于构建 LLM 应用。 有非常强的功能,但也有不少争议,尤其是在“抽象太多”方面。 你是否真的需要框架? LangChain 对新手的意义: 对 AI 或 ML 没有背景的工程师(如后端、前端、DevOps),LangChain 是一个很好的入门途径。

    70710编辑于 2025-08-04
  • 零基础学AI模型AI模型常见概念

    模型 零基础学AI模型之SpringAI 前情摘要: 1、零基础学AI模型之读懂AI模型 2、零基础学AI模型之从0到1调用模型API 3、零基础学AI模型之SpringAI 零基础学 AI模型AI模型常见概念 一、先搞懂:什么是AI模型? 二、AI模型的6个核心概念 如果把AI模型比作“智能大脑”,下面这些概念就是它的“神经中枢”——决定了它“怎么思考”“怎么干活”“怎么不犯错”。 1. 令牌(Tokens):模型的“语言最小单位” 你可能听过“ChatGPT3只能处理4K内容”,这里的“4K”指的就是令牌(Tokens)——模型处理语言的基本单位,相当于人类说话的“词语片段”。 4. 结构化输出(Structured Output) 传统AI输出是字符串(比如即使返回JSON,也得手动转成Java对象),而结构化输出能让模型直接生成开发者需要的数据格式,省去解析步骤。

    45310编辑于 2025-12-22
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(八):模型微调之LoraConfig

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 LoRA是一种用于微调大型语言模型的轻量级方法,它通过添加低秩矩阵到预训练模型的权重上来实现适应性调整,从而在不显著增加模型大小的情况下提升特定任务的性能。 task_type: 指定任务类型,如'CAUSAL_LM',以确保LoRA适应正确应用到模型的相应部分。 get_peft_model(model, config) print_trainable_parameters(model) 三、总结 本文简要介绍LoraConfig的配置参数情况,具体的机遇peft对模型进行微调后面单独开一页详细讲解

    95110编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(四):AutoTokenizer

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 这意味着,当你知道模型的名称时,你可以使用AutoTokenizer自动获取与该模型匹配的分词器,而不需要了解分词器的具体实现细节。 2.2 主要特点 模型兼容性:通过模型名称自动匹配合适的分词器,支持BERT、RoBERTa、Albert、DistilBERT、T5等众多模型。 灵活性:对于新发布的模型,只要其分词器在Hugging Face模型库中可用,AutoTokenizer.from_pretrained就能加载。 这意味着,当知道模型的名称时,可以使用AutoTokenizer自动获取与该模型匹配的分词器。

    1.8K10编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(二):AutoModelForCausalLM

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 2.2 主要功能 这个类是基于`AutoModel`的,它能够根据指定的模型名称或路径自动加载相应的模型架构。 这里使用了Auto自动模型,transformers包括管道pipeline、自动模型auto以及具体模型三种模型实例化方法,如果同时有配套的分词工具(Tokenizer),需要使用同名调度。 管道(Pipline)方式:高度集成的使用方式,几行代码就可以实现一个NLP任务 自动模型(AutoModel)方式:自动载入并使用BERT等模型 具体模型方式:在使用时需要明确具体的模型,并按照特定参数进行调试 同时,列举了管道模型、自动模型、具体模型等三种transformers预训练模型实例化方法。期待大家三连。

    2.9K11编辑于 2024-08-13
  • 来自专栏muller的测试分享

    智谱 AI 模型

    简介智谱是清华大学技术成果转化公司中英双语千亿级模型 GLM-130B对话模型 ChatGLM开源模型 ChatGLM-6BAI 提效助手智谱清言高效率代码模型 CodeGeeX多模态理解模型 CogVLM 文生图模型 CogView文生视频模型 CogVideo文生视频模型开放平台 模型体验中心编程调用# pip install zhipuai 请先在终端进行安装from zhipuai import ZhipuAIclient = ZhipuAI(api_key="your api key")response = client.chat.completions.create( model="glm-4v-plus temperature= 0.95, max_tokens=1024, stream=True)for trunk in response: print(trunk)总结国内开源模型的领先者 , 模型领域的经典成功商业案例

    53610编辑于 2024-10-28
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(一):Tokenizer

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Tokenizer类。 **编码**:将tokens转换为数字ID,这些ID是模型的输入。每个token在词汇表中有一个唯一的ID。 4.

    1.7K12编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十二):Evaluate模型评估

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Evaluate模型评估。 二、Evaluate模型评估 2.1 概述 Transformers库中的evaluate API主要用于评估模型在特定数据集上的性能。 下面是一个使用Python和Transformers库进行模型评估的基本步骤,假设你已经有了一个预训练模型和相应的数据集处理器。 dataset = load_dataset("imdb") 2.2.4 步骤4: 数据预处理 定义一个函数来对数据进行编码,适合模型输入。

    1K10编辑于 2024-08-13
  • 来自专栏量子位

    AI评估AI,上交大新款模型部分任务超越GPT-4模型数据都开源

    评估模型对齐表现最高效的方式是? 在生成式AI趋势里,让模型回答和人类价值(意图)一致非常重要,也就是业内常说的对齐(Alignment)。 “让模型自己上。” 所以研究人员开源了一个130亿参数规模的模型Auto-J,能对评估当下模型的对齐效果。 它可同时分析两个大模型的回答,分别做出评价并进行对比。 也能评估单个回复。 用模型指导模型回答 在实际任务中,Auto-J不仅可以在两个不同模型的回复中,指明更优秀的回答,而且会从多个具体维度给出判断和分析。 同时对于它认为不够好的回复,能提出改进建议。 可以看到Auto-J在两个指标上均显著超过了选取的基线模型,仅次于GPT-4。 对AlpacaEval(一个流行的基于GPT-4评估的模型排行榜)上提交的开源模型使用Auto-J的单样本打分进行了重新排序。

    51640编辑于 2023-11-14
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十三):Datasets库

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 2.2.3 步骤3: 查看数据集 查看数据集的结构和前几条数据: print(dataset['train'][:5]) 2.2.4 步骤4: 数据预处理 通常需要对数据进行预处理,比如使用Transformers

    72710编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十五):timm库

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Hugging Face的timm库用法 二、timm库 2.1 概述 Hugging Face的timm库是一个用于计算机视觉的模型库,它提供了大量预训练的图像识别模型,以高效、易用为特点 timm库提供了很多模型,例如EfficientNet,ResNet等,这里以EfficientNet为例。

    1.5K11编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十四):Datasets Viewer

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 下载并查看数据集中任意索引处的行 在数据集中搜索单词 根据查询字符串过滤行 获取有关数据的深刻统计数据 以parquet 文件形式访问数据集,以便在您喜欢的处理或分析框架中使用 2.2 示例 比如,这是ShareGPT4Video /ShareGPT4Video数据集的Dataset Viewer 三、总结 以上步骤展示了如何使用Datasets Viewer来查看数据,Datasets是hugging face主要我存储资源之一

    43910编辑于 2024-08-13
  • 来自专栏机器学习入门

    AI模型】ChatGPT模型原理介绍(下)

    下图为不同模型之间训练参数的对比: ​ ​ 1.1 GPT-3模型架构 实际上GPT-3 不是一个单一的模型, 而是一个模型系列. 系列中的每个模型都有不同数量的可训练参数. 需要一个相关任务的数据集, 而且需要对其进行标注 当一个样本没有出现在数据分布的时候, 泛化性不见得比小模型要好 下图显示了 GPT-3 三种情景学习方法: ​ ​ zero-shot learning Environment(环境): 整个游戏的背景就是环境;超级玛丽中Agent、地面、柱子组成了整个环境. 如何让AI实现自动打游戏? 第一步: 通过强化学习(机器学习方法)学出Policy函数, 该步骤目的是用Policy函数来控制Agent. 工作原理: 选择 prompt 列表, SFT 模型为每个 prompt 生成多个输出(4 到 9 之间的任意值) 标注者将输出从最佳到最差排序.

    64210编辑于 2024-09-18
  • 来自专栏DevOps

    AI模型:开源语言模型bloom学习

    作为一名开源爱好者,我非常不喜欢知识付费或者服务收费的理念,所以便有决心写下此系列,让一般大众们可以不付费的玩转当下比较新的开源语言模型bloom及其问答系列模型bloomz。 一、模型介绍 bloom是一个开源的支持最多59种语言和176B参数的语言模型。 bigscience在hugging face上发布的bloom模型包含多个参数多个版本,本文中出于让大家都能动手实践的考虑,选择最小号的bloom-1b1版本,其他模型请自行尝试。 (checkpoint) #下载模型 网速足够快的情况下等一会就下载好了,但通常情况下我们得ctrl+c打断代码运行,手动下载模型存放到对应位置,即.cache\huggingface\hub\models–bigscience–bloom 下载模型地址: https://huggingface.co/bigscience/bloom-1b1/tree/main 把如上图所示链接中的五个文件(不包含这个flax_model.msgpack)

    90810编辑于 2024-03-29
领券