首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 5模型Agent模式

    模型中的5种AI Agent模式在模型中,AI Agent(人工智能代理)模式是一种重要的应用方式,可以从以下几个方面来理解:1. 在模型的背景下,AI Agent 是基于大规模预训练模型(如 GPT 等)构建的智能代理,能够利用模型的语言理解和生成能力来完成复杂的任务。 智能性:它基于模型的强大语言理解能力,能够理解自然语言指令,并生成自然语言响应。这种智能性使其能够处理复杂的语言任务,如对话、写作、翻译等。 工作原理感知与理解:AI Agent 首先通过输入(如用户指令、环境数据等)感知外部信息,然后利用模型的语言理解能力解析这些信息,确定任务目标。 下面介绍5种常见的AI Agent模式:1.

    4.2K10编辑于 2025-05-07
  • 来自专栏机器之心

    语言模型的可信之路:TrustLLM全面揭秘

    尽管⼈们已经付出了非常多的努力来确保语言模型的可信赖,一个问题仍然存在:我们真正能在多大程度上信任 LLMs? 论文得出的核心结论如下: 可信性与语言模型的能力密切相关。作者的发现表明,可信性与实用性之间存在正相关,尤其在特定任务中更为明显。 在 16 种流行语言模型上的广泛测试为本文提供了宝贵的数据支撑和经验。他们的基准测试架构如图 2 所示。基准测试的中的数据集详细如图 4 所示,任务设置如图 5 所示。 接下来,他们观察到不同程度的过度安全问题(如图 5 右侧),这是近期研究中突出的一个问题(语言模型会拒绝回答无害的输⼊)。 最后,他们通过偏好询问来探究语言模型中潜在的偏见问题(Preference)。 鲁棒性(Robustness) 在大型语言模型(LLMs)中,鲁棒性指的是它们在面对各种输⼊条件时的稳定性和性能。

    59510编辑于 2024-02-26
  • 来自专栏科技云报道

    通用与垂直模型之战:模型驱动的商业智能变革之路

    是做通用模型还是垂直模型,这一个争论在“百模大战”的下讨论愈发热烈。 目前,以微软、谷歌、百度、阿里等为代表的发力于通用模型的科技大厂,也都开始推动模型在垂直领域的商业化落地。 垂直模型则更为直接的深入特定行业和应用场景,如金融、医疗或零售等,相比于通用模型,垂直模型能够更精准地满足行业特定的需求。 说到底,无论是通用还是垂直模型,其核心点还是落地场景和商业化。 模型重新定义了人工智能的边界和可能性,但更需要的是,在具体的商业环境中找到了新的生存空间和增长点。 在众多垂直领域中,模型在智能商业BI领域落地尤为引人注目。 寻找通用与 垂直模型的平衡点 回到开头通用和垂直模型的讨论上。 这一次,有记者在网易数帆城市行媒体沟通环节将这个问题抛给了网易。 在模型掀起的新时代里,许多企业都站在了一个十字路口,开始寻找通用模型与垂直行业大模型之间的平衡。

    1.2K50编辑于 2023-08-18
  • 来自专栏IT杂谈学习

    探索AI模型学习的未来之路

    二、AI模型学习的理论基础 2.1 深度学习 AI模型学习建立在深厚的数学和算法基础之上。其中,深度学习技术是支撑模型学习的重要基石。 2.2 数据处理 在大规模数据处理方面,AI模型学习具有显著的优势。通过增加模型的深度和宽度,模型能够捕捉到更多的信息,从而提高模型的准确性和泛化能力。然而,这也带来了计算复杂度和资源消耗的挑战。 3.2 AI模型在特定领域的应用实例 AI模型学习在自然语言处理、图像识别、语音识别等领域取得了显著的应用成果。 四、AI模型学习的注意点 随着AI模型学习在各领域的广泛应用,其带来的伦理和社会问题也逐渐凸显出来。首先,数据隐私是一个不可忽视的问题。 模型往往具有复杂的结构和参数,使得其容易受到攻击和篡改。因此,加强模型的安全防护和鲁棒性是模型学习领域的重要研究方向。

    49210编辑于 2024-03-29
  • 来自专栏啄木鸟软件测试

    模型测试:性能优化的5实战策略

    引言 随着ChatGLM、Qwen、DeepSeek及Llama系列语言模型在金融、政务、医疗等关键场景加速落地,模型测试已远超传统‘功能是否正确’的范畴——性能成为决定能否上线的核心瓶颈。 这些并非个例,而是模型测试进入深水区的典型信号:性能不是附加项,而是可信AI的第一道防线。 一、明确性能基线:拒绝‘拍脑袋’指标 模型性能测试首要误区是套用小模型标准。 二、分层注入式压测:从单卡到集群的穿透验证 传统压力测试常止步于API层,而模型性能瓶颈常藏于框架底层。 推荐采用‘四层注入法’: 1)API层:模拟真实用户请求分布(如80%短提示+15%中长提示+5%对抗性长上下文),避免均匀负载失真; 2)Engine层:直连vLLM/Triton推理引擎,注入不同 结语 模型性能测试的本质,是构建‘可测量、可归因、可演进’的效能反馈闭环。

    23310编辑于 2026-03-31
  • 来自专栏资讯分享

    为什么价值对齐是模型的必由之路

    5. 模型价值对齐需要关注个体需求、集体规范、主体能动性,并兼顾技术实践与法律规制。6. 模型价值对齐仍有理论局限,需要保持开放和审慎的态度,在实践中逐步推进。 过去在模型没有出现时,我们还没有察觉到技术可以如此强大,随着GPT3到PaLM到各种各样开源模型出现,模型的能力越来越强,我们进入到了生成式人工智能的时代。 滕妍:语言模型的价值设计与评测当前,人工智能步入“通用模型”时代。 全球对于模型的社会伦理问题非常关注。 比如我国《生成式人工智能服务管理暂行办法》,或新发布的《生成式人工智能服务安全基本要求》中所提出的5类和31小类更细致的要求。这就引出了评测问题。

    64320编辑于 2023-11-10
  • 来自专栏大数据成神之路

    阿里大数据之路:数据模型总结

    ,将金融业务划分为10主题,并以设计面向金融仓库模型的核心为基础,企业基于此模型做适当调整和扩展就能快速落地实施。 至此,我们也得到了一个经验:在不太成熟、快速变化的业务面前,构建 ER 模型的风险非常,不太适合去构建 ER 模型。 基于应用的数据组装 : 宽表集市、横表转纵表、趋势指标串。 主要依据高内聚、低耦合的理念,在物理实现中,将业务关系、源系统影响差异小的表进行整合: 将业务关系小、源系统影响差异的表进行分而置之。 原则 5:在同一个事实表中不能有多种不同粒度的事实 事实表中的所有事实需要与表定义的粒度保持一致,在同一个事实表中不能有多种不同粒度的事实。

    2.7K22编辑于 2022-11-11
  • 模型微调】一文掌握5模型微调的方法

    (Prompt Tuning)在内的5种主流方法。 模型微调究竟是什么?直观上,模型微调即是指通过输入特定领域或任务的数据,并有选择性地调整模型参数的技术过程。 我们所讨论的5种微调方法,本质上都是对这个基础架构中自注意力机制与前馈神经网络等核心组件的参数进行优化的不同策略。 5、提示调整-轻量级的参数优化提示调整(Prompt Tuning)是一种“润物细无声”的微调,不改变模型自身,而是通过优化输入提示词的嵌入表示来引导模型输出。 四、模型微调赋能智能未来综上所述,模型微调是连接通用基座模型强大能力与具体业务需求的关键桥梁。

    3.8K40编辑于 2025-10-23
  • 来自专栏张俊红

    5 常用机器学习模型类型总结

    本文介绍了 5 常用机器学习模型类型:集合学习算法,解释型算法,聚类算法,降维算法,相似性算法,并简要介绍了每种类型中最广泛使用的算法模型。我们希望本文可以做到以下三点: 1、应用性。 所以我们希望通过给出模型的一般类别,让你更好地了解这些模型应当如何应用。 2、相关性。 因此,与其创建模型来预测响应变量的值,不如创建解释性模型来帮助我们理解模型中变量之间的关系。 当然,纸上得来终觉浅,如果本文使你有所收获,那就请开始你的应用之路吧,看看你能用ML解决什么问题! 参考链接: https://towardsdatascience.com/all-machine-learning-algorithms-you-should-know-in-2022-db5b4ccdf32f

    3.6K20编辑于 2022-03-29
  • 来自专栏AI科技评论

    模型行至深处,「悟道」如何走好全面开源之路

    也因此,智源被斯坦福、谷歌等企业列为模型的先驱。 尽管如此,由于早期,模型还缺乏好的应用场景和产品,价值始终无法发挥,模型的研发也曾受到一些争议。 与此前 80.1% 准确率的 OpenCLIP 相比,EVA-CLIP 5B版本在 ImageNet1K 零样本 top1 准确率达到了 82.0%。 、5 种任务、4 大类指标共 600 + 维全面评测,任务维度当前包括 22 个主客观评测数据集和 84433 道题目,更多维度的评测数据集正在陆续集成。 目前,天秤 FlagEval 模型评测体系及开放平台已推出语言模型评测、多国语言文图模型评测及文图生成评测等工具,并对各种语言基础模型、跨模态基础模型实现评测。 其中,FlagOpen 的核心 FlagAI 是模型算法开源项目,当中集成了全球各领域的一些明星模型,如语言模型 OPT、T5,视觉模型 ViT、Swin Transformer,多模态模型 CLIP

    81020编辑于 2023-08-08
  • 来自专栏新智元

    ChatGPT全年更新总结!重看「模型风向标」进化之路

    新智元报道 编辑:LRS 【新智元导读】2024年,OpenAI的ChatGPT在模型领域不断突破,推出了多项创新功能,如个性化聊天机器人商店、增强记忆功能、多模态处理能力等,在安全性、稳定性和高效性方面也持续优化 2024年,模型已经深入融入了我们的日常生活。 而作为领跑者,ChatGPT也一直是模型届的指南针,无论是去年发布的模型o1-pro,Sora Turbo,还是各种小功能,比如视频模式、打断说话等,甚至是每月200美元的高额定价,OpenAI的每一场发布会都能给广大 下面共同回顾一下OpenAI在2024年发布的关键更新,一起见证模型的进化之路! 1月 GPT商店:用户可以发布构建的个性化聊天机器人(GPTs),按类别进行搜索,如写作、生活方式和教育等。 GPT-4 Turbo发布:比GPT-4的生成速度快两倍,具有更大的上下文窗口,达到128k个token,价格只有1/3 5月 免费用户也可以选择默认的对话模型,比如切换GPT-4o-mini和GPT-

    77310编辑于 2025-02-15
  • 来自专栏AI实验室应用

    RLHF三挑战与突围之路:如何让模型更懂人类偏好?

    从RLHF到DPO:模型对齐技术的深度演进与实战解析 当语言模型学会理解人类偏好,一场关于对齐的技术革命正在悄然发生。 01 模型训练的三段式进阶之路 基础构建:预训练阶段 预训练(Pre-training):利用数十亿到数万亿个token的庞大文本语料库对模型继续预训练,使模型能够根据提供的文本来预测「下一个单词」 模型之旅始于预训练,模型在海量无标注文本上学习语言的基本规律: 数据规模:1000亿至超过5万亿token 核心任务:下一个token预测 输出成果:基础模型(Base Model) 这一阶段让模型掌握了语言的 03 RLHF的五核心挑战与创新解决方案 挑战一:人工标注成本高、难规模化 解决方案:AI反馈替代人类反馈 RLAIF:使用模型评估其他模型的输出,构建AI偏好数据集 Constitutional 零样本对齐:在新任务上无需额外对齐 可解释对齐:让对齐过程更加透明可控 个性化对齐:适应不同用户的偏好和价值观 05 结论:对齐之路,以人为本 模型对齐技术的发展,本质上是让机器更好地理解和服务人类的过程

    74522编辑于 2025-12-17
  • 来自专栏科控自动化

    SCADA 之路

    对于WinCC V7.x来说,在画面设计中使用脚本将带来非常的便利性。当要实现对象的动态化,你可以只通过组态的方式来实现。常规的动态应用,通过动态化窗口实现都没有问题。 其界面显示完全是基本 HTML5标准的。它的架构也跟前者有很大差别。最明显的一点就是脚本语言变为 JavaScript。 因此,开始学习并且掌握好JavaScript,就成了更好地使用Portal WinCC Unified的必经之路。 看到这里,你可能会想,我大概明白了编程在SCADA应用中的重要性。 但站在 WinCC 的角度上,多掌握些与 WinCC 相关的 Windows 知识,对我们的 WinCC 成长之路还是大有裨益的。 操作系统,其实也是一种程序,一种特殊的程序而已。 追溯DLL 产生背景,应该是在计算机应用早期,为了解决单体应用程序体积及占用内存过多而采取的一种解决方案。多个应用程序共享的功能库不用再静态链接到每个单体程序中,从而减小其程序体积。

    1.9K20编辑于 2022-03-29
  • 来自专栏有三AI

    模型解读】历数GAN的5基本结构

    如全卷积的DCGAN模型[1],输入就是1*100的向量,然后经过一个全连接层学习,reshape到4*4*1024的张量,再经过4个上采样的反卷积网络,生成64*64的图。 5.1 级联结构[5] 早期以DCGAN为代表的网络生成的图片分辨率太低,质量不够好,都不超过100×100,在32×32或者64×64左右。 在图像分割中进行上采样时也采用学习小倍率的放大而不是倍率的方法,如利用两个2倍上采样替换一个4倍的上采样,不仅可以增强网络的表达能力,还降低了学习难度。 5.2 并行与循环结构[6] GAN有一应用就是风格化,实现两个域之间的风格互换,以CycleGAN[6]为典型代表。它包含了多个生成器和多个判别器。Cycle的典型结构如下: ? ? Triple Generative Adversarial Nets[J]. neural information processing systems, 2017: 4088-4098. [5] Denton

    1.4K10发布于 2019-07-26
  • 来自专栏人工智能极简应用

    AI智能体研发之路-模型篇(三):中文模型开、闭源之争

    今天我们详细聊聊中文模型开闭源的那些事。 二、中文开/闭源模型概览 大家先看《2024年中文模型全景图》,对国内中文模型开闭源情况有个概念。 4、透明度和可解释性:源代码公开,有助于更好地理解模型的工作原理,提高模型的可解释性和可信度。 5、适应多样化需求:开源模型可以根据不同的应用场景和需求进行定制和扩展,满足个性化的要求。 5、知识产权风险:在使用开源模型时,需要注意遵守相关的开源协议,避免知识产权纠纷。 5、持续更新和改进:商业公司会不断对闭源模型进行更新和改进,以提供更好的性能和功能。 4.2 缺点 1、成本较高:闭源模型通常需要用户购买许可证或订阅服务,成本相对较高。 4、社区参与度低:相比开源模型,闭源模型的社区参与度较低,开发者之间的交流和合作相对较少。 5、依赖供应商:用户对闭源模型的使用和发展较为依赖供应商,一旦供应商出现问题,可能会影响用户的使用。

    68310编辑于 2024-08-13
  • 来自专栏啄木鸟软件测试

    多模态模型技术原理及实战(5)

    国内外多模态模型对比 国内 LLaMA-Adapter V2 香港中文大学 双语输出 输入 •图像 •语音 •文本 •视频 • 3D 点云 起源:LLaMA-Adapter •在线性层上进行偏差调整 •4、ChatGLM-6B 在 GLM 框架下,专门针对中文问答和对话进行了优化 mPLUG-Owl 阿里巴巴达摩研究院 2023年5月 架构 •视觉基础模块(采用开源的VTL-L) •视觉抽象模块 多模态模型评测数据集 国内评测数据集 OwlEval •基于mPLUG-Owl模型发布 • 包含 •50 张图片 •82 个回题 •功能 •故事生成 •广告生成 •代码生成 MME •开发 •结构 •265 016张图片 •每张图片至少有 3 个问题(平均 5.4个每个问题) •每个问题 •有 10 个基本事实答案 •有 3 个合理(但可能不正确)的答案 多模态模型的评测标准 国内评测标准 KROCC( Kendall Rank Order Correlation Coefficient,肯德尔秩相关系数) •RMSE( Root Mean Square Error,均方根误差 ) 多模态模型对比

    36510编辑于 2024-09-10
  • 来自专栏算法一只狗

    OpenAI下一代模型Orion被爆出提升有限,模型之路还有机会吗?

    如果你对于模型有关注,这篇文章将为您提供有价值的参考。 这可能就说明,为什么迟迟不出来GPT-5了,因为提升幅度有限,所以把GPT-5改名成立了Orion 一直以来,很多人都认为GPT这种模式其实最后是通向不了AGI的。 而这一次,模型Orion被曝出效果不佳,模型悲观主义学派Gary Marcus直接就宣布: 游戏结束,是我赢了。GPT模型正在进入一个收益递减期。 这里总结了网上几个主流的观点 目前模型存在的问题 1.数据集的问题 目前最主流的说法认为,模型的scaling raw正在慢慢失效,也就是目前的模型尽管有着大量的数据集进行训练,但是其能力却没有大规模的提升 所以说,目前OpenAI训练一个模型,特别是训练下一代模型Orion,其花费应该是天价了。

    33630编辑于 2024-11-18
  • 来自专栏算法channel

    AI模型之路 第三篇:从零实现词嵌入模型,加深理解!

    今天我们研究「AI模型第三篇」:词维度预测,很多读者听过词嵌入,这篇文章解答下面问题: 词嵌入是什么意思? 怎么做到的?原理是什么? 1 skip-gram模型 Skip-gram模型是一种广泛使用的词嵌入(Word Embedding)方法,由Mikolov等人在2013年提出。 它是Word2Vec模型的一种形式,主要用于从大量文本中学习词汇的高质量向量表示。 Skip-gram模型的目标是通过给定的目标词来预测其上下文中的词汇,从而在这个过程中学习词的嵌入表示。 2 使用Word2Vec模型预测“fox”的上下文词。 3 通过调整模型权重来最小化预测误差,使得模型可以更准确地预测到“fox”的正确上下文。 optimizer.step() total_loss += loss.item() print(f'Epoch {epoch + 1}, Loss: {total_loss}') 5

    1.1K20编辑于 2024-04-25
  • 来自专栏星哥的AI自留地

    OpenAI发布最新模型GPT5、本地部署GPT开源模型

    OpenAI发布最新模型GPT5、本地部署GPT开源模型GPT-5概述北京时间 2025年8月8日 凌晨1点 OPENAI举行了1个小时的线上发布会,正式推出了其史上最聪明、最强大的模型GPT-5 GPT-5是OpenAI发布的最新一代大型语言模型,它基于Transformer架构,经过大规模的文本数据训练,能够生成流畅、自然的语言输出。 GPT-5具备以下几个显著特点:更大的参数规模:GPT-5拥有比GPT-4更多的参数,使其能够处理更为复杂的语言任务。 使用微软的copilot可以免登录使用GPT5、但是需要一些魔法。 最后以上就是全部内容,GPT-5的简介和在本地搭建使用OpenAI的GPT-oss的开源模型。写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!

    1.3K10编辑于 2025-08-27
  • 来自专栏python3

    python之路day5

    如果env=None,子进程的环境变量将从父进程中继承 面向对象 概念 OOP(object oriented programing)编程就是利用类和对象来创建各种模型来实现对真实世界的描述,面向对象编程可以使程序的维护和扩展更简单 tell() s1.tell() print('学校总人数',ShoolMember.member) del s2 print('学校总人数',ShoolMember.member) time.sleep(5)

    80210发布于 2020-01-09
领券