首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏掘金安东尼

    👾打开 RAG 对接模型的黑盒 —— 9 隐藏问题

    Prompt 给他介绍一下相关背景,然后模型就有更专业的应答能力了。 言而总之,大数据时代,很多公司都拥有大量的专有数据,如果能基于它们创建 RAG,将显著提升模型的特异性。 对于很多人来说,RAG 的引入、与模型的对接是一个黑盒,任何微小参数的变动都将引起结果发生很大的变化。 /模型没有回答问题/模型编造有害的或带有偏见的答案 接下来,一起揭秘:RAG 对接模型的黑盒 —— 9 大问题 来源:Seven Failure Points When Engineering a Retrieval 总结 本篇提供了开发 RAG 通道 9 个痛点,并针对每个痛点都给了相应的解决思路。 RAG 是非常重要的专用检索+通用模型的技术手段,在赋能模型、满足特定化场景中非常重要!

    79310编辑于 2024-04-04
  • 来自专栏科技云报道

    通用与垂直模型之战:模型驱动的商业智能变革之路

    是做通用模型还是垂直模型,这一个争论在“百模大战”的下讨论愈发热烈。 目前,以微软、谷歌、百度、阿里等为代表的发力于通用模型的科技大厂,也都开始推动模型在垂直领域的商业化落地。 垂直模型则更为直接的深入特定行业和应用场景,如金融、医疗或零售等,相比于通用模型,垂直模型能够更精准地满足行业特定的需求。 说到底,无论是通用还是垂直模型,其核心点还是落地场景和商业化。 模型重新定义了人工智能的边界和可能性,但更需要的是,在具体的商业环境中找到了新的生存空间和增长点。 在众多垂直领域中,模型在智能商业BI领域落地尤为引人注目。 寻找通用与 垂直模型的平衡点 回到开头通用和垂直模型的讨论上。 这一次,有记者在网易数帆城市行媒体沟通环节将这个问题抛给了网易。 在模型掀起的新时代里,许多企业都站在了一个十字路口,开始寻找通用模型与垂直行业大模型之间的平衡。

    1.2K50编辑于 2023-08-18
  • 来自专栏机器之心

    语言模型的可信之路:TrustLLM全面揭秘

    尽管⼈们已经付出了非常多的努力来确保语言模型的可信赖,一个问题仍然存在:我们真正能在多大程度上信任 LLMs? 论文得出的核心结论如下: 可信性与语言模型的能力密切相关。作者的发现表明,可信性与实用性之间存在正相关,尤其在特定任务中更为明显。 接下来,他们观察到不同程度的过度安全问题(如图 5 右侧),这是近期研究中突出的一个问题(语言模型会拒绝回答无害的输⼊)。 首先,他们通过三个任务评估 LLMs 内部的潜在刻板印象:刻板印象的认同、刻板印象的识别和刻板印象的查询测试(如图 9 所示)。 最后,他们通过偏好询问来探究语言模型中潜在的偏见问题(Preference)。 鲁棒性(Robustness) 在大型语言模型(LLMs)中,鲁棒性指的是它们在面对各种输⼊条件时的稳定性和性能。

    59410编辑于 2024-02-26
  • 来自专栏IT杂谈学习

    探索AI模型学习的未来之路

    二、AI模型学习的理论基础 2.1 深度学习 AI模型学习建立在深厚的数学和算法基础之上。其中,深度学习技术是支撑模型学习的重要基石。 2.2 数据处理 在大规模数据处理方面,AI模型学习具有显著的优势。通过增加模型的深度和宽度,模型能够捕捉到更多的信息,从而提高模型的准确性和泛化能力。然而,这也带来了计算复杂度和资源消耗的挑战。 3.2 AI模型在特定领域的应用实例 AI模型学习在自然语言处理、图像识别、语音识别等领域取得了显著的应用成果。 四、AI模型学习的注意点 随着AI模型学习在各领域的广泛应用,其带来的伦理和社会问题也逐渐凸显出来。首先,数据隐私是一个不可忽视的问题。 模型往往具有复杂的结构和参数,使得其容易受到攻击和篡改。因此,加强模型的安全防护和鲁棒性是模型学习领域的重要研究方向。

    49110编辑于 2024-03-29
  • 来自专栏大数据成神之路

    阿里大数据之路:数据模型总结

    ,将金融业务划分为10主题,并以设计面向金融仓库模型的核心为基础,企业基于此模型做适当调整和扩展就能快速落地实施。 至此,我们也得到了一个经验:在不太成熟、快速变化的业务面前,构建 ER 模型的风险非常,不太适合去构建 ER 模型。 基于应用的数据组装 : 宽表集市、横表转纵表、趋势指标串。 主要依据高内聚、低耦合的理念,在物理实现中,将业务关系、源系统影响差异小的表进行整合: 将业务关系小、源系统影响差异的表进行分而置之。 业务实体的结束时间分区:每天的分区存放当天结 束的数据,设计一个时间非常的分区,比如 3000-12-31 ,存放截至当前未结束的数据。

    2.7K22编辑于 2022-11-11
  • 来自专栏DeepHub IMBA

    9型语言模型研究论文总结

    大型语言模型(llm)在今年发展迅速,随着新一代模型不断地被开发,研究人员和工程师了解最新进展变得非常重要。本文总结9-10月期间发布了一些重要的LLM论文。 这些论文涵盖了一系列语言模型的主题,从模型优化和缩放到推理、基准测试和增强性能。最后部分讨论了有关安全训练并确保其行为保持有益的论文。 这种方法产生了MathCoder模型,这是一组能够生成基于代码的解决方案的模型,用于解决具有挑战性的数学问题。 现有的问答基准(如ToMi)会向模型提问,以推断故事中人物的信念,但不会测试模型是否可以使用这些推断来指导它们的行动。 SmartPlay中的每个游戏都独特地挑战了智能LLM代理的9个重要功能的子集,包括对象依赖性推理,提前计划,空间推理,从历史中学习和理解随机性。

    77321编辑于 2023-10-23
  • 来自专栏资讯分享

    为什么价值对齐是模型的必由之路

    模型价值对齐需要关注个体需求、集体规范、主体能动性,并兼顾技术实践与法律规制。6. 模型价值对齐仍有理论局限,需要保持开放和审慎的态度,在实践中逐步推进。 刘鹏飞:技术开发人员容易低估模型价值对齐的重要性我为什么会做大模型的价值对齐研究呢? 过去在模型没有出现时,我们还没有察觉到技术可以如此强大,随着GPT3到PaLM到各种各样开源模型出现,模型的能力越来越强,我们进入到了生成式人工智能的时代。 滕妍:语言模型的价值设计与评测当前,人工智能步入“通用模型”时代。 全球对于模型的社会伦理问题非常关注。

    64220编辑于 2023-11-10
  • 来自专栏新智元

    ChatGPT全年更新总结!重看「模型风向标」进化之路

    新智元报道 编辑:LRS 【新智元导读】2024年,OpenAI的ChatGPT在模型领域不断突破,推出了多项创新功能,如个性化聊天机器人商店、增强记忆功能、多模态处理能力等,在安全性、稳定性和高效性方面也持续优化 2024年,模型已经深入融入了我们的日常生活。 而作为领跑者,ChatGPT也一直是模型届的指南针,无论是去年发布的模型o1-pro,Sora Turbo,还是各种小功能,比如视频模式、打断说话等,甚至是每月200美元的高额定价,OpenAI的每一场发布会都能给广大 下面共同回顾一下OpenAI在2024年发布的关键更新,一起见证模型的进化之路! 1月 GPT商店:用户可以发布构建的个性化聊天机器人(GPTs),按类别进行搜索,如写作、生活方式和教育等。 9月 OpenAI对ChatGPT的高级语音模式进行了更新,新增了视频和共享屏幕功能,能理解各种口音和语调并准确转化为文本,还支持实时翻译,方便国际用户沟通。

    76910编辑于 2025-02-15
  • 来自专栏BUUCTF通关之路

    BUUCTF通关之路 - Misc Part 9

    类型图片隐写、文件修复、压缩文件明文攻击工具随波逐流工具、CyberChef、ARCHPRFlagflag{3te9_nbb_ahh8}6. 开始尝试用同样方法解析其它文件,在从到小排第四个文件中发现了以下字符串。有一点像是每一行的字符顺序被颠倒了。 类型日志分析、字符编码工具wireshark、CyberChefFlagflag{1ns3cur3_l0g0n}9. [UTCTF2020]zero题目文件是个可以直接查看的文本文件,内容如下。 data: print(data.decode()) break类型加密算法、字符编码、伪加密工具随波逐流工具、CyberChefFlagflag{189ff9e5b743ae95f940a6ccc6dbd9ab 打开后会发现结尾有一段空白字符,通过调整颜色从而显示出来。每一行都是一串base64编码,通过CyberChef一行行解码后得到如下由0和1组成的字符集合。

    1K20编辑于 2025-09-05
  • 来自专栏AI科技评论

    模型行至深处,「悟道」如何走好全面开源之路

    也因此,智源被斯坦福、谷歌等企业列为模型的先驱。 尽管如此,由于早期,模型还缺乏好的应用场景和产品,价值始终无法发挥,模型的研发也曾受到一些争议。 早在模型的潜力还不为大多数人所熟悉时,智源是国内为数不多率先关注 AI 模型开源与基础工作的机构之一。 通用性更强,应用门槛低 此前业界讨论模型时,往往焦点都放在了语言模型。 目前,天秤 FlagEval 模型评测体系及开放平台已推出语言模型评测、多国语言文图模型评测及文图生成评测等工具,并对各种语言基础模型、跨模态基础模型实现评测。 其中,FlagOpen 的核心 FlagAI 是模型算法开源项目,当中集成了全球各领域的一些明星模型,如语言模型 OPT、T5,视觉模型 ViT、Swin Transformer,多模态模型 CLIP

    79220编辑于 2023-08-08
  • 来自专栏AI实验室应用

    RLHF三挑战与突围之路:如何让模型更懂人类偏好?

    从RLHF到DPO:模型对齐技术的深度演进与实战解析 当语言模型学会理解人类偏好,一场关于对齐的技术革命正在悄然发生。 最近几年,从ChatGPT到LLaMA 2,语言模型的“类人”能力不断提升。这背后的关键技术之一便是基于人类反馈的强化学习。 01 模型训练的三段式进阶之路 基础构建:预训练阶段 预训练(Pre-training):利用数十亿到数万亿个token的庞大文本语料库对模型继续预训练,使模型能够根据提供的文本来预测「下一个单词」 03 RLHF的五核心挑战与创新解决方案 挑战一:人工标注成本高、难规模化 解决方案:AI反馈替代人类反馈 RLAIF:使用模型评估其他模型的输出,构建AI偏好数据集 Constitutional 零样本对齐:在新任务上无需额外对齐 可解释对齐:让对齐过程更加透明可控 个性化对齐:适应不同用户的偏好和价值观 05 结论:对齐之路,以人为本 模型对齐技术的发展,本质上是让机器更好地理解和服务人类的过程

    74122编辑于 2025-12-17
  • 来自专栏猫头虎博客专区

    开源模型DeepSeek.ai火遍全球:9条让DeepSeek颠覆通用模型的事实

    DeepSeek.ai火遍全球的几个事实: DeepSeek 不是套壳不是蒸馏美国的模型。 虽然中国有些模型是套壳和蒸馏的, 但 DeepSeek 不是。 在训练阶段, Deepseek 用标注的 Long CoT 数据微调模型, 让模型生成更清晰的推理步骤, 在强化学习中用 CoT 设计奖励优化, 增强长链推理能力, 并且在此过程中观察到了模型的反思 ( 数据, 训练了 R1-Zero 模型, 探索了模型不依赖人类标注数据微调、自主推演的能力, 打开了新的思路。 比如轻量化设计把钢板换成钢条 (类似通过稀疏的办法减少模型的参数量); 涡轮增压利用废气能量增加空气供给, 提高燃烧效率; 精密制造, 使得发动机零部件的配合更加紧密, 从而减少能量损失; 等等。 基础模型终将 commoditize (商品化), toB 领域看谁能将 LLM 更好和复杂的生产环节衔接好帮客户落地提高生产效率, toC 领域看谁有流量入口, 最终才会获取 AI 产业价值创造中最多的利润

    1.1K10编辑于 2025-02-02
  • 来自专栏人工智能极简应用

    AI智能体研发之路-模型篇(三):中文模型开、闭源之争

    一、引言 周日休息在家,只有码字才能缓解焦虑哈哈哈,闲逛CSDN发现又出新的话题活动啦——《开源模型和闭源模型,你怎么看》。“我怎么看?我坐着看,或者躺着看”。 今天我们详细聊聊中文模型开闭源的那些事。 二、中文开/闭源模型概览 大家先看《2024年中文模型全景图》,对国内中文模型开闭源情况有个概念。 Tips:图片引自SuperCLUE中文模型基准测评2024年4月报告,国内领先的模型评测公司,高中室友创办的,没想到毕业多年,兜兜转转进入到了一个行业,如需合作需要可以联系我哈 闭源模型:主要有文心一言 三、开源模型 3.1 优点 1、创新和灵活性:开源模型鼓励创新,研究人员和开发者可以自由探索和改进模型,推动技术的发展。 四、闭源模型 4.1 优点 1、质量和稳定性保障:闭源模型通常由专业的团队开发和维护,经过严格的测试和验证,质量和稳定性相对较高。

    68110编辑于 2024-08-13
  • 来自专栏科控自动化

    SCADA 之路

    对于WinCC V7.x来说,在画面设计中使用脚本将带来非常的便利性。当要实现对象的动态化,你可以只通过组态的方式来实现。常规的动态应用,通过动态化窗口实现都没有问题。 因此,开始学习并且掌握好JavaScript,就成了更好地使用Portal WinCC Unified的必经之路。 看到这里,你可能会想,我大概明白了编程在SCADA应用中的重要性。 这样,当在网上找到别人编写的一段代码时,才能在浏览一下,大概就能弄清程序的结构脉络。在理解程序结构的基础上,再去研究其细节的功能实现。才能不至于一下子就掉到某个函数的细节上,而丢失了对整体的把握。 但站在 WinCC 的角度上,多掌握些与 WinCC 相关的 Windows 知识,对我们的 WinCC 成长之路还是大有裨益的。 操作系统,其实也是一种程序,一种特殊的程序而已。 追溯DLL 产生背景,应该是在计算机应用早期,为了解决单体应用程序体积及占用内存过多而采取的一种解决方案。多个应用程序共享的功能库不用再静态链接到每个单体程序中,从而减小其程序体积。

    1.9K20编辑于 2022-03-29
  • 来自专栏算法一只狗

    OpenAI下一代模型Orion被爆出提升有限,模型之路还有机会吗?

    如果你对于模型有关注,这篇文章将为您提供有价值的参考。 而这一次,模型Orion被曝出效果不佳,模型悲观主义学派Gary Marcus直接就宣布: 游戏结束,是我赢了。GPT模型正在进入一个收益递减期。 这里总结了网上几个主流的观点 目前模型存在的问题 1.数据集的问题 目前最主流的说法认为,模型的scaling raw正在慢慢失效,也就是目前的模型尽管有着大量的数据集进行训练,但是其能力却没有大规模的提升 主要是现在模型所需要的大规模数据集已经耗尽了,高质量的数据集其实没有多少。 OpenAI就为此创建了一个“基础团队”,主要研究怎么合成高质量的数据,提供给模型进行学习。 所以说,目前OpenAI训练一个模型,特别是训练下一代模型Orion,其花费应该是天价了。

    33430编辑于 2024-11-18
  • 来自专栏python3

    我的Python分析成长之路9

    =['a','b','c','d']) #自己设置索引 7 print(ser2['a']) #获得索引为a的值 8 print(ser2[['a','b','c']])#获取多个索引值\ 9 列数值排序 6 print(df4.sort_values(by=['a','b'])) 7 df5 = pd.Series([7,-5,7,4,2,0,4]) 8 print(df5.rank()) 9 = price.pct_change() 7 7 print(returns.tail()) 8 8 print(returns['AAPL'].corr(returns['IBM'])) 9 ].groupby(df['key1']) #对data1列进行分组,获得一个group对象 8 # group= df.groupby(df['key1'])['data1'] #两个等价 9 group= df.groupby(df['key1'])['data1'] #两个等价 8 group = df.groupby(df['key1']) #对整个DataFrame分组 9

    2.8K11发布于 2020-02-10
  • 来自专栏算法channel

    AI模型之路 第三篇:从零实现词嵌入模型,加深理解!

    今天我们研究「AI模型第三篇」:词维度预测,很多读者听过词嵌入,这篇文章解答下面问题: 词嵌入是什么意思? 怎么做到的?原理是什么? 1 skip-gram模型 Skip-gram模型是一种广泛使用的词嵌入(Word Embedding)方法,由Mikolov等人在2013年提出。 它是Word2Vec模型的一种形式,主要用于从大量文本中学习词汇的高质量向量表示。 Skip-gram模型的目标是通过给定的目标词来预测其上下文中的词汇,从而在这个过程中学习词的嵌入表示。 因此,Skip-gram模型通过给定词预测上下文,来最终学习到每个单词的词嵌入表示。 ★有些同学可能不理解,通过给定词预测上下文,是什么意思?为什么要这么做? 2 使用Word2Vec模型预测“fox”的上下文词。 3 通过调整模型权重来最小化预测误差,使得模型可以更准确地预测到“fox”的正确上下文。

    1.1K20编辑于 2024-04-25
  • 来自专栏大模型应用

    模型应用:本地大模型部署中的Token效率优化与性能分析.9

    引言 在模型应用日益普及的今天,对模型交互过程中Token消耗的深入理解和有效管理变得至关重要。 Token作为模型处理文本的基本单位,不仅直接关系到模型的响应速度和质量,更影响着计算资源的消耗和使用成本。 随着模型规模的不断扩大和应用场景的多样化,如何在不牺牲对话质量的前提下优化Token使用效率,已成为提升模型应用经济性和实用性的关键问题。 助理回复:"我是通义千问,一个由开发的语言模型。我致力于帮助用户解答问题、提供信息和执行各种任务。" ,确保系统在不同硬件环境下的可用性通过持续的技术迭代和优化,我们相信Token效率优化将在推动语言模型普惠应用方面发挥越来越重要的作用。

    59043编辑于 2026-02-06
  • 来自专栏机器之心

    适配超20+芯片厂商,昇思MindSpore模型之路走南闯北

    在 2.0 的版本更新上,昇思在模型能力、科学计算和 AI 技术落地上继续实现大幅改进。 作为一款 AI 框架,昇思将模型开发的系统工程难题集成到软件框架中解决,沉淀出了整套从预训练到场景应用的模型实践方案。 在训练阶段,如果算力有限,昇思可以通过异构与存储优化技术实现基于一台服务器,八张训练卡支持千亿参数模型训练。 而面向大规模集群方案,昇思原生了支持业界最完善的 9 种数据和模型并行模式,以及断点续训等高可靠方案,算力资源利用率比业界水平要高 15%。 太初、鹏程系列等百亿、千亿级模型,根据《中国人工智能模型地图研究报告》中的数据,基于昇思孵化的产业落地大模型,占到国内总数的 40%。

    71120编辑于 2023-08-07
  • 来自专栏Dance with GenAI

    读书笔记之《AI模型开发之路-从入门到实践》

    《AI 模型开发之路:从入门到实践》是一本全面探索人工智能模型开发领域的实用指南,旨在带领读者深入了解并掌握 AI 模型的核心技术与应用实践。 第1章:AI模型基础 AI模型概述:介绍自然语言处理(NLP)的发展历史和AI模型的基本概念,帮助读者了解领域背景。 第2章:AI模型鼻祖——Transformer模型 Transformer简介:概述Transformer模型的基本架构和作用,解释其在AI模型中的重要地位。 这一步是生成文本过程中的关键步骤,因为它直接关系到模型预测的准确性。 第3章:百度千帆模型平台实战 介绍百度千帆模型平台的特点和优势,以及如何注册和使用该平台。 第7章:项目实战——AutoGPT开发 用LangChain开发AutoGPT项目的架构和步骤 第8章:AI模型部署 如何实地部署AI模型。 在着手部署AI模型之前,需要进行充分的准备工作。

    41610编辑于 2025-02-28
领券