首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大模型应用

    模型应用:概率驱动:模型文字预测的核心机制与理论基础.5

    模型文字预测1. 基本原理 文字预测,就是让模型根据已经出现的文字,预测下一个最可能出现的字(或词)。比如,输入“今天天气很”,模型可能预测出“好”、“热”、“冷”等。2. 模型的做法:它的大脑里有一个“概率字典”。 模型不是一个真正的大脑,而是一个极其复杂的数学网络。我们可以把它想象成一个巨大的、经过特殊训练的自动补全机器。模型的输入:你给它的所有文字(我们称之为 “上下文” 或 “提示”)。 5. 纠错与调整: 如果模型预测“分支”的概率很高,系统就会表扬它,并微调内部参数,强化这个连接。 三、文字预测的应用 如果模型只是一个词一个词地预测,能有什么大用处,事实上,这正是所有强大AI应用的基础,应用的范围涵盖广泛,以智能对话、内容创作以及信息检索总结等这些和我们息息相关的业务领域为起点正蓬勃发展

    30032编辑于 2026-02-02
  • 来自专栏大模型应用

    模型应用:文本转语音实践:Tacotron2预训练模型和SpeechT5模型应用.19

    一、前言 前期我们了解了TTS的基础应用,今天我们继续探索两个强大的TTS模型:Tacotron2和SpeechT5模型的判断指标不管是简单的工具还是复杂的模型,我们都能通过这三个问题快速判断它的水平,这也是后续理解技术的关键:表述的清晰度:能不能读对,清晰度是最基础的要求:比如“银行(háng)”不能读成“银行( 应用实例import torchimport torchaudioimport soundfile as sfdef simple_tts_demo(): print("第一步:检查TTS模型的可行性 与传统的单一功能语音模型不同,SpeechT5 采用了"一套架构,多种应用"的设计哲学,将不同类型的语音和文本数据都映射到同一表示空间进行处理。 是非常适合初学者接触入门 TTS 开发和轻量化 TTS 应用落地的首选模型之一。2.

    31032编辑于 2026-02-16
  • 来自专栏xiaosen

    LangChain模型应用开发

    LangChain作为一个新兴的框架,旨在简化模型应用的开发过程。它提供了一套工具和接口,帮助开发者将模型无缝集成到各种应用场景中。 prompt) print(response.content) 这时我们的langSmith后台: 构建语义搜索引擎  我们使用LangChain的文档加载器、嵌入、向量库来从其他来源检索数据,与模型工作集成 ,这对于获取数据作为模型推理的一部分进行推理的应用程序非常重要,例如检索增强生成或RAG。 1️⃣根据与字符串查询的相似性返回文档: # 接受一个文本字符串作为输入,并返回与该文本最相似的向量 results = vector_store.similarity_search( "模型的发展和繁荣既是当前 ("模型的发展是顶峰") # 接受一个嵌入向量作为输入,并返回与该向量最相似的向量 results = vector_store.similarity_search_by_vector(embedding

    57021编辑于 2024-12-04
  • 模型应用开发实战

    视频我剪辑过,在我的电脑上,实际运行时间5分钟左右。至此最简单的模型应用开发完毕。 提供API支持 上面最简单的Hello world写完了,接下来就要为各种客户端提供接口服务了。. Net有WebAPI + IIS,java有spring boot+tomcat,模型有FastAPI+Uvicorn:FastAPI 用于构建应用的业务逻辑,Uvicorn 是运行这些应用的服务器。 (图5) 我们用postman等客户端工具测试一下: (图6) 编写客户端 服务端有了,当然要做个漂亮的客户端,总不能一直用postman。不得不吐槽下,模型也搞前后端分离这套!. 怎么着也得个应用程序APP之类,再不济也得有个Web吧!好吧,安排!为了搞模型的人能安心研究模型,不用花精力在界面上。 最后 经过无数的蹂躏,我开发了个小应用【i歌词】,无任何条件免费提供全部源码。它基于chatglm4-9b模型,从部署到训练,通用对话功能,核心根据歌名查歌词并创作歌词!

    1.2K36编辑于 2024-09-01
  • 来自专栏深度学习与python

    LangChain:简化模型应用

    作者 | Guy Nesher 译者 | 平川 策划 | Tina LangChain 框架提供了常见用例的抽象,简化了大型语言模型(LLM)(如 OpenAI GPT4 或 Google PaLM)的应用。 通常,比较复杂的应用程序会使用多个组件来生成所需的结果。 我们将用 SimpleSequentialChain 做个演示,它会按顺序运行多个提示。 今日好文推荐 爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入模型|Q资讯 年薪超 600 万,比技术总监还高:电影行业 AI 产品经理的崛起 模型竞争突然升级!亚马逊 CEO 亲自监督、组建新的核心技术团队,集中优势资源打造“最具野心”的语言模型

    43230编辑于 2023-09-08
  • 来自专栏xiaosen

    模型应用框架-LangChain

    LangChain自身并不开发LLMs,它的核心理念是为各种LLMs实现通用的接口,把LLMs相关的组件“链接”在一起,简化LLMs应用的开发难度,方便开发者快速地开发复杂的LLMs应用。 LLMs: 语言模型接收文本字符作为输入,返回的也是文本字符. 聊天模型: 基于LLMs, 不同的是它接收聊天消(一种特定格式的数据)作为输入,返回的也是聊天消息. 2.1.1 LLMs (语言模型) LLMs使用场景最多,常用模型的下载库:https://huggingface.co/models: 接下来我们以「文心一言」模型为例, 使用该类模型的组件: 第一步 5. 浩宇小星:对应“王浩宇”这个名字,可以叫他“小星”,显得充满活力和希望。 因为模型虽然非常强大,但是也具备一定的局限性,比如不能回答实时信息、处理数学逻辑问题仍然非常的初级等等。因此,可以借助第三方工具来辅助模型应用

    1.1K10编辑于 2024-06-04
  • 5模型Agent模式

    模型中的5种AI Agent模式在模型中,AI Agent(人工智能代理)模式是一种重要的应用方式,可以从以下几个方面来理解:1. 在模型的背景下,AI Agent 是基于大规模预训练模型(如 GPT 等)构建的智能代理,能够利用模型的语言理解和生成能力来完成复杂的任务。 智能性:它基于模型的强大语言理解能力,能够理解自然语言指令,并生成自然语言响应。这种智能性使其能够处理复杂的语言任务,如对话、写作、翻译等。 例如,它可以调用搜索引擎获取信息,或者调用日历应用来安排日程。3. 工作原理感知与理解:AI Agent 首先通过输入(如用户指令、环境数据等)感知外部信息,然后利用模型的语言理解能力解析这些信息,确定任务目标。

    4.1K10编辑于 2025-05-07
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    背景 LangChain 是一个用于开发由大型语言模型(Large Language Model,LLM)驱动的应用程序的框架。 旨在简化使用大型语言模型应用程序。 Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 v=9qq6HTr7Ocw 小结: 各模块采用松耦合设计,可通过标准化接口组合使用 实际应用中通常以链为核心组织工作流(如检索QA链=数据增强+模型I/O+记忆) 回调系统提供贯穿所有模块的可观测性能力 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强

    70810编辑于 2025-08-04
  • 来自专栏澜舟科技 NLP

    模型落地实践:同花顺模型技术应用及优化

    文内从业务角度介绍了模型技术在同花顺业务上的应用以及未来探索的方向。众所周知,模型参数量大,通用能力强,综合性能好。 图片问财对话系统在模型应用上有几个难点。首先,它偏重金融业务知识,并且对于时效性要求很高。 这里特别说明一下“时效性”的问题。 确实在我们的业务模型里,规则占比非常,也是因为涉及用户财产问题,技术上会比较保守。下面具体介绍问答系统里模型应用的经验和取得的成果。 图片以 NER 任务为例,我们尝试用常规的深度模型 LSTM + CRF 串联的 F1 值只有 92% 左右,使用模型之后,F1 值可以达到 96~97%,提升了4~5% 。 模型的参数增加会带来效果的提升,但是在实际应用的经济角度考虑,宁可损失一些效果,尽量减少对资源的占用,所以我们投入了很大的精力做“模型轻量化”工作。

    3K20编辑于 2022-08-11
  • 基于语言模型应用

    在AI领域,语言模型已成为备受瞩目的焦点,尤其在自然语言处理(NLP)领域,其应用愈发广泛。BLM作为一种多任务语言建模方法,旨在构建一个具备多功能的强大模型。 NLP中的文本生成任务通常需要使用大规模预训练模型进行训练,例如 BERT、GPT-2等。在预训练阶段,这些模型将使用大量语料库对其进行训练。 悦数图数据库凭借其前沿的图技术,为语言模型注入了万亿级的丰富上下文,显著提升了模型的回答准确度,为企业级应用提供了强大的支持。 通过引入悦数图数据库,企业能够以更低的费用成本和更短的时间成本,实现模型落地应用。这不仅优化了企业的运营效率,还提高了决策的准确性,为企业在激烈的市场竞争中赢得了宝贵的时间和资源。 未来,随着技术的不断进步和应用的深入拓展,悦数图数据库将继续为语言模型领域注入新的活力,推动企业级应用走向更加智能、有效的新时代。

    43010编辑于 2024-04-30
  • 图解模型与实战应用

    而如果你想真正理解这些改变背后的技术逻辑,亲手构建属于自己的 LLM 应用,那么这本 《图解模型》 将是一本不可错过的实战之书。 第 5 章讲解了如何用嵌入模型进行文本聚类,识别异常点、加速标注流程,或是在大量文本中抽取主题信息。 4. 最有希望的思考过程会被保留,而较差的会被剪枝 5. 检索增强生成(RAG) 第 8 章专门介绍了热门的 RAG 技术 —— “让模型看懂你的知识库”。 模型在搜索引擎中的应用 第 8 章还探讨了语义搜索在 Google、Bing 等搜索引擎中的应用,讲解了 reranking(重排序)优化搜索结果的工程机制,内容很硬核。 图片 微调后的 BERT 模型能够识别人名和地点等命名实体 10. 模型训练与微调 这一部分是我最期待的内容之一——将模型(LLM)适配到特定的应用场景,展现了它们的灵活性和广泛的适用性。

    18110编辑于 2026-03-13
  • 来自专栏喔家ArchiSelf

    模型应用的能力分级

    模型应用的能力分级就像给学生打分一样,能让我们更清楚它的本事有多大。能力分级能帮我们设定目标,知道AI现在能干什么,未来还要学什么。 模型应用主要有两种常见模式:RAG 和 Agent。选哪种 RAG 架构,得看具体要解决什么问题,确保它适合任务需求。 关于RAG 的更多资料,可以参考《模型系列——解读RAG》、《RAG的10篇论文-2024Q1》、《Chunking:基于模型RAG系统中的文档分块》、《解读GraphRAG》和《在模型RAG系统中应用知识图谱 》、《基于模型(LLM)的Agent 应用开发》和《当你问代理机制的时候? 5. 小结 将模型应用的能力进行分级,不仅有助于推动技术发展,还能更好地匹配实际应用场景,同时也让公众更容易理解其价值。

    1.8K20编辑于 2025-03-31
  • 来自专栏AI技术应用

    AI教育模型及其应用

    人工智能在教育领域的应用日益深入,涌现出许多AI教育模型,它们致力于提升教学效率、优化学习体验、推动教育公平。 以下是一些国内外知名的AI教育模型及其应用:国内AI教育模型:科大讯飞星火语伴: 基于科大讯飞星火认知模型,主要应用于语言学习领域。 好未来MathGPT: 好未来(学而思)自研的数学学习模型,专注于数学学科的学习。网易有道子曰教育模型: 国内首个教育模型,已率先推出六应用,并在词典笔等学习硬件上实现全科辅导。 天工大模型(昆仑万维): 国内首个对标ChatGPT的双千亿级语言模型,也是AI搜索引擎和对话式AI助手。EmoGPT(华东师范大学): 自研模型,主要应用于心理疏导。 国外AI教育模型:Khanmigo(可汗学院): 基于ChatGPT-4,应用于多学科学习,为学生提供个性化问答和深度思考支持。

    94110编辑于 2025-06-19
  • 来自专栏muller的测试分享

    语言模型应用框架介绍

    语言模型应用框架针对上述限制,直接调用语言模型似乎并不是最佳选择,因此出现了基于语言模型应用框架,旨在解决这些问题。 语言模型应用框架通常指的是使用已有的模型进行各种自然语言处理任务时所采用的软件架构或工具集,这些应用框架提供了一种便捷的方式,使得开发者能够利用语言模型的强大能力解决特定的问题。 包括 LangChain 的设计理念,兼具易用性(LCEL)与很强的拓展性,都成为学习语言模型应用框架的首选如何学习语言模型应用框架学习语言模型应用框架应当循序渐进,所以本课程主要分为 5 个模块 ,从 L1 ~ L5,由浅入深带大家进行学习。 总结了解什么是语言模型应用框架。了解语言模型应用框架的应用场景。了解常见的语言模型应用框架。了解语言模型的学习路线。

    50710编辑于 2024-09-04
  • 来自专栏AI

    AI语音模型应用

    AI语音模型应用已渗透到日常生活、行业服务及社会发展的多个领域,凭借“自然交互、智能理解、多场景适配”的核心优势,重构了人机交互方式并推动效率革新。以下从典型场景出发,梳理其核心应用价值。 这类应用显著提升了弱势群体的数字生活参与度。2. 公共服务政府与公共机构利用语音模型优化服务体验:政务热线通过语音交互快速解答政策咨询(如“异地就医如何备案?”) 四、技术融合趋势:从单一功能到生态协同当前,AI语音模型正与视觉(图像识别)、触觉(传感器数据)等多模态技术融合,进一步拓展应用边界。 未来,随着声纹识别(身份验证)、情感计算(情绪感知)等技术的成熟,语音模型将更懂“人”的需求,成为连接物理世界与数字世界的核心入口。 总结AI语音模型应用本质是通过“自然语言交互”降低技术使用门槛,同时以强大的智能理解能力解决实际问题。

    69011编辑于 2025-09-29
  • 来自专栏AIGC新知

    应用洞察 | 从模型数据,看模型的前瞻应用场景在哪里?

    对比海外AI独角兽Anthropic旗下claude和国内字节旗下的豆包模型使用数据,可以找出相关规律。 从上面这张图,可以看到,不同语言的人,对AI应用的方面也大相径庭。 豆包家族模型语言模型之后,字节将视觉理解模型价格降低,视觉理解模型也迎来“厘时代”。 更低的价格,仍有合理的毛利,对于用户来说,不仅仅实惠,而且更加好用,真正的普惠于民。 C端,豆包模型表现特别优异,模型token使用量暴增。 截至12月中旬,豆包通用模型的日均tokens使用量已超过4万亿,较七个月前首次发布时增长了33倍之多。 这些数据,力证豆包模型能力之强。 B端,豆包已经与国内汽车、手机、PC终端厂商进行合作,已经覆盖了3亿设备,这些智能终端的模型调用量半年时间增长100倍!!

    60710编辑于 2024-12-24
  • 来自专栏啄木鸟软件测试

    模型测试:性能优化的5实战策略

    引言 随着ChatGLM、Qwen、DeepSeek及Llama系列语言模型在金融、政务、医疗等关键场景加速落地,模型测试已远超传统‘功能是否正确’的范畴——性能成为决定能否上线的核心瓶颈。 这些并非个例,而是模型测试进入深水区的典型信号:性能不是附加项,而是可信AI的第一道防线。 一、明确性能基线:拒绝‘拍脑袋’指标 模型性能测试首要误区是套用小模型标准。 我们需构建三维基线体系: 吞吐(Tokens/s):关注端到端生成效率,而非仅GPU利用率; 延迟(P50/P99):区分首token延迟(TTFT)与后续token间隔(ITL),医疗问诊类应用对 二、分层注入式压测:从单卡到集群的穿透验证 传统压力测试常止步于API层,而模型性能瓶颈常藏于框架底层。 结语 模型性能测试的本质,是构建‘可测量、可归因、可演进’的效能反馈闭环。

    19110编辑于 2026-03-31
  • 来自专栏大模型应用

    模型应用:多卡集群跑满14B模型模型推理算力应用实践.66

    5% 请求失败;不同用户请求长度差异,算力调度不均衡。 算力核心概念TFLOPS/PFLOPS:算力基础单位:1 TFLOPS=10¹² 次 / 秒浮点运算,1 PFLOPS=1000 TFLOPS;模型推理算力需求 = 模型参数量 ×Token 数 × 量化模型加载:使用量化压缩技术(INT4/INT8)加载模型,支持多GPU并行部署4. 动态调度器初始化:基于Amdahl定律设计智能调度算法,优化并行计算效率5. 请求分配与推理: 将调整后的批大小应用到GPU批池执行批推理计算更新GPU利用率指标6. 是真真正正能落地的企业级模型推理算力优化方案!

    20632编辑于 2026-04-04
  • 模型微调】一文掌握5模型微调的方法

    (Prompt Tuning)在内的5种主流方法。 我们所讨论的5种微调方法,本质上都是对这个基础架构中自注意力机制与前馈神经网络等核心组件的参数进行优化的不同策略。 在应用时,通过激活不同的适配器,即可让同一个模型扮演不同的专家角色,实现灵活的多任务部署。 5、提示调整-轻量级的参数优化提示调整(Prompt Tuning)是一种“润物细无声”的微调,不改变模型自身,而是通过优化输入提示词的嵌入表示来引导模型输出。 参数效率将进一步提升,自动化工作流将更加完善,我们期待与开发者共同推动模型技术在更多场景的落地应用,让每个人都能轻松享受模型定制带来的技术红利。PS.如何学习AI模型

    3.5K40编辑于 2025-10-23
  • 来自专栏后台技术汇

    模型应用之:MCP最佳实践

    同样,在 MCP 之前,开发人员必须为每种 AI 应用程序和数据源的组合创建自定义集成。 开发案例 案例1:开源天气MCP,让模型学会自己搜索最新天气预告 本质就是套壳了一个天气网站API(参考:天气网站),然后作为一个外置能力,提供给模型调用。 file_system_mcp_server:https://github.com/modelcontextprotocol/servers/tree/main/src/filesystem) 总结 1、模型是怎么自动完成复杂任务 模型集成各类工具,结合自身思考和推理,一边拆解任务,一边按需调用工具。 2、模型如何集成工具? MCP(模型上下文协议,Model Context Protocol),是一种开源协议,模型可以通过它和各类数据库、文件系统、开发工具、Web 和浏览器自动化进行协作。

    1.1K21编辑于 2025-07-24
领券