首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大模型应用

    模型应用:本地大模型部署中的Token效率优化与性能分析.9

    引言 在模型应用日益普及的今天,对模型交互过程中Token消耗的深入理解和有效管理变得至关重要。 Token作为模型处理文本的基本单位,不仅直接关系到模型的响应速度和质量,更影响着计算资源的消耗和使用成本。 随着模型规模的不断扩大和应用场景的多样化,如何在不牺牲对话质量的前提下优化Token使用效率,已成为提升模型应用经济性和实用性的关键问题。 助理回复:"我是通义千问,一个由开发的语言模型。我致力于帮助用户解答问题、提供信息和执行各种任务。" ,确保系统在不同硬件环境下的可用性通过持续的技术迭代和优化,我们相信Token效率优化将在推动语言模型普惠应用方面发挥越来越重要的作用。

    53143编辑于 2026-02-06
  • 来自专栏xiaosen

    LangChain模型应用开发

    LangChain作为一个新兴的框架,旨在简化模型应用的开发过程。它提供了一套工具和接口,帮助开发者将模型无缝集成到各种应用场景中。 prompt) print(response.content) 这时我们的langSmith后台: 构建语义搜索引擎  我们使用LangChain的文档加载器、嵌入、向量库来从其他来源检索数据,与模型工作集成 ,这对于获取数据作为模型推理的一部分进行推理的应用程序非常重要,例如检索增强生成或RAG。 1️⃣根据与字符串查询的相似性返回文档: # 接受一个文本字符串作为输入,并返回与该文本最相似的向量 results = vector_store.similarity_search( "模型的发展和繁荣既是当前 ("模型的发展是顶峰") # 接受一个嵌入向量作为输入,并返回与该向量最相似的向量 results = vector_store.similarity_search_by_vector(embedding

    57021编辑于 2024-12-04
  • 模型应用开发实战

    Net有WebAPI + IIS,java有spring boot+tomcat,模型有FastAPI+Uvicorn:FastAPI 用于构建应用的业务逻辑,Uvicorn 是运行这些应用的服务器。 不得不吐槽下,模型也搞前后端分离这套!. 怎么着也得个应用程序APP之类,再不济也得有个Web吧!好吧,安排!为了搞模型的人能安心研究模型,不用花精力在界面上。 这时随便问模型几个问题吧(再次友情提示:视频剪辑过,后面那个问题1500多秒!): (图9) 到这里,入门流程介绍完毕。看的人多的话,我会继续介绍模型微调和训练,希望大家喜欢! 最后 经过无数的蹂躏,我开发了个小应用【i歌词】,无任何条件免费提供全部源码。它基于chatglm4-9b模型,从部署到训练,通用对话功能,核心根据歌名查歌词并创作歌词!

    1.2K36编辑于 2024-09-01
  • 来自专栏深度学习与python

    LangChain:简化模型应用

    作者 | Guy Nesher 译者 | 平川 策划 | Tina LangChain 框架提供了常见用例的抽象,简化了大型语言模型(LLM)(如 OpenAI GPT4 或 Google PaLM)的应用。 通常,比较复杂的应用程序会使用多个组件来生成所需的结果。 我们将用 SimpleSequentialChain 做个演示,它会按顺序运行多个提示。 今日好文推荐 爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入模型|Q资讯 年薪超 600 万,比技术总监还高:电影行业 AI 产品经理的崛起 模型竞争突然升级!亚马逊 CEO 亲自监督、组建新的核心技术团队,集中优势资源打造“最具野心”的语言模型

    43230编辑于 2023-09-08
  • 来自专栏xiaosen

    模型应用框架-LangChain

    LangChain自身并不开发LLMs,它的核心理念是为各种LLMs实现通用的接口,把LLMs相关的组件“链接”在一起,简化LLMs应用的开发难度,方便开发者快速地开发复杂的LLMs应用。 LLMs: 语言模型接收文本字符作为输入,返回的也是文本字符. 聊天模型: 基于LLMs, 不同的是它接收聊天消(一种特定格式的数据)作为输入,返回的也是聊天消息. 2.1.1 LLMs (语言模型) LLMs使用场景最多,常用模型的下载库:https://huggingface.co/models: 接下来我们以「文心一言」模型为例, 使用该类模型的组件: 第一步 第二步:借助百度智能云–千帆模型平台:申请API Key 以及Secret Key 想请见附件手册 第三部:代码实现 import os from langchain.llms import 因为模型虽然非常强大,但是也具备一定的局限性,比如不能回答实时信息、处理数学逻辑问题仍然非常的初级等等。因此,可以借助第三方工具来辅助模型应用

    1.1K10编辑于 2024-06-04
  • 来自专栏掘金安东尼

    👾打开 RAG 对接模型的黑盒 —— 9 隐藏问题

    Prompt 给他介绍一下相关背景,然后模型就有更专业的应答能力了。 言而总之,大数据时代,很多公司都拥有大量的专有数据,如果能基于它们创建 RAG,将显著提升模型的特异性。 /模型没有回答问题/模型编造有害的或带有偏见的答案 接下来,一起揭秘:RAG 对接模型的黑盒 —— 9 大问题 来源:Seven Failure Points When Engineering a Retrieval 速率限制 如果模型的 API 允许配置多个密钥、一个应用轮番调用,可以采用分布式系统,将请求分散到多个 RAG 通道,即使通道有速率限制,也能通过负载均衡、动态分配请求的方式来解决这个速率限制问题。 总结 本篇提供了开发 RAG 通道 9 个痛点,并针对每个痛点都给了相应的解决思路。 RAG 是非常重要的专用检索+通用模型的技术手段,在赋能模型、满足特定化场景中非常重要!

    77810编辑于 2024-04-04
  • 来自专栏网络技术联盟站

    OSI模型第7层协议涉及的9应用,你都了解吗?

    第 7 层,即应用程序层,是用户的接口,提供处理应用程序通信部分的服务,它识别所需的通信接收者并确保接收者可用于传输会话,与应用层相关的协议包括: 1、文件传输协议 (FTP) 提供两台计算机之间经过身份验证的文件传输和对目录的访问 9、多用途 Internet 邮件扩展 (MIME) 允许在 Internet 邮件的邮件标题中使用非 US-ASCII 文本消息、非文本消息、多部分消息正文和非 US-ASCII 信息。

    65040编辑于 2023-03-13
  • 来自专栏生信技能树

    RNAvelocity 9:scVelo应用—动力学模型

    动力学模型 在这里,我们使用通用动力学模型来解释完整的转录动态。 这产生了一些额外的见解,如潜在时间和假定驱动基因的识别。 与以前的教程一样,应用胰腺内分泌发育数据集来展示。 我们运行动力学模型来学习剪切动力的完整转录动力学。 [9]: df = adata.var df = df[(df['fit_likelihood'] > .1) & df['velocity_genes'] == True] kwargs = dict 'degradation rate', xticks=[.1, .4, 1], **kwargs) scv.get_df(adata, 'fit*', dropna=True).head() [9] 潜在时间 动力学模型可恢复细胞过程的潜在时间。这个潜伏时间代表细胞的内部时钟,并接近细胞在分化时所经历的实时,分析仅基于其转录动力学。

    62620发布于 2021-10-12
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    背景 LangChain 是一个用于开发由大型语言模型(Large Language Model,LLM)驱动的应用程序的框架。 旨在简化使用大型语言模型应用程序。 Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 v=9qq6HTr7Ocw 小结: 各模块采用松耦合设计,可通过标准化接口组合使用 实际应用中通常以链为核心组织工作流(如检索QA链=数据增强+模型I/O+记忆) 回调系统提供贯穿所有模块的可观测性能力 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强

    70810编辑于 2025-08-04
  • 来自专栏澜舟科技 NLP

    模型落地实践:同花顺模型技术应用及优化

    文内从业务角度介绍了模型技术在同花顺业务上的应用以及未来探索的方向。众所周知,模型参数量大,通用能力强,综合性能好。 这个问句量和用户量在问答系统中应该算非常的。图片问财对话系统在模型应用上有几个难点。首先,它偏重金融业务知识,并且对于时效性要求很高。 这里特别说明一下“时效性”的问题。 确实在我们的业务模型里,规则占比非常,也是因为涉及用户财产问题,技术上会比较保守。下面具体介绍问答系统里模型应用的经验和取得的成果。 模型的参数增加会带来效果的提升,但是在实际应用的经济角度考虑,宁可损失一些效果,尽量减少对资源的占用,所以我们投入了很大的精力做“模型轻量化”工作。 总结模型技术在同花顺业务中的应用基本都有比较好的通用性,并且带来了比较好的性能提升,我们也希望在医疗、法律、教育等领域的子公司业务中推广,同时和澜舟科技以及学术界的老师们合作,把模型用得更好,谢谢大家

    3K20编辑于 2022-08-11
  • 来自专栏单细胞天地

    RNAvelocity 9:scVelo应用—动力学模型

    动力学模型 在这里,我们使用通用动力学模型来解释完整的转录动态。 这产生了一些额外的见解,如潜在时间和假定驱动基因的识别。 与以前的教程一样,应用胰腺内分泌发育数据集来展示。 我们运行动力学模型来学习剪切动力的完整转录动力学。 [9]: df = adata.var df = df[(df['fit_likelihood'] > .1) & df['velocity_genes'] == True] kwargs = dict 'degradation rate', xticks=[.1, .4, 1], **kwargs) scv.get_df(adata, 'fit*', dropna=True).head() [9] 潜在时间 动力学模型可恢复细胞过程的潜在时间。这个潜伏时间代表细胞的内部时钟,并接近细胞在分化时所经历的实时,分析仅基于其转录动力学。

    93910发布于 2021-10-09
  • 来自专栏腾讯云智能·AI公有云

    直播预约 | 5月9日,腾讯混元模型全场景AIGC应用开讲

    22210编辑于 2024-05-08
  • 基于语言模型应用

    在AI领域,语言模型已成为备受瞩目的焦点,尤其在自然语言处理(NLP)领域,其应用愈发广泛。BLM作为一种多任务语言建模方法,旨在构建一个具备多功能的强大模型。 NLP中的文本生成任务通常需要使用大规模预训练模型进行训练,例如 BERT、GPT-2等。在预训练阶段,这些模型将使用大量语料库对其进行训练。 悦数图数据库凭借其前沿的图技术,为语言模型注入了万亿级的丰富上下文,显著提升了模型的回答准确度,为企业级应用提供了强大的支持。 通过引入悦数图数据库,企业能够以更低的费用成本和更短的时间成本,实现模型落地应用。这不仅优化了企业的运营效率,还提高了决策的准确性,为企业在激烈的市场竞争中赢得了宝贵的时间和资源。 未来,随着技术的不断进步和应用的深入拓展,悦数图数据库将继续为语言模型领域注入新的活力,推动企业级应用走向更加智能、有效的新时代。

    43010编辑于 2024-04-30
  • 图解模型与实战应用

    而如果你想真正理解这些改变背后的技术逻辑,亲手构建属于自己的 LLM 应用,那么这本 《图解模型》 将是一本不可错过的实战之书。 模型在搜索引擎中的应用 第 8 章还探讨了语义搜索在 Google、Bing 等搜索引擎中的应用,讲解了 reranking(重排序)优化搜索结果的工程机制,内容很硬核。 多模态 第 9 章介绍了如何将图像信息引入模型体系,实现图文联合理解,例如图像问答、语义搜索等前沿场景。 图片 多模态嵌入模型可在同一向量空间中为不同模态生成嵌入向量 9. 图片 微调后的 BERT 模型能够识别人名和地点等命名实体 10. 模型训练与微调 这一部分是我最期待的内容之一——将模型(LLM)适配到特定的应用场景,展现了它们的灵活性和广泛的适用性。 图片 专门用于特定任务的适配器可以被替换到相同的架构中,前提是它们共享原始模型架构和权重---- 300 幅全彩插图,以极致视觉化的方式呈现模型的核心原理与工程实现,覆盖从底层机制、应用开发到性能优化的完整链条

    18110编辑于 2026-03-13
  • 来自专栏喔家ArchiSelf

    模型应用的能力分级

    模型应用的能力分级就像给学生打分一样,能让我们更清楚它的本事有多大。能力分级能帮我们设定目标,知道AI现在能干什么,未来还要学什么。 模型应用主要有两种常见模式:RAG 和 Agent。选哪种 RAG 架构,得看具体要解决什么问题,确保它适合任务需求。 关于RAG 的更多资料,可以参考《模型系列——解读RAG》、《RAG的10篇论文-2024Q1》、《Chunking:基于模型RAG系统中的文档分块》、《解读GraphRAG》和《在模型RAG系统中应用知识图谱 》、《基于模型(LLM)的Agent 应用开发》和《当你问代理机制的时候? 小结 将模型应用的能力进行分级,不仅有助于推动技术发展,还能更好地匹配实际应用场景,同时也让公众更容易理解其价值。

    1.8K20编辑于 2025-03-31
  • 来自专栏AI技术应用

    AI教育模型及其应用

    人工智能在教育领域的应用日益深入,涌现出许多AI教育模型,它们致力于提升教学效率、优化学习体验、推动教育公平。 以下是一些国内外知名的AI教育模型及其应用:国内AI教育模型:科大讯飞星火语伴: 基于科大讯飞星火认知模型,主要应用于语言学习领域。 好未来MathGPT: 好未来(学而思)自研的数学学习模型,专注于数学学科的学习。网易有道子曰教育模型: 国内首个教育模型,已率先推出六应用,并在词典笔等学习硬件上实现全科辅导。 天工大模型(昆仑万维): 国内首个对标ChatGPT的双千亿级语言模型,也是AI搜索引擎和对话式AI助手。EmoGPT(华东师范大学): 自研模型,主要应用于心理疏导。 国外AI教育模型:Khanmigo(可汗学院): 基于ChatGPT-4,应用于多学科学习,为学生提供个性化问答和深度思考支持。

    94110编辑于 2025-06-19
  • 来自专栏muller的测试分享

    语言模型应用框架介绍

    语言模型应用框架针对上述限制,直接调用语言模型似乎并不是最佳选择,因此出现了基于语言模型应用框架,旨在解决这些问题。 语言模型应用框架通常指的是使用已有的模型进行各种自然语言处理任务时所采用的软件架构或工具集,这些应用框架提供了一种便捷的方式,使得开发者能够利用语言模型的强大能力解决特定的问题。 开放文档 丰富的示例代码和教程可能存在不完善或难以理解的情况社区活跃 活跃的社区支持和交流社区活跃度较低 更新维护频率持续的更新和改进 更新维护频率不稳定 目前有多种语言模型应用框架 包括 LangChain 的设计理念,兼具易用性(LCEL)与很强的拓展性,都成为学习语言模型应用框架的首选如何学习语言模型应用框架学习语言模型应用框架应当循序渐进,所以本课程主要分为 5 个模块 总结了解什么是语言模型应用框架。了解语言模型应用框架的应用场景。了解常见的语言模型应用框架。了解语言模型的学习路线。

    50710编辑于 2024-09-04
  • 来自专栏AI

    AI语音模型应用

    AI语音模型应用已渗透到日常生活、行业服务及社会发展的多个领域,凭借“自然交互、智能理解、多场景适配”的核心优势,重构了人机交互方式并推动效率革新。以下从典型场景出发,梳理其核心应用价值。 此外,结合可穿戴设备数据(如心率、睡眠),语音模型能主动反馈健康建议(如“您昨晚深睡不足,建议今晚提前1小时休息”),部分系统还支持用药提醒(“上午9点的降压药还未服用”)。3. 这类应用显著提升了弱势群体的数字生活参与度。2. 公共服务政府与公共机构利用语音模型优化服务体验:政务热线通过语音交互快速解答政策咨询(如“异地就医如何备案?”) 四、技术融合趋势:从单一功能到生态协同当前,AI语音模型正与视觉(图像识别)、触觉(传感器数据)等多模态技术融合,进一步拓展应用边界。 总结AI语音模型应用本质是通过“自然语言交互”降低技术使用门槛,同时以强大的智能理解能力解决实际问题。

    69011编辑于 2025-09-29
  • 来自专栏AIGC新知

    应用洞察 | 从模型数据,看模型的前瞻应用场景在哪里?

    对比海外AI独角兽Anthropic旗下claude和国内字节旗下的豆包模型使用数据,可以找出相关规律。 从上面这张图,可以看到,不同语言的人,对AI应用的方面也大相径庭。 豆包家族模型语言模型之后,字节将视觉理解模型价格降低,视觉理解模型也迎来“厘时代”。 更低的价格,仍有合理的毛利,对于用户来说,不仅仅实惠,而且更加好用,真正的普惠于民。 在多模态方面,截至今年9月,豆包的日均生成图片量已经达到5000万张。这些数据,力证豆包模型能力之强。 B端,豆包已经与国内汽车、手机、PC终端厂商进行合作,已经覆盖了3亿设备,这些智能终端的模型调用量半年时间增长100倍!!

    60710编辑于 2024-12-24
  • 来自专栏大模型应用

    模型应用:多卡集群跑满14B模型模型推理算力应用实践.66

    算力核心概念TFLOPS/PFLOPS:算力基础单位:1 TFLOPS=10¹² 次 / 秒浮点运算,1 PFLOPS=1000 TFLOPS;模型推理算力需求 = 模型参数量 ×Token 数 × 性能统计:实时统计Token处理速度,进行算力效能评估9. 循环处理:持续处理请求直至队列清空,形成闭环优化10. 请求分配与推理: 将调整后的批大小应用到GPU批池执行批推理计算更新GPU利用率指标6. 是真真正正能落地的企业级模型推理算力优化方案! 整套流程把监控、部署、调度全流程都做了工程化封装,拿来就可以调整应用,不用自己从头造轮子。

    20632编辑于 2026-04-04
领券