首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏有文化的技术人

    Eino LLM应用开发框架调研分析

    项目概述 「eino」(发音类似 "I know")是 CloudWeGo 团队开源的 Go 语言 LLM 应用开发框架,基于 Apache 2.0 许可证。 构建节点 │ │ 3. checkDAG() // 检查是否为 DAG │ │ 4. ──► Branch ──► ToolsNode ──┘ │ └──► END (无工具调用时) 4. 设计理念总结 4.1 框架定位 「eino 是 LLM 应用开发 SDK」,提供组件抽象和编排能力: ┌───────────────────────────────────────────────── 能力的应用 已有服务框架,需要嵌入 LLM 能力 快速原型开发和实验 对类型安全有要求的 Go 项目 4.2 核心设计理念 「核心理念」:Runnable 抽象 + 流式优先 + 类型安全 ┌────

    17710编辑于 2026-04-09
  • 来自专栏喔家ArchiSelf

    基于大模型(LLM)的Agent 应用开发

    随着开发人员开始创建日益复杂的LLM应用程序,开发流程不可避免地变得更加复杂。 但是,对于面向Agent的大模型应用开发,有没有其独特之处呢?有没有聚焦于Agent的大模型应用开发框架呢? 那么,什么又是Agent 呢? 1. MetaGPT:MetaGPT 是一种基于Multi-Agent对话框架的LLM自动软件开发应用程序。他们为各种gpt分配不同的角色来协作开发软件,针对特定场景制定专门的解决方案。 上个月(2023年9月),微软提出了一个Autogen 的开源框架,为开发LLM的Agent 应用提供了有价值的参考。 4. 基于Multi-Agent的LLM 应用开发框架:Autogen AutoGen 是一个用于简化 LLM 工作流的编排、优化和自动化的开发框架。

    7.9K33编辑于 2023-10-23
  • 来自专栏时空探索之旅

    WWW 2026 | LLM×Graph论文总结【LLM4Graph & Graph4LLM

    笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 另外一类是利用Graph4LLM,即利用图这种格式来增强LLM的能力。 LLM4Graph1. Disentangled Graph LLM for Molecule Graph Editing under Distribution Shifts4. VL-KGE: Vision-Language Models Meet Knowledge Graph EmbeddingGraph4LLM22. ,RAG 推荐阅读 ICLR 2026 | LLM×Graph论文总结【LLM4Graph与Graph4LLM】 ICLR 2026 | Rebuttal前 图基础模型(GFM)&文本属性图(TAG)高分论文

    31810编辑于 2026-03-10
  • 来自专栏Lcry个人博客

    开源 LLM 应用开发平台 Dify 部署教程

    在内的产品无疑幸免,在最新版本中 v1.11.1版本中才修复,虽然本站出了很多一些关于 dify 的使用教程,但是很多人还没有部署过这个平台,今天就趁到全新安装 v1.11.1为例带大家部署一下这个 AI 应用开发平台 介绍 Dify 是一款开源的大语言模型(LLM应用开发平台,它结合了后端即服务(BaaS)和 LLMOps 理念,让开发者、企业甚至非技术人员都能快速构建、部署和管理生产级的生成式AI应用,例如智能客服 、知识库问答等,支持多种模型(如 OpenAI、Claude 3),并通过可视化界面、RAG(检索增强生成)、工作流编排等功能简化了开发流程。 常见问题 1、报错Error starting userland proxy: listen tcp4 0.0.0.0:80: bind: address already in use。 4、改了默认端口号后分享地址,api文档地址都显示的还是默认80端口,导致访问每次都要手动修改非常麻烦?

    1.5K10编辑于 2026-01-09
  • 来自专栏时空探索之旅

    ICLR 2026 | LLM×Graph论文总结【LLM4Graph与Graph4LLM

    观察:LLM Graph统计值 最大均分 均值 最小均分 6 5.21 4 其中均分≥6的有4篇,其中。 笔者将LLM和Graph结合的工作分为两大类,一类是LLM4Graph,即LLM做图任务。 另外一类是利用Graph4LLM,即利用图结构来增强LLM的能力。 LLM4Graph & TAG1. LLM4Graph & KG 4 DAMR: Efficient and Adaptive Context-Aware Knowledge Graph Question Answering with LLM-Guided LLM4Graph & AI4Science 14 A Brain Graph Foundation Model: Pre-Training and Prompt-Tuning across Broad 6, 8, 2 信心:3, 2, 4, 4 均分:5.0 16 Entropy-Guided Dynamic Tokens for Graph-LLM Alignment in Molecular Understanding

    38010编辑于 2026-03-10
  • 来自专栏云云众生s

    开发基于云的RAG应用,使用开源 LLM

    检索增强生成 (RAG) 通常用于开发定制的 AI 应用程序,包括 聊天机器人、推荐系统 和其他个性化工具。该系统利用向量数据库和 大型语言模型 (LLM) 的优势来提供高质量的结果。 OpenAI 的 GPT-4 和 Google 的 Gemini 等商业 LLM 非常有效,但可能很昂贵并引发数据隐私问题。 让我们探索一种类似的方法来开发使用云托管开源 LLM 和可扩展向量数据库的应用程序。 工具和技术 开发此基于 RAG 的 AI 应用程序需要使用多种工具。 之后,您就可以编写代码并开发 RAG 应用程序了。 它的简单性和灵活性使其成为开发人员的理想选择,使他们能够更多地专注于创新,而无需过多关注部署复杂性。 另一方面,MyScaleDB 是专门为 RAG 应用程序开发的,提供高性能 SQL 向量数据库。

    58410编辑于 2024-07-07
  • 基于MindSpore NLP的LLM应用开发 - - 五点

    LLM介绍核心:Transforme1.什么是RAG:RAG(Retrieval-Augmented Generation)技术的原理与实践工作流2.Embedding3.知识库设计:常用向量数据库4. Tensorfrom copy import copyimport numpy as npfrom tqdm import tqdmimport jsonimport markdownfrom bs4 gr.Files(label="上传文件(支持 .md, .txt, .pdf)") ], outputs=gr.Textbox(label="生成的回复"), title="RAG 应用

    31910编辑于 2025-01-19
  • LLM应用开发平台特训营-慕K学习分享

    随着大语言模型(Large Language Models, LLM)的应用日益广泛,如何高效地部署和管理这些模型成为一个重要的课题。 而 Prompt 引擎作为 LLMOps 平台的重要组成部分,负责生成和优化提示(prompt),以提升模型的表现和应用效果。 1.3 LLMOps 平台的架构慕课LLM应用开发平台特训营中LLMOps 平台的架构通常包括以下几个模块:模型管理模块:负责模型的版本控制、打包和部署。监控模块:实现模型运行状态的监控和告警。 LLM应用开发平台特训营中Prompt 引擎需要与 LLMOps 平台及外部应用交互,这要求开发标准化的接口,支持数据输入输出和配置管理。 3.2 日志和监控慕课LLM应用开发平台特训营中集成日志和监控功能,使 LLMOps 平台可以跟踪 Prompt 引擎的运行状态和性能,便于调试和优化。

    74310编辑于 2024-06-12
  • 「慕K体系」LLM应用开发平台特训营-入门

    大语言模型(LLM应用开发涵盖了使用预训练语言模型构建自然语言处理(NLP)应用程序的过程。以下是开发 LLM 应用的详细指南,包括安装、基础配置、常见应用场景和实际示例。1. 安装和配置1.1 安装必要的工具和库在开始开发之前,确保安装了以下工具和库:Python:确保已安装 Python 3.6 及以上版本。pip:Python 包管理工具。 LLM 应用场景2.1 文本生成LLM 可以用于生成高质量的自然语言文本。这在内容创作、自动写作等场景非常有用。 部署和优化3.1 部署 LLM 应用LLM 应用可以部署在各种平台上,包括云服务(如 AWS、GCP)和本地服务器。常见的方法有:使用 Flask 或 FastAPI 构建 API 服务。 使用 Docker 容器化应用,便于部署和扩展。3.2 优化性能由于 LLM 通常非常大,优化性能是关键。可以考虑以下方法:模型压缩:使用模型量化和剪枝技术减小模型体积。

    72010编辑于 2024-07-02
  • 来自专栏深度学习与python

    Quarkus 开发基于 LangChain4j 的扩展,方便将 LLM 集成到 Quarkus 应用程序中

    Devoxx 大会上做了“Java Meets AI”的演讲,受此启发,Quarkus 团队开始开发基于 LangChain4J 库的扩展,这是 LangChain 库的 Java 重新实现版本(最初用 这将允许开发人员将大语言模型(LLM)集成到他们的 Quarkus 应用程序中。Quarkus LangChain4J 第一个公开版本,即 0.1 版本,在 2023 年 11 月中旬发布。 该扩展允许声明性地定义 LLM 集成点,类似于 Quarkus REST Client:用 @RegisterAiService 注解接口,然后通过在应用程序的任意位置注入服务来使用 LLM。 与传统代码不同,quarkus-langchain扩展保留了与 LLM 交互的方式,允许开发人员通过自然语言定义范围和任务。 工具允许 LLM 与父应用程序发生交互,它通过调用 REST 端点或执行数据库查询来实现交互。LLM 决定要使用的参数以及如何处理结果。

    1.9K10编辑于 2024-01-11
  • 来自专栏腾讯技术工程官方号的专栏

    一文入门最热的LLM应用开发框架LangChain

    在这个背景下,LangChain 作为一个以 LLM 模型为核心的开发框架出现,为自然语言处理开启了一个充满可能性的世界。 nodejs 版本也在短短 4 个月收货了 7k+的 star,这无疑利好前端同学,不需要会 python 也能快速上手 LLM 应用开发。 笔者认为 Langchain 作为一个大语言模型应用开发框架,解决了现在开发人工智能应用的一些切实痛点。以 GPT 模型为例: 1.数据滞后,现在训练的数据是到 2021 年 9 月。 4.不能与其他数据源链接。 另外作为一个胶水层框架,极大地提高了开发效率,它的作用可以类比于 jquery 在前端开发中的角色,使得开发者可以更专注于创新和优化产品功能。 1.3. LLM 应用架构 LangChian 作为一个大语言模型开发框架,是 LLM 应用架构的重要一环。那什么是 LLM 应用架构呢?其实就是指基于语言模型的应用程序设计和开发的架构。

    14.1K68编辑于 2023-08-18
  • 来自专栏机器学习炼丹术

    LLM入门4 | Segment Anything | MetaAI

    <<大型语言模型LLM与Visual>> LLM入门1 | 初见LLaMA | MetaAI LLM入门2 | 羊驼AIpaca | Stanford LLM入门3 | 基于cpu和hugging face 1 概括 我们在 Meta AI Research 和 FAIR 的团队开发了一个称为 SAM 的分割基础模型,其中包括一个可提示的分割任务、一个分割模型和一个数据引擎。 也就是说,我们寻求开发一个可提示的模型并使用任务在广泛的数据集上对其进行预训练,这使得强大的泛化成为可能。 有了这个模型,我们,旨在解决一系列下游细分问题,使用提示工程在新数据分布上。 StyleGAN2专题>> 生成专题1 | 图像生成评价指标 Inception Score (IS) 生成专题2 | 图像生成评价指标FID 生成专题3 | StyleGAN2对AdaIN的修正 生成专题4 torchvision.transforms常用API翻译与讲解 小白学PyTorch | 6 模型的构建访问遍历存储(附代码) 小白学PyTorch | 5 torchvision预训练模型与数据集全览 小白学PyTorch | 4

    97820编辑于 2023-09-02
  • 来自专栏C++核心准则原文翻译

    自学鸿蒙应用开发4)- 画面布局

    DirectionalLayout的详细信息可以参照鸿蒙官方的开发文档: https://developer.harmonyos.com/cn/docs/documentation/doc-guides

    64320发布于 2020-12-31
  • 来自专栏云云众生s

    LLM 如何转变企业应用

    借助正确的数据库、几行代码和像 GPT-4 这样的大语言模型,构建提供前所未有的个性化上下文级别的应用程序已经成为现实。 人工智能是自 1994 年互联网兴起以来最具变革性的范式转变。 由于该应用程序连接到 GPT-4LLM 和许多数据源(公司自己的产品目录、商店库存、客户信息和订单历史记录,以及许多其他数据源),它可以轻松告诉您完成 DIY 项目所需的内容。 事实上,构建基于 LLM应用程序只需要一个可以进行数据库调用和 API 调用的开发人员。 构建能够提供直到最近闻所未闻的个性化上下文级别的应用程序是任何拥有正确数据库、几行代码和 GPT-4LLM 的人都可以实现的现实。 LLM 使用起来非常简单。 你会听到开发人员谈论像 LangChain 这样的框架,顾名思义,它通过将多个 LLM 调用的输入和输出链接在一起并根据需要自动从正确的数据源中提取正确的数据来实现 LLM 驱动的代理的开发

    70210编辑于 2024-03-27
  • 来自专栏人工智能

    Java程序员该如何快速上手LLM应用开发呢?

    作为Java开发者,你完全可以利用自己已有的技能栈,快速上手LLM应用开发。在过去的一年里,我尝试了把多种行业的系统成功的接入大模型能力,将原有的企业应用升级为智能应用。 我发现,Java开发者在构建LLM应用时其实有着独特的优势——扎实的工程实践、成熟的生态系统以及强大的企业级应用开发经验。 二、Java开发者的LLM应用开发栈:从API到框架要开始Java LLM应用开发,你需要了解这套完整的技术栈,从底层API到上层框架,逐层递进:2.1 底层API:与大模型对话的"翻译器"一句话概括: 四、Java LLM应用开发实战:从零到一的4个步骤4.1 步骤1:环境准备与基础调用核心工作:选择合适的模型服务:根据预算和需求选择OpenAI、Azure、开源模型等;获取API密钥:注册账号并获取访问凭证 可参考的资源:LangChain4j官方文档Spring AI项目Spring AI Alibaba示例项目Deepseek AI集成示例项目互动话题:作为Java开发者,你在尝试LLM应用开发时遇到了哪些挑战

    80700编辑于 2025-11-07
  • 来自专栏开源服务指南

    LLM DevOps 平台:加速大模型应用开发 | 开源日报 No.269

    dataelement/bishenghttps://github.com/dataelement/bisheng Stars: 7.2k License: Apache-2.0 bisheng 是一款开源的 LLM 该项目旨在赋能和加速大模型应用开发,帮助用户以最佳体验进入下一代应用开发模式。 其主要功能、关键特性和核心优势包括: 便捷:通过预置的应用模板,业务人员可以快速搭建智能应用。 灵活:提供数百种开发组件,并支持可视化且自由的流程编排能力。 可靠与企业级:具备高并发下的高可用、实时运营及效果持续迭代优化等企业级特性。 产品应用广泛,包括分析报告生成、知识库问答、对话交互以及要素提取等多种场景。 Gemini API 的指南和示例 包括快速入门教程,展示如何编写提示以及使用 API 的不同功能 提供可构建的实际示例 支持多模态 Gemini 模型,可以无缝地跨文本、图像、代码和音频进行推理 可用于开发各种应用程序

    83910编辑于 2024-05-30
  • 来自专栏CoderJia的工作笔记

    LLM 应用的宝藏库:Awesome LLM Apps 项目深度解析

    在这个背景下,Awesome LLM Apps 项目应运而生,为开发者提供了一个全面的 LLM 应用示例库。 这个项目不仅仅是一个简单的代码集合,更像是一本活生生的 LLM 应用开发教科书。 结论与展望 Awesome LLM Apps 项目为 LLM 应用开发者提供了一个宝贵的学习和参考资源。 它不仅展示了当前 LLM 技术的应用边界,更为开发者提供了从零到一构建 LLM 应用的完整路径。 对于想要入门 LLM 应用开发开发者来说,这个项目无疑是最好的起点之一。通过学习和实践这些示例,开发者不仅可以掌握 LLM 应用开发的核心技能,更能培养对 AI 技术应用的深度理解和创新思维。 在 AI 技术快速发展的今天,像 Awesome LLM Apps 这样的开源项目正在推动整个行业的进步。它降低了 AI 应用开发的门槛,让更多的开发者能够参与到 AI 技术的创新和应用中来。

    2.2K10编辑于 2025-06-15
  • 来自专栏AIGC大模型应用

    AI大模型应用开发实战(02)-国内外LLM的多模型,强应用

    -> Falcon -> GPT-4v发展角度,LLM最早在2017年左右,最早所有LLM都是基于谷歌Transformer架构设计。 2017年谷歌发布它的T5模型,后续不断有新的这种LLM衍生。 包括GPT-2、GPT-3、GLM-130B和以Facebook代表的开源的ollma,还有后来GPT-4及中东的科研机构开发的这个FanCL及最新GPT4,包括多模态模型。 GPT4最新版诞生后,最新参数没变化,但底模数量较大。GPT-4参数达1.8万亿,号称史上最强。 4 大模型的生态百模大战,千模大战多模型大战,就是由OpenAI引爆。Hugging Face,抱脸,相当于AI界GitHub。很多开源模型可以找到:可见整个LLM发展生态繁荣。

    70810编辑于 2024-08-08
  • 来自专栏京东技术

    LangChain:打造自己的LLM应用

    导读 随着LLM的技术发展,其在业务上的应用越来越关键,通过LangChain大大降低了LLM应用开发的门槛。 本文通过介绍LangChain是什么,LangChain的核心组件以及LangChain在实际场景下的使用方式,希望帮助大家能快速上手LLM应用开发。 LangChain是一个框架,用于开发LLM驱动的应用程序。可以简单认为是LLM领域的Spring,以及开源版的ChatGPT插件系统。 开发框架,能和外部数据源交互、能集成各种常用的组件等等,大大降低了LLM应用开发的门槛。 个人认为,除了和业务结合落地LLM应用外,还有2个大的方向可以进一步去探索: 1)通过低代码的形式进一步降低LLM应用开发门槛。

    2.7K30编辑于 2023-11-05
  • LangServe如何革新LLM应用部署?

    0 前言随LLM技术演进,AI应用开发部署越来越复杂。LangServe应运而生,旨在简化AI服务部署和运维的框架。专为LLM部署和管理而设计;本文旨在讲解LangServe的功能特点和实践运用。 可将LLM应用链接入常见Python Web框架(如FastAPI、Pydantic、uvloop、asyncio),进而生成一套RESTful API。 LangServe减少开发人员的运维部署任务,使他们可以更专注于LLM应用开发。不仅简化从开发到生产的过渡,还确保服务的高性能和安全性。 LangServe的目标是让开发者能够轻松集成、部署和管理AI模型,从零到一无缝地实现LLM应用从原型到产品的过渡。 # 4. T5(Text-to-Text Transfer Transformer):由Google发布,是一个通用的文本生成模型,可以应用于多种NLP任务。# 5.

    46910编辑于 2024-10-21
领券