首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数据小冰

    Claude Code接入国产模型

    前言 本文介绍在macOS环境中搭建Claude Code接入国产模型的详细步骤。 配置MiniMax国产模型 访问MINIMAX官网,注册并登录账号,申请API key。 登录Claude Code 配置上述连接地址后,在终端执行 claude login,即可成功连接上模型。 通过 claude -p 指令进行问答快速验证效果,参数-p表示不要进入交互式会话。 让它简要介绍下模型,测试效果如下。

    1.2K10编辑于 2026-03-04
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    作为一个语言模型集成框架,LangChain 的用例与一般语言模型的用例有很大的重叠。 重叠范围包括文档分析和总结摘要, 代码分析和聊天机器人。 Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强 小结: - 研发&测试环境:为了方便部署和测试,使用云服务 - 大客户生产环境:安全审核严格,大多数采用自建模型的方式 总结 LangChain 是什么?

    70110编辑于 2025-08-04
  • 来自专栏前端必修课

    数据库接入模型实战

    三、数据库接入 MCP Server 进入 MCP 配置页面后,查找 PostgreSQL 的 MCP。 四、系统提示词配置 回到聊天界面(确保所选模型支持函数调用,模型名称后有小扳手图标),选择刚配置的 Postgres MCP 服务器。 接下来,编辑系统提示词。 先将数据库表结构信息提供给 AI。 注意需选择支持工具调用的模型模型名称后有小扳手图标)。 再问“年龄最大的学生是谁”,同样查询成功。 进一步测试复杂问题,如“哪些学生选修了数学课,分数最高前三名”。 六、总结 除了上述优化,还可以利用支持超长上下文的模型,将资料直接拖入对话框。本文到此结束,感谢阅读,下一篇将探讨超长上下文模型的应用。

    1.3K10编辑于 2025-05-04
  • 来自专栏前端与大模型

    前端通过 LangChain 接入任意模型探索

    简介 目前带大模型产品也越来越多,微软将模型能力融入office全家桶,谷歌将模型融入搜索引擎、邮箱、地图、视频网站等谷歌全家桶、Meta用AI能力服务广告商,帮助其撰写营销文案,生成广告概念图…… 模型解决方案 预训练的成本非常,微调模型和提示工程(上下文中带入知识)也都是用于优化大型语言模型性能的方法,但它们在实现方式和目的上有所不同。 2.4 模型 国内外模型高速度迭代,各大小厂都实现自己了自己的模型,要进入百模千模大战,模型应用端也必会繁荣起来,在应用层我们尝试借助使用不同模型能力来实现提示工程。 传统检索示例: ● 模型法: 当然我们可以直接使用模型,普通模型都是采用公开数据进行训练的,具有一定的知识局限性,它并不知道我们的帮助文档的内容,所以在提问后得到的答案是一本正经的胡说八道,对于我们帮助文档属于可公开内容并不会涉及数据安全性 ● RAG检索增强法: RAG 检索增强技术是检索技术 + LLM 提示技术,它是一种可以理解上下文、生成而非仅检索并能重新组合内容的技术,这是模型与外部数据相结合的一个实践,AI应用接入现有数据,AI

    4.1K52编辑于 2024-04-03
  • 来自专栏Java Tale

    语言模型(AI)接入小爱音箱

    家里闲置了一个小米 mini 音箱,打算接入模型试试,,从“人工智障”秒变学霸。 mini, 查看小米音箱的型号 我的型号是LX01 查看小米账号 小爱音箱 APP-->我-->点击头像-->查看小米账号-->我的是 167857068 综上得到小米音箱的名称,型号,小米账号 申请模型的 cloud.siliconflow.cn/i/bp8xtUdh 邀请码:bp8xtUdh(谢谢支持) 新建API密钥 注册登录后,单击左边栏的API密钥,单击新建API密钥 点击密钥即可复制 我们可以调用千问2.5的这个模型 建议不要超过 1 分钟 // 连续对话时,下发 TTS 指令多长时间后开始检测设备播放状态(默认 3 秒) checkTTSStatusAfter: 3, // 当小爱长文本回复被过早中断时,可尝试调该值

    2.4K10编辑于 2024-10-24
  • 来自专栏陶士涵的菜地

    企业微信客服API模式接入第三方客服系统,对接模型AI智能体

    我们系统可以接入企业微信客服的API gofly.v1kf.com 联系vx:llike620 企业微信客服是企业微信里面的一项功能,它整合了微信生态的优势,解决的是与临时访客进行实时沟通的需求 核心功能 多渠道接待:支持在微信内(公众号、小程序、视频号、搜一搜、支付凭证等)和微信外(APP、网页等)多个场景接入,用户无需添加好友即可发起咨询 沟通与互动工具 自动回复与欢迎语:可设置首次问候语及常见问题的自动回复

    99010编辑于 2025-09-25
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元模型

    我尝试使用openai协议的api key接入openwebui失败后,由生此文。

    1.1K11编辑于 2025-01-10
  • 来自专栏量子位

    华为率先把模型接入手机!小艺+模型,智慧助手智商+++

    好家伙,华为HarmonyOS接入模型,智慧助手可以这么玩了吗? 从整体技术架构来看,华为小艺和模型的融合,不是简单对聊天、AIGC、回复等任务进行增强,而是以模型为核心,进行了系统级增强。 换言之,就是让模型成为系统的“大脑”。 为了让模型能达到如此生成标准,华为一方面用prompt摸清楚模型的“脾气”,同时加强大模型的代码能力,进而增强模型的格式遵从能力,最终实现了格式几乎百分百遵从。 随着最新一轮AI趋势爆发,RLHF给模型带来显著提升,产业落地的大门正式开启。 今年生成式AI趋势发生以来,诸多应用都选择接入模型能力、内置智慧助手。 对应来看:华为是最早具有模型能力的国内厂商之一;构建全栈AI开发能力;HarmonyOS覆盖7亿+设备…… 由此,也就不难理解为什么华为小艺会快速接入模型能力,让HarmonyOS 4成为如今首个全面接入模型的操作系统

    2K10编辑于 2023-09-08
  • 来自专栏后台技术汇

    模型安装部署、测试、接入SpringCloud应用体系

    安装部署模型时,需要考虑模型的兼容性、计算资源的需求、存储空间的分配以及模型的优化策略。 将模型接入SpringCloud应用体系,可以实现模型的分布式部署、弹性扩展和高效管理。这一过程需要考虑模型的接口设计、数据传输的效率、安全性以及容错机制等。 ,对模型进行应用层面的定制化,比如接入到微服务体系,并赋能业务微服务。 SpringCloud微服务接口测试结果api访问模型,并取到模型结果。 、测试、接入SpringCloud应用体系一文带你看懂:亿级表垂直拆分的工程实践亿级表冷热分级的工程实践

    89110编辑于 2024-09-22
  • 来自专栏晓晨的专栏

    Go gin 接入 prometheus

    Prometheus 的 go sdk 是由官方提供的,地址:https://github.com/prometheus/client_golang ,里面包含了生成 prometheus metrics 安装: go get github.com/prometheus/client_golang 编写 gin handle func PromHandler(handler http.Handler) gin.HandlerFunc 下一步就可以配置接入 prometheus server,grafana 配置界面了 grafana dashboard https://grafana.com/grafana/dashboards/6671

    2.7K30编辑于 2022-05-07
  • 来自专栏小胡的技术分享

    小白如何在微信公众号接入模型

    正文 近期,在网上冲浪的时候遇到一些问题想去问模型但是还要记住它们的网址我在想可不可以在微信的公众号接入模型呢,于是我便进行了实操。 下面是我的接入过程 公众号接入模型 1.去注册一个“扣子”官网注册一个账号开发平台,用于创建和管理你的智能机器人。 2.微信公众号,不管是订阅号还是服务号都需要一个已经完成注册且已经审核的。 在bot的编辑页面,进行如下操作 点击“模型设置,选择“moonshbot(128k)”选项,这个代表kimiai模型 这里需要调整最大回复长度,确保能生成长回复。

    2K20编辑于 2024-11-18
  • Java接入AI模型:框架助力与实践指南

    Java接入AI模型是企业实现数智化升级的关键路径,但原生开发面临多模型适配、工程化部署等挑战。 一、Java接入AI模型的核心难点Java接入AI模型的核心难点集中在三个方面。 不同厂商的模型接口规范不统一,导致集成多个模型时需要重复开发适配代码;企业现有Java系统与AI能力的融合需要兼顾架构兼容性,避免大规模重构;模型调用涉及的资源调度、权限管控、数据处理等工程化问题, 三、Java接入AI模型的实践要点(一)需求匹配与模型选型接入前需明确业务需求,根据场景选择合适的模型类型与部署方式。 Java接入AI模型的核心是平衡技术适配与业务需求,借助JBoltAI等框架的标准化能力,可有效降低开发难度,提升项目落地效率。

    26510编辑于 2026-01-28
  • 来自专栏开源技术小栈

    Openai 异步客户端接入国产模型 Kimi

    Moonshot AI 的核心团队曾参与开发Transformer XL、RoPE等关键算法,并且在模型领域有着深厚的技术积累。 kimi 是他们家智能助手的名字,真正的模型是叫 Moonshot。这一点我们从 API 的 model 参数中也能发现。因此后面谈到模型时,就统一称呼为 Moonshot。 现有基于 GPT 的老项目都可以无缝接入 Moonshot,基于 Moonshot 的新项目也可以随时更换引擎。不管是迁移来还是迁移走都毫无压力! webman/openai 简介 传统php-fpm架构调用openai等模型接口时只能做到阻塞调用,由于模型接口返回速度很慢,一个php-fpm进程一分钟只能调用几次,几个人一刷系统就会明显的卡顿甚至不可用状态 ,所以php-fpm不适合做大模型调用,而webman这类的常驻内存类型的框架非常适合模型应用的开发。

    2.5K31编辑于 2024-03-20
  • 来自专栏小胡的技术分享

    如何对接入公众号的模型进行调试

    引入昨天我们学习了怎么将模型接入公众号,今天我们来维护一下模型,让它更智能吧。废话不多说直接开始。 新增/删除组件在项目开发界面点一下智能体进入到配置的调试界面在这个界面可以对我们的模型进行一系列的调试,例如可以对机器人设置一个快捷指令菜单,可以让使用的用户对机器人进行更精准的功能使用。 工作流支持通过可视化的方式,对插件、语言模型、代码块等功能进行组合,从而实现复杂、稳定的业务流程编排,例如旅行规划、报告分析等。可以添加一些工作的插件,让打工生活更加丰富多彩。 总结创建的模型初衷是为了方便自己或者用户,同时也希望开发者们能够及时的去维护自己的模型,让模型的环境更加丰富多彩,同时我也跟绝大多数开发者一样愿意将自己的插件分享出来,同时也希望各位用户嘴下留情, 对于模型的延迟问题这边也会尝试调用其他更快的api希望各位用户们不要嫌弃,这边正在努力成长去更新去探索新功能!

    44810编辑于 2024-11-19
  • 来自专栏flytam之深入前端技术栈

    Go项目接入travis

    上一篇文章提到了npm的接入 travis 实现自动发布 npm 包的方法,本文主要讲述 Go 项目的使用,主要分为执行单元测试和 build 打包发步到 github release。 已为filenamify.go编写测试文件filenamify_test.go。只需要在tracis中执行go test -v即可。 - GO111MODULE=on script: go test -v 然后给在项目中加上构建状态图标。 language: go go: - 1.13.x env: - GO111MODULE=on # 启用Go mod install: - go get -v before_deploy go: - 1.13.x env: - GO111MODULE=on # 启用Go mod install: - go get -v before_deploy: make

    77420发布于 2020-03-24
  • Spring Boot 接入模型实战:混元模型赋能智能应用快速开发

    对于许多Java开发者而言,如何高效、便捷地接入这些模型并构建出功能丰富的智能应用是一个令人兴奋但又稍感畏惧的挑战。 本文将从一个资深架构师的角度,详细介绍如何通过Spring Boot接入模型,实现智能对话、文生图、图识别、文生语音、语音翻译及Function-Call等智能场景。 通过接入混元模型,开发者可以轻松地为自己的应用添加多种智能功能。----二、功能点智能对话:通过混元模型的API,实现与用户的自然语言交互,提供智能问答、闲聊等服务。 五、Demo示例以下是一个简单的Spring Boot项目示例,演示如何接入混元模型并实现智能对话功能。1. message=你好,即可看到混元模型返回的智能对话结果。六、总结与展望通过本文的介绍,我们了解了如何通过Spring Boot接入模型(以混元模型为例),实现智能对话与多元AI功能。

    1.5K31编辑于 2024-10-28
  • 来自专栏go

    go调用腾讯混元模型

    go-easy-llm 点击 github go-easy-llm 查看更多 一个满足你的调用多种模型API的轮子,支持目前市面多家第三方模型,包含ChatGPT、通义千问、文心模型、混元、盘古、 百川智能等; 一套写法兼容所有平台,简单配置即可灵活使用第三方模型API。 简单几步即可使用第三方模型API 混元模型调用 创建密钥 点击我 进行密钥创建 通过这一步,你就会拿到腾讯的 secretId、secretKey,主要用于鉴权使用 引入go-easy-llm go your-secretKey", easyai.ChatTypeHunYuan) 创建 Chat 客户端 client := easyllm.NewChatClient(config) 调用 Chat 模式模型 Message: "介绍一下你自己", }) for content := range resp { fmt.Println(content) } 通过以上简单几步,你就可以轻松的调用腾讯混元模型

    38510编辑于 2024-09-02
  • Java接入AI模型:JBoltAI的实践与应用

    Java技术团队接入AI模型时,往往会面临诸多痛点:模型调用的底层逻辑与Java开发习惯差异较大,跨语言开发增加学习成本;现有Java系统与模型能力的对接需要大量定制化开发,效率低下;不同模型的调用接口不统一 而JBoltAI的设计核心,正是围绕解决这些痛点,让Java接入模型的过程更贴合企业实际开发与应用需求。 为了让Java技术团队能快速上手模型接入开发,JBoltAI还提供了贴合Java生态的开发支撑体系。 在实际应用中,JBoltAI将AI模型能力与具体的业务解决方案结合,让Java接入模型后能快速落地到实际场景。 同时,JBoltAI还考虑到企业级应用的稳定性和扩展性需求,在模型接入的过程中提供了完善的技术支撑。

    24310编辑于 2026-03-06
  • 来自专栏玩转Lighthouse

    玩转OpenClaw|OpenClaw接入自定义模型教程

    同样,面板也支持了许多主流模型提供商,那么如果我们有其他的第三方提供商(例如七牛、硅基流动等)需要配置,这篇文章教会你如何接入这些第三方提供商。 重要 在选择模型提供商时,请确定你的轻量应用服务器地域在模型提供商支持的地域中 接入自定义AI提供商 只要在轻量应用服务器控制台,应用管理中将下方的自定义模型相关字段填写进去后点击保存即可完成自定义模型的配置 ,可以使用以下通用模板接入任何兼容OpenAI/Anthropic协议的模型: { "provider": "provider_name", "base_url": "baseurl", " 更换服务器地域为模型支持的地域或更换模型 模型回复慢(响应慢) 若您选择的轻量应用服务器为境外地域且使用境内通道/模型提供商可能会因跨境网络原因导致延迟较高。 若您选择深度思考模型可能因上下文过多导致模型思考时间过长,推荐您选择非思考模型/快思考模型进行替代。

    50.4K5952编辑于 2026-04-10
  • 来自专栏Frost's Blog

    Flask 博客接入第三方登录

    在上一篇文章中我留了一部分内容,就是如何给评论登录接入第三方登录。我不希望来访问我博客的用户有太大的登录成本,否则本想留下些话的人,就会被挡在这个门槛之外。 开发思路 首先我们要搞清楚我们需要第三方登录来做什么。很简单,获取用户的邮箱地址(用于通知)、用户头像、用户名称(用于展示)这些基本的信息。 OAuth2协议更加简化些,我预备接入的Github和Google都属于这一种协议,认证的主要过程是: ? 接入过程 Github的OAuth2接入是最简单的,很多教程都选择以Github为例,所以我这里选择用Google为例。 第一步,到Google API Console申请OAuth2凭据 ? 现在我们就可以使用第三方登录了。

    2.4K40发布于 2019-12-02
领券