首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏软件测试学习

    怎么通过API调用AI模型获取响应结果

    要通过api在代码里面去调用模型,需要先申请模型api key,以deepseek官网为例,apikey的申请地址:https://platform.deepseek.com/api_keys 目前 ,deepseek通过apikey调用是要收费的,注册后需要充值使用,也可以用其他第三方平台的apikey调用的方式进行接入,代码都是差不多的,改一下相关的配置就行。 代码案例的话,deepseek官网就有提供最简单的案例: https://api-docs.deepseek.com/zh-cn/ 调用上面的代码,需要安装依赖: pip install openai 通过上面2篇文章,一个是可以将模型切换为其他第三方平台的api进行调用,有的平台注册会赠送一定的体验额度,可以临时用于代码调试啥的,另一篇文章的话,是可以将代码里面的apikey以及对应的api地址等信息放到配置文件里面 模型列表可以参考:https://huggingface.co/deepseek-ai/models https://modelscope.cn/models

    4.3K10编辑于 2025-06-23
  • 从零到一:使用pycharm搭建API接口调用模型

    从零到一:使用pycharm搭建API接口调用模型【前言】随着人工智能技术的快速发展,语言模型(LLM)已成为许多应用场景的核心技术。 本文将详细介绍如何使用PyCharm开发环境搭建API接口调用模型的完整流程,包括两种主流调用方式、模型列表查看方法,以及一个完整的求职岗位查询实战案例。 【任务】1.掌握使用OpenAI库和requests库调用模型API的方法。2.学会查看和展示可用的模型列表。3.实现基于模型的求职岗位查询系统。4.掌握API调用的错误处理和结果展示技巧。 By:不吃花椒的喵酱一.模型调用模型调用有两种方式,一种通过openai库进行调用,一种通过requests库进行调用。 if __name__ == "__main__": main()第三步:运行结果图5:程序运行结果展示图6:模型返回岗位信息.xlxs文件四.掌握API调用的错误处理和结果展示技巧

    1.5K21编辑于 2025-12-23
  • 来自专栏AI智能体从入门到实践

    构建AI智能体:初识腾讯混元AI模型API调用

    1.首先登录腾讯云模型API的管理后台,申请API-key;2. 申请成功后下方列表会多出来一条apikey信息:3.获取到key后就可以在模型广场,查看、挑选我们需要的模型,进行体验或选择使用了。4. 腾讯混元模型API接口调用详细说明:5. 主要通过腾讯的腾讯云模型API提供的混元模型API和SDK来实现模型的应用,混元模型支持文本模型和生图模型,通过API的方式方便开发者调用,可通过腾讯云SDK方式接入或使用OpenAI SDK方式接入 , "填表人": "", "日期": ""}3.通过混元模型兼容的OpenAI接口使用API-KEY的base-url进行模型调用import jsonimport osfrom openai import **语言翻译**:AI模型可以实现多种语言之间的自动翻译,帮助人们跨越语言障碍,促进国际交流与合作。\n\n5.

    2.4K11编辑于 2025-12-10
  • 来自专栏AI

    AI 语音模型调用

    AI 语音模型(AILM)通常作为云服务 API 提供给开发者,这使得我们无需部署昂贵的硬件,就能在应用程序中集成高性能的语音功能。调用过程涵盖了身份认证、数据传输和参数配置等关键环节。1. 核心调用流程与模型选择调用 AILM API 的基本流程可以概括为:认证 → 数据输入 → 参数配置 → 接收输出。2. 详细的 API 调用步骤2.1 认证与授权所有商业 AILM API 都需要授权才能调用,以确保数据安全和计费准确。API 密钥(API Key): 这是最常见的授权方式。 2.2 实时语音转文本(ASR)的调用ASR 服务通常提供流式 API 和批处理 API 两种调用方式。流式调用(Streaming ASR): 适用于实时语音输入(如语音聊天、实时字幕)。 通过遵循这些步骤和最佳实践,您可以高效且安全地将 AI 语音模型的功能集成到您的应用程序中。

    48210编辑于 2025-09-29
  • 来自专栏胡琦

    模型 API 调用从 0 到 1 (以智谱 AI 为例)

    本教程灵感来源于自塾模型 API 开发和智谱 AI 官方手册。 本教程需先注册智谱 AI,所有注册用户均可免费使用 GLM-4-Flash API 。 pip -V 1. requests:数据交互的桥梁 requests 是 Python 常用的网络请求包,类似于前端的 Axios,我们通过 requests 来调用模型服务 API。 pip install requests # 使用 requsets 包可以调用任何模型 API # API Key: https://bigmodel.cn/usercenter/apikeys # 使用 requsets 包可以调用任何模型 API import requests api_key = 'fd3cfd4bddd068e28e7175104002689b.Lm7aWJUYwMK2P5I9 封装 API:实现模型自由 有时,我们不想直接调用模型厂商的 API,而是希望使用自己的 API 接口,实际上调用现成的模型接口。其实也是很简单的!

    3.6K11编辑于 2025-05-20
  • Agent Toolkit揭秘:Python实现智能体调用外部API5种方案

    Agent Toolkit 揭秘:Python 实现智能体调用外部 API5 种方案嘿,各位技术探险家们!欢迎来到我们今天充满刺激与惊喜的技术探秘之旅。 今天,我们就用 Python 这个神奇的魔法棒,来探索实现智能体调用外部 API5 种绝妙方案。在这趟旅程中,我们不仅会深入了解各种技术细节,还会看到有趣的案例和实用的代码,保证让你收获满满! 同时,它还通过 API 与音乐平台这个外部系统进行交互,体现了社交能力。为什么要让 Agent 调用外部 API?你可能会问,Agent 自己待着不好吗,为什么非要去调用外部 API 呢? 常见的 API 类型在我们准备用 Python 让 Agent 调用 API 之前,先来认识一下常见的 API 类型。 到这里,我们就完成了 Python 实现智能体调用外部 API5 种方案的揭秘之旅啦!相信你在这个过程中已经收获了满满的知识和技能。技术的世界就像一片无垠的海洋,每一次探索都是一次新的冒险。

    2.5K10编辑于 2025-03-24
  • AI模型API接入方案:GPT-4oNano banana proVeo调用实战指南

    本文通过测试与官网API对比,评估、GPT-4o(图像生成)和Gemini-2.5-Flash等模型,配以详细表格,并提供使用稳定AI API的实用指南,重点介绍Nano banana API视频生成如何调用 GrsAi vs 官网:AI模型接口价格与性能测评涵盖视频生成(S 2,Veo3.0/3.1)、图像生成(Nano Banana Pro、GPT-4o、Gemini 2.5 Flash Image( Nano Banana)、Flux1.1Pro/Ultra、Flux.1kontext pro/fast)和文本处理(Gemini2.5)等模型。 一站式接入:一个API密钥调用视频、图像和文本模型,简化流程。全球支持:全球用户都可以直接调用低价AI API。 如何使用 AI模型API调用,快速上手指南用Nano banana API举例,以下是基于官方文档的步骤:访问GrsAi:(grsai.com/zh/dashboard/models)获取API密钥:

    1.5K00编辑于 2025-11-22
  • 来自专栏go

    go调用腾讯混元模型

    go-easy-llm 点击 github go-easy-llm 查看更多 一个满足你的调用多种模型API的轮子,支持目前市面多家第三方模型,包含ChatGPT、通义千问、文心模型、混元、盘古、 百川智能等; 一套写法兼容所有平台,简单配置即可灵活使用第三方模型API。 简单几步即可使用第三方模型API 混元模型调用 创建密钥 点击我 进行密钥创建 通过这一步,你就会拿到腾讯的 secretId、secretKey,主要用于鉴权使用 引入go-easy-llm go Chat 模式模型 一次性回复 NormalChat resp, reply, err := client.NormalChat(context.Background(), &easyai.ChatRequest Message: "介绍一下你自己", }) for content := range resp { fmt.Println(content) } 通过以上简单几步,你就可以轻松的调用腾讯混元模型

    38610编辑于 2024-09-02
  • 来自专栏为了不折腾而去折腾的那些事

    Amazing OpenAI API:把非 OpenAI 模型都按 OpenAI API 调用

    好在我们可以通过下面的方式,来将软件调用模型的名称进行一键“替换”,替换为我们实际在使用的模型。 比如,我们可以通过下面的方式,来将原始请求中的模型,映射为我们真实的模型名称。 使用 Yi 34B Chat 模型 如果我们想将 Yi 官方的 API 转换为标准的 OpenAI API 调用,可以使用下面的命令: AOA_TYPE=yi YI_ENDPOINT=<你的 API 地址 /aoa 如果我们在启动服务的时候配置了 YI_API_KEY 的话,不论是开源软件也好,使用 curl 调用也罢,我们都不需要添加 Authorization: Bearer <你的 API Key> /aoa 使用 Gemini Pro 模型 如果我们想将 Google 官方的 Gemini API 转换为标准的 OpenAI 调用,可以用下面的命令: AOA_TYPE=gemini GEMINI_API_KEY API 调用: 最后 这篇文章就先写到这里吧。

    1.5K00编辑于 2024-01-09
  • 来自专栏大模型应用

    模型应用:模型本地化部署与API调用:打包迁移到服务器的多种方式实践.47

    但随着应用场景的升级,单一设备的本地化调用已难以满足多用户协同访问、高并发处理、长期稳定运行的需求,同时,将开源或自定义模型封装为可网络访问的 API 接口,部署到服务器上实现稳定调用,已成为企业级应用 今天,我们将聚焦模型从本地可用到云端可调用的全链路实操,沿着基础 API 调用、自动化接口文档生成、多方案打包部署上线的完整脉络,进行细致拆解与深度剖析,真正实现从技术跑通到场景落地的无缝衔接。 硬件要求CPU:普通办公电脑i5、i7 CPU也能跑,但速度慢;推荐多核 CPU。GPU:模型运行需要大量并行计算,GPU 能提速 10-100 倍。 打开浏览器访问http://localhost:8000/docs,就能像之前一样调用模型了。接口界面预览:5. .tar七、总结 模型 API 服务器部署的核心是环境适配、便捷调用 、稳定运行,不同方式各有侧重:Docker 容器化是企业级首选,兼顾稳定性和扩展性,EXE 打包适合 Windows

    2.4K103编辑于 2026-03-16
  • 来自专栏数字化之路

    之前的API是按调用次数收费,为什么模型要以Token数收费?

    为什么在模型出来之前的API,都是按调用次数收费, LLM的API为什么要按Token收费? 因为,Token的数量直接影响模型的计算成本。 相比之下,传统的按次收费(比如每次API调用收费)无法区分短文本和长文本的计算成本,而按Token收费则能更公平地反映用户的实际使用。 马建仓,Gitee模型 API 计费怎么就那么别扭??? GPT token的计算包含两部分。 输入给GPT模型的token数和GPT模型生成文本的token数。 -4为32K Token),超出后需分块处理,可能导致上下文遗忘[5]。 成本:API调用按Token计费,控制Prompt长度可降低费用(如精简提问)。

    6K20编辑于 2025-02-25
  • 来自专栏时来之笔

    2026 模型 API 免费额度汇总

    、Kimi K2.5 等每日10点限量抢购腾讯云模型平台阿里云百炼¥40(Lite Plan)1.8万次 / 月Qwen 3.5、GLM-5、MiniMax 等每日9:30限量抢购阿里云百炼 Coding )40次 / 5小时M2.5 系列非常适合 OpenClawMiniMax 开放平台无问芯穹¥19.9(入门档)1000次 / 5小时GLM、Kimi、MiniMax 等模型更新稍慢,适合预算敏感型无穹 Infini-AI 服务平台2026 模型 API 免费额度汇总清单 国家超算平台国家超算平台为开发者提供了极为丰厚的新用户注册福利,支持调用多款当前最新的前沿模型。 NVIDIANVIDIA 为开发者提供 NIM API 服务,支持高并发调用。 免费权益:调用额度:无限次调用。速率限制:每分钟 40 次请求 (40 RPM)。 右上角选择点击 "Get API Key" 即可获得API key进行调用

    38.4K335编辑于 2026-03-17
  • 什么是API?进行API对接的5常见误区!

    提升用户体验通过API对接,企业可以将不同系统之间的数据整合在一起,提供更加完整、准确、及时的信息,从而提升用户体验。5. 四、如何进行API对接进行API对接需要平台具备较强的兼容性,比如我常用的数据集成平台Finedatalink,它具有强大的ETL功能和多种技术架构支持,可以连接七类型、30+种数据源,通过GET和POST 两种方式调用API接口数据,使企业在不同的业务环境下都能方便地获取所需数据,进行数据开发。 (4)不注意对接口变更①误区: 对接完成后,不关注API提供方发布的变更通知,如版本升级、参数废弃、接口下线,导致线上调用突然失败。 (5)未充分考虑流量控制与配额①误区: 对接时未了解API调用频率限制(Rate Limiting)或使用配额(Quota),导致请求被限流或拒绝,返回HTTP 429等,影响业务。

    64910编辑于 2025-09-26
  • 5模型Agent模式

    模型中的5种AI Agent模式在模型中,AI Agent(人工智能代理)模式是一种重要的应用方式,可以从以下几个方面来理解:1. 在模型的背景下,AI Agent 是基于大规模预训练模型(如 GPT 等)构建的智能代理,能够利用模型的语言理解和生成能力来完成复杂的任务。 例如,它可以自动分解任务、调用工具或资源来完成目标。智能性:它基于模型的强大语言理解能力,能够理解自然语言指令,并生成自然语言响应。这种智能性使其能够处理复杂的语言任务,如对话、写作、翻译等。 可扩展性:AI Agent 可以通过调用外部工具、API 或插件来扩展其功能。例如,它可以调用搜索引擎获取信息,或者调用日历应用来安排日程。3. 工作原理感知与理解:AI Agent 首先通过输入(如用户指令、环境数据等)感知外部信息,然后利用模型的语言理解能力解析这些信息,确定任务目标。

    4.1K10编辑于 2025-05-07
  • 来自专栏Java开发

    如何使用LangChain4j调用商业API模型

    使用 LangChain4j 调用商业 API 模型(如 OpenAI、Anthropic、Google Gemini 等)非常便捷,因为它提供了统一的接口和简化的配置方式。 获取 API 密钥undefined从模型提供商(如 OpenAI、Anthropic 官网)申请 API 密钥,并确保账户有可用额度。 创建模型实例undefined通过 builder 模式配置模型参数(API 密钥、模型名称、超时时间等)。 {System.err.println("调用失败:" + e.getMessage());}批量处理:对于大量请求,考虑异步调用或批量API(如OpenAI的batch接口)。 通过以上方式,你可以轻松集成各种商业API模型,并利用LangChain4j的高级功能(如对话记忆、函数调用)构建复杂的LLM应用。

    49610编辑于 2025-09-24
  • 来自专栏全栈程序员必看

    api接口调用

    api接口调用 CURL 是一个利用URL语法规定来传输文件和数据的工具,支持很多协议,如HTTP、FTP、TELNET等。最爽的是,PHP也支持 CURL 库。 curl_exec() ④:释放句柄 curl_close() 示例 //获得笑话 function juheJoke() { //配置您申请的appkey $appkey = "b347e63ca4be5dcde868e98f45814d0b

    4.1K30编辑于 2022-09-06
  • 来自专栏人工智能chat

    OpenAI API 快速入门:从获取密钥到异步调用实战(含GPT-5 模型解析)

    OpenAIGPT-5API获取与模型性能深度解析随着人工智能的飞速发展,OpenAI的GPT-5模型已成为当前最先进的大规模语言模型之一。 4.优势与局限优势:统一系统:用户无需选择多个模型,而是可以通过GPT-5实现所有任务的统一处理。强大的推理和编码能力:尤其是在多步骤任务和工具调用上,GPT-5的性能显著优于前代模型API调用与成本管理:开发者可以根据任务的复杂性选择不同的模式(如快速模式与深度推理模式),并通过控制上下文窗口和模型调用频率来优化成本。 代码来调用GPT-5API。 代码解释exportOPENAI_API_KEY="your-api-key"编写代码调用GPT-5API以下是调用GPT-5API的Python示例代码:展开代码语言:TXTAI代码解释importopenai

    61810编辑于 2025-11-14
  • 来自专栏大模型应用

    模型应用:本地大模型API调用鉴权可视化全解析:从基础实现到业务扩展.45

    一、引言 随着模型本地化部署的普及,基于 FastAPI 封装模型接口并实现鉴权、可视化交互,成为实现落地大模型应用的核心场景。 前一篇博文我们讲解了模型本地化部署以及api鉴权调用的基础示例,今天我们在初级理论的基础上强化实际应用,以“本地大模型文本生成 API+Streamlit 可视化前端”为核心案例,从代码分解、执行流程 应用功能安全防护:API Key/JWT 双鉴权避免模型被滥用,IP 限流防止高频调用导致服务崩溃;灵活定制:支持调节生成参数(temperature 控制随机性、top_p 控制采样策略),适配不同文本生成场景 后端校验阶段 鉴权校验:验证API Key或JWT令牌的有效性限流校验:检查用户请求频率是否超出限制4. 模型推理阶段 调用模型进行文本生成,根据参数控制生成质量和多样性5. ,快速搭建模型交互平台Transformers:模型调用,用于模型加载与推理,HuggingFace开源库,支持加载 Qwen、GPT2 等主流模型,提供统一的 generate 推理接口PyTorch

    37832编辑于 2026-03-14
  • 来自专栏专知

    【干货】使用TensorFlow官方Java API调用TensorFlow模型(附代码)

    专知成员Hujun给大家详细介绍了在Java中使用TensorFlow的两种方法,并着重介绍如何用TensorFlow官方Java API调用已有TensorFlow模型的方法。 TensorFlow的两种方法 ---- ---- 使用Java调用TensorFlow大致有两种方法: 直接使用TensorFlow官方API调用训练好的pb模型: https://www.tensorflow.org 由于KerasServer的服务端提供Python API, 因此可以直接将已有的TensorFlow/Keras Python代码和模型转换为KerasServer API,供Java/c/c++/C 本教程介绍如何用TensorFlow官方Java API调用TensorFlow(Python)训练好的模型。 在代码的最后,调用tf.graph_util.convert_variables_to_constants 将图进行转换,最后将图保存为模型文件(pb)。

    14.9K41发布于 2018-06-05
  • Wan2.1开源视频生成模型API调用指南

    Wan2.1:通过API生成视频如果你最近关注AI视频领域,可能已经注意到它正在爆炸式发展。新的模型每周都在发布,带来了更好的输出效果、更高的分辨率和更快的生成速度。 生成一段5秒的视频,480p分辨率需要39秒,720p分辨率需要150秒。它是开源的,包括模型权重和代码。社区已经在构建工具来增强它。它能生成具有真实世界准确度的惊艳视频。 本文将介绍新模型以及如何通过API运行它们。 通过API运行Wan2.1某平台上的每个模型都配有可扩展的云API,Wan2.1也不例外。 只需在调用模型时省略图像输入即可:import Replicate from "replicate"const replicate = new Replicate()const model = "wavespeedai

    48610编辑于 2026-02-10
领券