首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏时来之笔

    2026 模型 API 免费额度汇总

    ,适合预算敏感型无穹 Infini-AI 服务平台2026 模型 API 免费额度汇总清单 国家超算平台国家超算平台为开发者提供了极为丰厚的新用户注册福利,支持调用多款当前最新的前沿模型。 百度云 (千帆模型平台)百度千帆平台集成了大量第三方热门模型,采用“每模型独立额度”策略。核心权益: 每个模型 100 万 Tokens (ERNIE-4.5 系列通常有效期为 3 个月)。 领取地址: 百度智能云千帆控制台️ 领取步骤:访问千帆模型平台阅读并同意用户协议后,系统将自动开通千帆模型平台并发放新用户免费Tokens额度。 进入“混元模型”页面,点击“开通服务”。在“资源包管理”或“权益中心”查看自动到账的 100 万额度。 右上角选择点击 "Get API Key" 即可获得API key进行调用。

    28K329编辑于 2026-03-17
  • 来自专栏AI相关

    模型API的token是如何计算的?

    今天来讲一个比较简单且常见的话题:模型调用时token数量是如何计算的? 在我们日常使用语言模型(LLM)API时,比如OpenAI、Anthropic或其他厂商的接口,token数量几乎是一个绕不开的问题。 无论是控制调用成本,还是预估模型上下文长度,都离不开对token计算方式的理解。比如我在某个平台调用模型API的时候就会有一些相关的参数:看着这些参数有时我会不禁发问:token到底是什么? 例如:GPT系列使用tiktoken(基于BPE编码)Claude使用AnthropictokenizerGemini使用自家SentencePiece编码器输入与输出Token的计算方式在调用模型API 理解它,才能真正掌握模型API的成本和性能。希望这篇文章能帮你在与LLM的交互中,更“省钱”、也更“聪明”。

    2.2K20编辑于 2025-11-10
  • 来自专栏大模型应用

    模型应用:模型的本地 API 服务:FastAPI 封装与接口鉴权.44

    核心概念模型本地 API 服务:把本地电脑或服务器上的模型,变成一个 "可随时呼叫的工具人"。不用连云端,本地就能通过指令调用它干活,数据全程不泄露。 基础了解2.1 本地 API 服务的优势解决云端痛点:云端模型有隐私泄露风险、要付调用费、没网用不了,本地 API 服务完美规避这些问题。 降低使用门槛:封装后,不懂模型底层的开发者,也能通过简单指令调用模型能力。2.2 FastAPI 是什么轻量高效的 Python 框架:专门用来搭建 API 服务,比传统框架快很多,支持并发请求。 服务器接收请求后,先验证凭证是否正确,比如 API Key 是否存在、未过期,验证通过才让模型处理请求。核心流程:1. API 的内存资源不会被无限占用;轻量化:令牌是字符串,传输快,适配模型 API 的低延迟需求。

    35742编辑于 2026-03-13
  • 来自专栏软件测试学习

    怎么通过API调用AI模型获取响应结果

    要通过api在代码里面去调用模型,需要先申请模型api key,以deepseek官网为例,apikey的申请地址:https://platform.deepseek.com/api_keys 目前 代码案例的话,deepseek官网就有提供最简单的案例: https://api-docs.deepseek.com/zh-cn/ 调用上面的代码,需要安装依赖: pip install openai 通过上面2篇文章,一个是可以将模型切换为其他第三方平台的api进行调用,有的平台注册会赠送一定的体验额度,可以临时用于代码调试啥的,另一篇文章的话,是可以将代码里面的apikey以及对应的api地址等信息放到配置文件里面 模型列表可以参考:https://huggingface.co/deepseek-ai/models https://modelscope.cn/models

    73410编辑于 2025-06-23
  • 来自专栏叶子的数据科技专栏

    使用自己的模型 api 在表格中生成

    免费当然很好,但是当你薅了几千次 qwen 之后,他会不断的给你显示"等待中"。那么,花钱行不行呢?问题来了,他是免费的...想花钱也没地方花... 本项目用来解决下面几个痛点: 在线表格无法选择 api 供应商 在线表格可能会触发大型批量使用限制 效果展示 GitHub - sandy9707/ai-cellfill-excel 使用方式 首先需要完成配置 ,在.config文件里面输入自己的模型 api 和密钥,然后把需要启用的 api 的 ENABLED 改成 true. 第一列是自动生成的,包含了获取到的系统提示词文件和调用到的 api 模型名称。 第二列是需要填写的用户提示词,写入后将依次调用 api 回答。 第三列是是否需要生成,主要用于对结果不满意需要重新生成的情况,通过填入合适的数字决定是否调用 api 进行生成或重复生成。 第四列是生成结果。

    45110编辑于 2025-05-23
  • 来自专栏LLM API

    Gemini 3 Pro 国内怎么购买 API Key 及模型 LLM API 试用指南

    摘要:Google再次刷新了多模态模型的上限。本文将为您权威解读Gemini3Pro的核心特性(超长上下文、原生多模态),并为国内开发者提供一份详尽的GoogleGeminiAPI购买与接入教程。 作为模型领域的“原生多模态”霸主,Gemini系列一直以其恐怖的上下文窗口(ContextWindow)和对视频、音频、图像的“全知全能”理解力著称。 3.聚合:不仅是GPT,更是您的Gemini专属通道模型API聚合平台早在Gemini1.0时代就已完成了与GoogleVertexAI的深度对接。 https://api.n1n.ai/v1",#关键:n1n聚合接口api_key="sk-NxN..." 金融研报分析:一次性扔进去50份PDF年报,让模型进行横向对比分析。5.常见问题(FAQ)Q:我现在能通过聚合用上Gemini3Pro吗?

    4K20编辑于 2026-01-24
  • 通过API运行Snowflake Arctic语言模型的技术指南

    通过API运行Snowflake ArcticSnowflake Arctic是某机构发布的一款新型开源大型语言模型。 某中心上的大多数模型都提供类似这样的交互式API Playground,可以在模型页面找到,例如:https://replicate.com/snowflake/snowflake-arctic-instruct API Playground是了解模型功能的绝佳方式,并提供多种语言的可复制代码片段,帮助您快速上手。 导入客户端import replicate使用某中心的API运行**snowflake/snowflake-arctic-instruct**。查看模型的架构以了解输入和输出概览。 使用某中心的API运行**snowflake/snowflake-arctic-instruct**。查看模型的架构以了解输入和输出概览。

    12410编辑于 2026-01-07
  • 生产环境中的模型 API 接入实践:多模型并行的工程思考

    引言:当模型进入核心链路随着模型在各类业务中的使用逐渐深入,越来越多的系统开始将模型能力引入到核心业务链路中,例如内容生成、智能问答、辅助决策等场景。 本文围绕多模型并行使用的实际情况,讨论在生产环境中,模型 API 接入层在系统稳定性和可维护性中的作用。 四、工程视角下的接入层设计思路针对上述问题,一个常见的工程思路是引入统一的模型 API 接入层,将模型调用从业务逻辑中抽离。 在这一背景下: 模型能力决定功能上限 接入层设计决定系统下限 只有通过合理的工程抽象,才能让模型能力稳定、长期地运行在生产环境中。结语模型的更新速度仍在加快,但工程问题不会自动消失。 当模型能力逐渐趋同,系统的稳定性和可维护性,往往成为决定 AI 应用能否持续演进的关键因素。从这个角度看,模型 API 接入层已经不再是实现细节,而是 AI 系统的重要基础设施之一。

    17810编辑于 2026-01-22
  • 来自专栏软件设计

    模型文生图服务API设计原来如此简单(1)

    文生图API:简单才是王道文生图模型API设计其实很简单!无论是Midjourney这样的商业产品,还是ComfyUI这样的开源工具,它们的核心API设计都遵循着相似的简单原则。 完成处理 --> |WebSocket通知完成| 用户界面 用户界面 --> |查询结果| 图像存储错误处理:计划总赶不上变化就像做饭可能会遇到火太小、锅太满等问题,文生图系统也会遇到各种意外:模型加载失败 可扩展性:为未来留空间优秀的文生图API设计就像乐高积木,可以不断添加新功能:flowchart TD 核心API[核心API系统] --> 插件1[ControlNet插件] 核心API --> 插件2[LoRA微调插件] 核心API --> 插件3[提示词增强插件] 核心API --> 更多[更多扩展...]ComfyUI的节点化设计让添加新功能变得像搭积木一样简单,而不需要改动核心代码 不需要复杂的架构,只需要合理的API设计,就能构建出强大的文生图系统。

    44410编辑于 2025-03-06
  • 语言模型的技术突破与稳定 API 生态的构建

    OpenAI 推出的语言模型 API,凭借其强大的自然语言理解与生成能力,为聊天机器人开发提供了核心技术支撑;而 New API 平台则通过优化的网络架构与稳定的服务部署,解决了国内开发者调用海外 API 核心技术原理剖析智能聊天机器人的底层核心依赖自然语言处理(NLP)技术栈,其中预训练语言模型是实现智能交互的关键。 以 GPT-3 为代表的预训练模型,通过大规模文本数据训练,具备了上下文理解、逻辑推理与自然语言生成能力,能够模拟人类对话的流畅性与逻辑性。 api_key='your-api-key' # 替换为个人API密钥)def chat_with_gpt(prompt: str) -> str: """ 调用OpenAI API生成对话回复 (如天气查询、快递查询),拓展机器人实用功能;性能优化:针对高并发场景,引入缓存机制减少重复 API 调用;根据业务需求选择合适的模型(如轻量模型用于快速响应,复杂模型用于高精度对话)。

    24010编辑于 2025-10-23
  • 腾讯云上新模型API服务,助力OpenClaw高效运行

    围绕 OpenClaw 调用需求,腾讯云面向开发者提供“高性能模型 API”服务,助力开发者低门槛构建专属 AI Agent。 OpenClaw运行,需要模型提供精准解析指令、规划逻辑支持,腾讯云为OpenClaw提供了便捷高效的模型 API 服务接入,开发者在配置端,即可灵活选择DeepSeek、腾讯混元等高性能模型,通过腾讯云的高并发 、低延迟 API 通道,让OpenClaw 获得“思考能力”,从而解锁长文本分析、代码生成及复杂逻辑推理等核心潜能。 同时,还实现了与企业微信、QQ 等四主流即时通讯软件的无缝适配,让用户在日常聊天窗口中即可随时唤起 AI 助理,处理复杂任务。 模型服务专属折扣:https://cloud.tencent.com/act/pro/moltbotandai混元API接入教程:https://cloud.tencent.com/developer/

    2.3K10编辑于 2026-02-05
  • 从零到一:使用pycharm搭建API接口调用模型

    从零到一:使用pycharm搭建API接口调用模型【前言】随着人工智能技术的快速发展,语言模型(LLM)已成为许多应用场景的核心技术。 本文将详细介绍如何使用PyCharm开发环境搭建API接口调用模型的完整流程,包括两种主流调用方式、模型列表查看方法,以及一个完整的求职岗位查询实战案例。 【任务】1.掌握使用OpenAI库和requests库调用模型API的方法。2.学会查看和展示可用的模型列表。3.实现基于模型的求职岗位查询系统。4.掌握API调用的错误处理和结果展示技巧。 .查看硅基流动的模型列表2.1 简单列表形式查看返回模型列表的结果:代码实现:from openai import OpenAIclient = OpenAI( api_key="你的api密钥 我们在实际开发中,调用模型API时,错误处理和结果展示是非常关键的两个环节。

    1.2K21编辑于 2025-12-23
  • 来自专栏Michael阿明学习之路

    AI模型全栈工程师课程笔记 -Assistant API

    选择模型:gpt-3.5-turbo-1106 添加函数: { "name": "ask_database", "description": "Use this function to answer /utils/.env')) # 初始化 OpenAI 服务 client = OpenAI() # openai >= 1.3.0 起,OPENAI_API_KEY 和 OPENAI_BASE_URL "param": null, "code": null } } 参看:https://cookbook.openai.com/examples/assistants_api_overview_python

    75510编辑于 2023-12-10
  • 来自专栏AIoT技术交流、分享

    开发者如何使用讯飞星火认知模型API

    之前我们使用网页文本输入的方式体验了讯飞星火认知模型的功能(是什么让科大讯飞1个月股价翻倍?),本篇博文将从开发者角度来看看如何使用讯飞星火认知模型API。 ch=spark_bl_26 1、申请星火API接口 到官网点击申请星火API测试。 星火大模型需要和具体的应用绑定,我们需要先创建一个新应用。  填写应用名称、分类和功能描述。  审核通过后就可以看到模型的服务接口认证信息。 目前科大讯飞API支持:Android SDK、Linux SDK、Windows SDK、iOS SDK和Web SDK。 本篇博文就以Windows SDK为主,介绍模型API的使用方式。 2、使用星火API接口 下载Windows SDK。 解压后里面有三个文件夹。 aikit_biz_obsolete_builder.h │ │ ├── aikit_biz_type.h │ │ ├── aikit_common.h │ │ ├── aikit_spark_api.h

    3.2K51编辑于 2023-08-15
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。 因此,对于通用模型或者垂直模型,更倾向于哪一方不取决于个人想法,而是取决于用户需要。

    74101编辑于 2024-12-30
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • 同步模型厂商API深度对比:OpenAI ChatGPT、Google Gemini与Anthropic Claude

    引言:同步模型的市场背景与调研目的 近年来,全球人工智能领域正经历以同步模型(Synchronous Large Language Models)为核心的技术范式变革。 调研数据显示,头部科技公司正将这些API用于三典型场景:一是训练数据构造,利用GPT-4等模型的强泛化能力生成高质量标注数据;二是模型蒸馏,通过API输出结果指导轻量化模型的训练;三是内部研发工具搭建 三API成本对比 技术架构差异:从模型设计到系统集成 技术实现路径上,三家厂商的选择体现了不同的工程哲学。 在预研领域,三模型的竞争催生了新型研究范式。某高校AI实验室构建的"模型竞技场"系统,能自动将研究问题分发给不同API,然后聚合最优解。 结语:如何选择适合的同步模型API 在选择适合的同步模型API时,企业和开发者需要从技术能力、成本效益、生态支持以及合规适配性四个维度进行综合评估。

    2K20编辑于 2025-08-27
  • 来自专栏AI.NET极客圈

    告别API碎片化:One-API如何用开源方案打通国内外模型

    One-API 概述 随着大型语言模型(LLM)的快速发展,开发者面临如何高效管理和调用不同模型提供商 API 的挑战。 无论是国外模型还是国内模型,One-API 都能将其整合到一个平台,简化开发流程,提高代码复用性。 核心优势 统一接口:开发者只需学习一套 API 格式,即可调用所有支持的模型。 多模型支持 One-API 支持的模型涵盖国际和国内主流 LLM,提供商包括: 国际模型:OpenAI、Azure、Anthropic Claude、Google Gemini、DeepSeek。 统一 API 接口 One-API 通过模仿 OpenAI 的 API 格式(如 /v1/chat/completions),为所有模型提供一致的请求和响应结构。 密钥安全:需妥善管理提供商的 API 密钥。 模型兼容性:某些模型的特定功能(如函数调用)可能不完全支持。 依赖性:系统宕机可能影响所有模型访问。

    3.2K11编辑于 2025-06-23
  • 来自专栏大模型应用

    模型应用:混元模型数据缓存复用方案:从API请求数据累积到智能融合.50

    ​一、引言 随着模型在各行业的规模化应用,API 调用成本高、响应延迟、重复请求浪费等问题逐渐成为落地的核心痛点。 传统的缓存方案多依赖关键词匹配或简单文本相似度计算,精度低、适配性差;而基于模型 API 生成 Embedding 的方案虽精度提升,但额外增加了向量调用成本。 为此,结合实际,我们实践一种本地化向量和智能缓存复用的解决方案:基于 SentenceTransformer 本地向量模型替代 API 生成文本向量,结合腾讯混元模型实现智能答案融合,同时设计缓存淘汰机制保证缓存质量 模型应用的痛点成本高:重复请求模型导致 API 调用费用翻倍,企业级应用月均成本可达数万元;响应慢:每次 API 调用需网络传输,响应时间通常在 1-3 秒,本地缓存可降至毫秒级;匹配精度低:传统关键词 体现优势:降本:减少 60%+ 重复模型请求,降低 API 调用成本提速:本地匹配响应速度比调用模型快 10 倍以上可控:本地数据可标注、可审计,结果更符合业务需求兼容:支持主流模型(OpenAI

    15632编辑于 2026-03-19
  • 来自专栏素质云笔记

    总结|哪些平台有模型知识库的Web API服务

    截止2023/12/6 笔者个人的调研,有三家有模型知识库的web api服务: 平台 类型 文档数量 文档上传并解析的结构 api情况 返回页码 文心一言 插件版 多文档 有问答api,文档上传是通过网页进行上传 有,而且是具体的chunk id,需要设置verbose参数 通义千问 插件版 单文档 【pdf解析】插件单文档问答api,文档只能用url模式,问答的方式可以总结、可以随意问答 无 星火大模型 知识库 console.bce.baidu.com/qianfan/knowledge 先创建知识库,然后上传文档,还可以二次修改 可以自定义PDF分段方式: 对于不合理的片段可以进行删除: 1.2 插件-pdf解析 api response.message )) if __name__ == '__main__': call_with_messages() 在通义千问中,有按钮专门选择【文档解析】插件: 3 星火大模型 文档地址 涵盖了三个web api: 文档上传 文档总结 文档问答 具体可参考博客:讯飞星火知识库文档问答Web API的使用(二) 在星火大模型的sparkdesk版面: 4 智谱 地址: https

    1.3K10编辑于 2023-12-07
领券