首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏个人博客

    zhipuAI接口兼容openai - plus studio

    最近debug发现质谱AI的接口是兼容openai这个库的 首先访问 官网 ,获取一个key 然后使用下面的代码生成jwt token, apikey天获取的key, exp_seconds是过期时间 algorithm="HS256", headers={"alg": "HS256", "sign_type": "SIGN"}, ) 生成之后就可以按照下面的形式创建一个openai 客户端 from openai import OpenAI client = OpenAI(base_url="https://open.bigmodel.cn/api/paas/v4", api_key

    62010编辑于 2024-04-11
  • 来自专栏AI SPPECH

    OpenAI API 兼容实现:vLLM如何实现与OpenAI API的无缝对接

    背景动机与当前热点 1.1 为什么需要OpenAI API兼容 随着OpenAI API在大模型生态中的广泛应用,它已成为行业事实上的标准。 API接口访问 扩展功能:在兼容OpenAI API的基础上,提供额外的扩展功能 1.3 vLLM的定位与优势 vLLM在实现OpenAI API兼容时,充分发挥了其高性能推理引擎的优势,同时保持了良好的兼容性 通过精心设计的API映射机制和请求处理流程,vLLM能够在低延迟、高吞吐的前提下,提供与OpenAI API高度兼容的服务。 2. 核心更新亮点与新要素 vLLM的OpenAI API兼容实现引入了多项创新设计,使其在兼容性、性能和扩展性方面表现出色: 2.1 完整的API映射机制 vLLM实现了与OpenAI API的全面映射,包括 API服务 python -m vllm.entrypoints.openai.api_server \ --model meta-llama/Llama-2-7b-chat-hf \

    66620编辑于 2026-02-02
  • 来自专栏开源服务指南

    白嫖 coze 接口:OpenAI 格式兼容 | 开源日报 No.262

    该项目的主要功能、关键特性、核心优势包括: 完美适配 NextChat, one-api, LobeChat 等 对话支持流式返回 支持创建 discord 频道/子频道/线程 支持和 openai 对齐的对话接口 免费且开源 支持 Windows、Linux、macOS 和 FreeBSD 提供基本信息和游戏信息的 Wiki 页面 论坛和 Discord 服务器上有关于模拟器、PS3 模拟以及游戏兼容性报告的讨论 主要功能和优势包括: 在浏览器内部运行,使得用户可以在浏览器中直接运行语言模型聊天 无需服务器支持,并且通过 WebGPU 进行加速 完全兼容 OpenAI API 可作为基础 npm 包使用,并根据文档进行自定义开发

    1.3K10编辑于 2024-05-29
  • 来自专栏CreateAMind

    OpenAI Baselines: ACKTR & A2C

    原文地址:https://blog.openai.com/baselines-acktr-a2c/ code链接:https://github.com/openai/baselines 论文链接:https ://arxiv.org/abs/1708.05144 我们发布了两个新的OpenAI Baselines实现: ACKTR和A2C。 与TRPO和A2C相比,ACKTR是一个比样本高效的强化学习算法,每次更新只需要比A2C稍微更多的计算。 ? OpenAI与他们合作发布了Baselines implementation。 Baseline and Benchmarks OpenAI Baselines 发布包含了 ACKTR 和 A2C 的代码实现。 我们还评估了 ACKTR 在一系列任务的表现。

    1.2K50发布于 2018-07-24
  • 来自专栏code人生

    向后兼容,Go1.21,Go2

    Go 1的兼容性 我们已经专注于兼容性超过十年。 HTTP/2。一个明显的协议变化的例子是当Go 1.6添加了对HTTP/2的自动支持。假设一个Go 1.5客户端正在连接到一个支持HTTP/2的服务器,通过一个恰好破坏HTTP/2的中间网络。 2.为了兼容性添加的GODEBUG设置将被维护至少两年(四个Go版本)。一些,如http2client和http2server,将被维护得更长,甚至无限期。 关于Go 2的更新 在这篇文章顶部引用的Go 1和Go程序的未来[7]的文本中,省略号隐藏了以下限定词: 在某个不确定的点,可能会出现Go 2规范,但在那之前,[…所有的兼容性细节…]。 Go 2,以我们在2017年开始的Go 1的主要修订的意义来说,已经发生了。 不会有一个破坏Go 1程序的Go 2。相反,我们将加倍重视兼容性,这比任何可能的与过去的决裂更有价值。

    80330编辑于 2023-10-16
  • 来自专栏测试开发技术

    兼容OpenAI接口!

    OpenAI API兼容:使用与OpenAI兼容的接口,方便开发者迁移和集成。 除了针对DeepSeek提供了API服务外,还提供了以下十多个free-api 2、在线体验 如果你迫不及待想体验DeepSeek-Free-API的效果,可以直接访问以下链接进行在线测试: https 4、API使用说明 DeepSeek-Free-API提供了与OpenAI兼容的/v1/chat/completions接口。开发者可以使用与OpenAI或其他兼容的客户端来调用这个接口。 userToken value] 目前同个账号同时只能有一路输出,你可以通过提供多个账号的userToken value并使用,拼接提供:Authorization: Bearer TOKEN1,TOKEN2, 如果您想获得原生的多轮对话体验,可以传入上一轮消息获得的id,来接续上下文 // "conversation_id": "50207e56-747e-4800-9068-c6fd618374ee@2"

    15.1K10编辑于 2025-02-19
  • 来自专栏openclaw系列

    vLLM本地大模型部署实战:OpenClaw 与 OpenAI 兼容 API 的深度集成

    在这一背景下,vLLM作为高性能的开源大模型推理引擎,凭借其卓越的吞吐量、内存效率和OpenAI兼容性,成为了本地AI部署的事实标准。 兼容API设计vLLM的另一个关键特性是其OpenAI兼容的HTTPAPI,这使得现有的OpenAI客户端和工具链可以无缝迁移到本地部署环境。 兼容服务器python-mvllm.entrypoints.openai.api_server\--modelmeta-llama/Llama-3.1-70B-Instruct\--tensor-parallel-size4 "},"vllm-gpu2":{baseUrl:"http://gpu-server-2:8000/v1",apiKey:"${VLLM_API_KEY_GPU2}",api:"openai-completions 通过vLLM提供的高性能OpenAI兼容API和OpenClaw的智能配置管理,开发者能够轻松构建自主可控的AI基础设施。

    1.1K21编辑于 2026-03-21
  • Anthropic Claude 4 深度解析:从模型特性到 OpenAI 兼容网关接入开发实践

    Anthropic Claude 4 深度解析:从模型特性到 OpenAI 兼容网关接入开发实践如果你打开这篇文章,是想把 Claude 4 系列能力真正"接进业务、跑进生产"(尤其是 Claude 4.5 本文按"模型定位 → 接入方式 → 架构落地 → 趋势影响"四段展开,尽量用 OpenAI 兼容网关 的通用方法讲清楚:你可以把它理解为"统一入口 + 路由 + 治理",而不是某个特定产品的使用说明。 二、OpenAI 兼容网关接入指南:多模型聚合的工程化接入方式这类网关/中转服务的定位更像"模型网关层":上游模型再多,你的业务侧也尽量只面对一套接口形态。 兼容的"最小改动")下面示例展示了最常见的迁移方式:保留 OpenAI SDK 调用形态,只把 base_url 指到你的网关地址(示例地址与模型名以平台文档/控制台展示为准)。 最后回到标题《Anthropic Claude 4 深度解析:从模型特性到 OpenAI 兼容网关接入开发实践》:真正想强调的是——选模型只是起点;把模型通过工程化网关变成可控、可切换、可运营的生产能力

    41710编辑于 2026-01-12
  • 来自专栏快乐阿超

    like concat 兼容h2、mysql、pgsql语法

    时候发现从'%${variable.variableCode}%'改为concat ('%', #{variable.variableCode}, '%') 解决的sql注入问题与postgresql不兼容 github.com/apache/incubator-streampark/pull/3457 concat('%', CAST(#{variable.variableCode} AS CHAR), '%') 这样就兼容了 h2、mysql和pgsql 这里测试时候首先本地运行h2跑一下,然后用docker启动一个mysql跑一下: docker run --name streampark-mysql -e MYSQL_ROOT_PASSWORD MYSQL_DATABASE=streampark -p 3306:3306 -d mysql 运行sql脚本ddl 修改相关配置文件: spring: profiles: active: mysql #[h2, streampark -d -p 5432:5432 postgres 运行sql脚本ddl 配置文件修改为pgsql spring: profiles: active: pgsql #[h2,

    45210编辑于 2024-01-07
  • 来自专栏python3

    编写兼容 Python 2.x 和 3.

    编写兼容Python2.x与3.x代码 当我们正处于Python 2.x到Python 3.x的过渡期时,你可能想过是否可以在不修改任何代码的前提下能同时运行在Python 2和3中。 哪些Python 2 代码在 3.x 解释器执行时容易出状况呢? 为什么我们不用sys.stdout.write()呢,因为我们需要添加一个NEWLINE字符在字符串的结尾来兼容这种行为(python2.x中write方法不会换行): # Python 2.x & 3 urllib2和urllib2中(我们使用后者),在Python3中,他被集成到了urllib.request中,而你的方案是要既能在2.x和3.x中正常工作: try: from urllib2 import six一个兼容库,它的主要任务是提供接口隐藏复杂的细节,你可以在这里找到它。

    1.2K30发布于 2020-01-03
  • 来自专栏jeremy的技术点滴

    写py2、py3兼容的代码

    写py2、py3兼容的代码 用到一段时间python,之前也重点复习了一次python3。但工作中运行环境是python2.7,于是要求写出py2、py3都兼容的代码。 from __future__ import division >>> 1/2 0.5 >>> 1//2 0 >>> trunc(1/2) 0 >>> -1//2 -1 >>> trunc(-1/2) 数据类型 Py3.X去除了long类型,现在只有一种整型——int,但它的行为就像2.X版本的long 新增了bytes类型,对应于2.X版本的八位串 这里如果要进行类型判断,优先使用six模块提供的兼容功能 这里还是使用six模块提供的兼容功能。 标准库及函数名称变更 py3重新组织了一些标准库及一些函数,为了保证在py2、py3下代码都工作正常,这里使用six模块提供的兼容功能。

    2.7K80发布于 2018-05-10
  • 来自专栏iSharkFly

    Jersey 2.x 分支 Java SE 兼容

    直到 Jersey 2.6 版本,Jersey 将会兼容 Java SE 6。这个情况将会在在 Jersey 2.7 的版本有所改变。 直到 Jersey 版本 2.25x, 所有的 Jersey 的组件将会兼容 Java SE 7 为目标。这个意思是你将会需要最少使用 Java SE 7 来支持和运行使用最新的。 只有 core-common 和 core-client 模块仍然兼容 Java SE 6 的版本并且可以在这个版本上运行。

    58720发布于 2019-01-30
  • 来自专栏单细胞天地

    Seurat2与Seurat3兼容与切换

    真正困惑我们的是2x 与3x 之间差别: 函数名称变了 seurat对象数据结构变了 整合分析的算法变了 我们知道他是在往好的方向来变,可是Seurat2依然有他的一些优点,简单对比一下: 已经有文献引用 Seurat 3的 findmarker 这个功能可以一次计算10万以上的细胞,而Seurat 2就不行 那么,折衷的方案就是同时安装 Seurat 2和 Seurat 3的包,通过数据格式整理把2x和 安装后: > packageVersion("Seurat") [1] ‘3.1.0’ 安装2x 可以参照官网给的示例来安装,因为3x与2x的名称一样都叫Seurat就不能装在同一个library路径下 这直接导致了2x生成的对象不能直接用3来分析,反之亦然。 2x to 3x 如果我已经有了一个2x的对象,如何用它来创建一个3x的分析对象呢?就是把矩阵从2x 用 3x的CreateSeuratObject传到3x里面。

    2.2K10发布于 2020-03-30
  • 来自专栏科技记者

    有向后不兼容接口更改,QIIME 2 2024.2 来啦

    有关 2024.2 中计划中的向后不兼容接口更改的完整详细信息,以及最新的环境文件可以在此处找到![1] QIIME 2 2024.2 版本现已发布!感谢所有参与者的辛勤工作! 提醒一下,我们计划的下一个 QIIME 2 版本计划于 2023 年 5 月发布(QIIME 2 2023.5),但请继续关注更新。 查看QIIME 2 2024.2 文档[2]有关安装最新 QIIME 2 版本的详细信息,以及教程和其他资源。如果您遇到任何问题,请在 QIIME 2 论坛上联系! Shotgun 分发中删除了 q2-types-genomics,作为统一 q2-types 和 q2-types-genomics 的更大更新的一部分(有关此更改的更多详细信息,请参阅 q2-types 这提高了不同发行版之间的兼容性。

    88610编辑于 2024-02-23
  • 【APi接入分享】Gemini 3.1 Pro API调用指南:兼容OpenAI和gemini格式的实现方案

    grsai.dakka.com.cnHost+接口:https://grsai.dakka.com.cn/v1/draw/nano-bananaChat API调用说明Grsai的Chat API完全兼容 OpenAI和Gemini格式,OpenAI只需替换基础地址,Gemini则需要替换基础地址和模型名称即可调用。 方式一:通过Grsai调用(OpenAI兼容格式)原OpenAI接口:https://api.openai.com/v1/chat/completions更换后的接口地址:https://grsai.dakka.com.cn lang=curlimport openai # 配置Grsai地址和密钥client = openai.OpenAI(    api_key="你的APIKey",    base_url="https 2.添加模型服务:在设置菜单中,找到并点击“模型服务”点击添加,输入供应商名称(自定义随意写),模型提供商OpenAI 和 Gemini 都支持。

    6K20编辑于 2026-03-04
  • 来自专栏极客起源

    DeepSeek 本地化新篇章:Ollama 兼容 OpenAI API 的深度解析与部署实践

    Ollama 作为一个轻量级开源框架,通过兼容 OpenAI API 的接口设计,为本地运行 DeepSeek 等大模型提供了便捷途径。 此外,文章还分析了这种兼容性的优势与局限,适合希望在无 GPU 环境下运行 DeepSeek 或迁移 OpenAI 项目的开发者。 本文将深入探讨 Ollama 的 OpenAI API 兼容性,结合 DeepSeek 的本地部署,提供丰富的代码示例和实践指南。 2. Ollama 与 OpenAI API 的兼容性概述 Ollama 默认运行在 http://localhost:11434,并提供了一套与 OpenAI API 高度兼容的 RESTful 接口。 API 调用详解与代码实践 3.1 使用 OpenAI SDK 调用 DeepSeek 由于 Ollama 兼容 OpenAI API,可以直接使用 openai Python 库调用本地 DeepSeek

    6.3K10编辑于 2025-04-15
  • 来自专栏磐创AI技术团队的专栏

    兼容性Up!Object Detection API 现已支持 TensorFlow 2

    正如我们在今年早些时候举办的 TensorFlow 开发者峰会上所述,我们正在打造更具兼容性的 TF 生态系统,这样您就能够将喜爱的库和模型与 TF 2.x 一起搭配使用。 tensorflow/models/tree/master/research/object_detection 过去一年间,我们对 TF Object Detection API 模型进行了迁移,以便能兼容 一套与 TF2 兼容(基于 Keras)的模型;其中包括迁移后最热门的 TF1 模型(例如 SSD-MoblieNet、RetinaNet、Faster R-CNN 和 Mask R-CNN),以及一些只支持在 而现在我们支持将同步训练作为主要策略;我们的 TF2 模型可使用同步多 GPU 和 TPU 平台进行训练。 与 Eager 模式兼容的小样本训练和推理的 Colab 演示。 的兼容性并简化其使用流程,本次发布只是我们研究过程中取得的进展之一。

    1.3K10发布于 2020-09-04
  • 来自专栏AI科技评论

    资源 | OpenAI 文本生成器 - gpt-2

    Github项目地址: https://github.com/openai/gpt-2 视频:《OpenAI Text Generator - YouTube》by Siraj Raval 地址: https 安装 用Git克隆此项目仓库,然后用 cd 进入目录以获取其余命令 git clone https://github.com/openai/gpt-2.git && cd gpt-2 本机安装 下载模型数据 docker build --tag gpt-2 -f Dockerfile.gpu . # or Dockerfile.cpu 从gpt-2 docker镜像启动交互式bash会话。 docker run --runtime=nvidia -it gpt-2 bash 用法 警告:样品未经过滤,可能含有令人反感的内容。 下面的一些示例可能包括Unicode文本字符。 虽然我们还没有正式发布GPT-2,但你可以在 gpt-2-samples 文件夹中看到它的一些样本。 我们使用默认设置(温度1和无截断)显示无条件样本,温度为0.7,并使用top_k 40进行截断。

    2K30发布于 2019-10-31
  • 来自专栏WTSolutions

    OpenAI Agents SDK 中文文档 中文教程 (2

    英文文档原文详见 https://openai.github.io/openai-agents-python/ 本文是OpenAI-agents-sdk-python使用翻译软件翻译后的中文文档/教程。 分多个帖子发布,帖子的目录如下: (1) OpenAI 代理 SDK, 介绍及快速入门 (2) OpenAI agents sdk, agents,运行agents,结果,流,工具,交接 代理 代理是应用程序中的核心构建块 model model_provider:用于查找模型名称的模型提供程序,默认为 OpenAI。 model_settings:覆盖特定于代理的设置。 FileSearchTool 允许从您的 OpenAI 矢量存储中检索信息。 ComputerTool 允许自动执行计算机使用任务。 FunctionTool): print(tool.name) print(tool.description) print(json.dumps(tool.params_json_schema, indent=2)

    2.1K21编辑于 2025-03-13
  • 来自专栏不止于python

    python(内置函数, 模块)打补丁, 兼容py2、3

    1背景   py2官方已不在维护, 所以将项目升级到py3, 但是项目也不是一行两行的事, 并且项目还在使用, 所以必须要兼容py2, 升级到py3   所以就有了以下常见问题, 比如, py2的内置函数 py3已不使用, py2的内置模块py3已经改名......... 1自定义补丁文件  (下列补丁中的判断py版本是为了兼容2,3)  1. to_py3 import patch_modules 2使用兼容模块 six 主要用于兼容py2 py3, 功能强大, 使用简单 six文档: https://six.readthedocs.io/ Frameworks/Python.framework/Versions/2.7/lib/python2.7/copy_reg.pyc'> # <type 'itertools.imap'> six基本可以解决兼容

    73850编辑于 2022-05-31
领券