无需 Anthropic API Key 即可免费使用 Claude Code。 今天介绍的 free-claude-code 就是在这么一个开源项目。 API 格式转换:将 Anthropic Messages API 格式 ↔ OpenAI Chat Completions 格式互转 2. uv uv sync 配置 .env NVIDIA_NIM_API_KEY="nvapi-你的Key" # 所有 Claude 模型映射到 GLM-5.1 MODEL_OPUS="nvidia_nim + 代理 前后端日常编码 Discord python discord_bot.py 团队协作、手机端 正反评价 正面评价 方面 反馈 零成本体验 NVIDIA NIM 免费 API 直接用,日常开发够用 Star ~9.5K ~1.5K 核心能力 API 格式转换 + 多模型支持 移除遥测/护栏 + 解锁实验功能 法律风险 低(仅代理转发) 较高(使用泄露源码) 实验功能 无 ULTRAPLAN/ULTRATHINK
\cli-proxy-api.exe-antigravity-login1.Ubuntu/Linux,安装目录下. /cli-proxy-api-antigravity-login1.MacOS,直接执行cliproxyapi-antigravity-login1.四、在命令行中,启动CLIProxyAPI,并登录后台查看 ":{"ANTHROPIC_BASE_URL":"http://localhost:8317","ANTHROPIC_AUTH_TOKEN":"your-api-key-1","ANTHROPIC_DEFAULT_OPUS_MODEL ":"gemini-claude-opus-4-5-thinking","ANTHROPIC_DEFAULT_SONNET_MODEL":"gemini-claude-sonnet-4-5-thinking ","ANTHROPIC_DEFAULT_HAIKU_MODEL":"gemini-claude-sonnet-4-5","ANTHROPIC_MODEL":"gemini-claude-opus-4-
⚙️二、工作原理claude-max-api-proxy充当了一个协议转换器:监听端口:默认在http://localhost:3456启动服务。 代码解释claude-max-api#默认运行在http://localhost:34564.测试连通性展开代码语言:TXTAI代码解释#健康检查curlhttp://localhost:3456/health 1.创建配置文件展开代码语言:TXTAI代码解释cat>~/Library/LaunchAgents/com.claude-max-api.plist<<'EOF'<? --路径可能需要根据实际安装位置调整--><string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js 相关链接NPM包:claude-max-api-proxy源码仓库:GitHub-atalovesyou/claude-max-api-proxyOpenClaw原生Anthropic集成:/providers
昨天 Anthropic 发了 Claude Sonnet 4.6,免费用户默认模型直接升级到 Opus 级别。 我用了一晚上实测,说句实话:这可能是今年性价比最高的一次模型升级。 Opus 4.5 是去年 11 月 Anthropic 的旗舰模型,API 价格是 Sonnet 的 5 倍。现在一个便宜 5 倍的模型,用户体感居然更好。 核心改进几个方面: 编程能力暴涨。 免费用户直接用,Pro 用户默认切换。 API 端的搜索工具现在会自动写代码过滤搜索结果,只把有用的内容留在上下文里。这对 Agent 开发者很有用——之前搜索结果里一堆垃圾占 token。 File Creation。 免费用户更爽——直接用 Sonnet 4.6,不用付钱就能体验接近 Opus 级别的编程能力。 这对整个行业意味着什么? 更多人会开始用 AI 写代码。
2026年上半年,我把ChatGPT Plus、Claude Opus 4.6 / 3.5 Pro、Gemini Advanced、Midjourney和Cursor全部跑了一遍,原本预计每月费用要500 一、踩过的坑(血泪总结)直接官网订阅 + 共享密钥:2-3天内全部风控封号,项目中断。纯虚拟卡支付无中转:审核通过率低,且高频调用触发速率限制。 Hysteria2 或 Shadowsocks-rust 做透明代理每个工具单独端口或子目录,实现环境隔离工具订阅与接入在腾讯云代理环境下注册/登录各工具官网使用干净海外邮箱 + 多支付方式轮换绑定生成独享API Key(ChatGPT、Claude、Gemini)Midjourney走Discord API代理;Cursor使用本地IDE + 腾讯云代理后端调用优化防检测(核心代码片段)Pythonimport Opus 4.6多模态研究 → Gemini图像生成 → Midjourney全项目编辑 → Cursor + 腾讯云中转开发效率提升2倍以上,费用彻底可控。
第3步:API Key获取两条路,你选哪条?配置与启动首次启动前,你需要配置两个关键的环境变量:API 令牌和 API 地址。 ANTHROPIC_BASE_URL (API 地址)这是 Claude Code 用来与服务器通信的地址。这里文章示例我用的是 https://sg.uiuiapi.com这个不需要复杂网络环境。 代码生成与功能实现你可以用自然语言描述一个全新的功能:“创建一个 API 端点,用来获取和更新用户资料。” Q: 为什么我收到了 Invalid API Key 或 Please run /login 的错误提示?A: 这通常意味着 Claude Code 没有正确读取到你的环境变量。 这通常不影响 Claude Code 的核心功能,只要你能正常连接到 API 地址即可。Q: 为什么我让 Claude Code 浏览网页时,它总是失败?
今天这篇文章,我们就来一次完整的"费用横评",帮你搞清楚——到底用哪个最划算? 对比国际大模型API的按量计费:模型API按量价格(输入/百万Token)TokenPlan折算价格ClaudeOpus4.6≈100元≈1元(TokenPlanMax)GPT-4o≈20元≈1元混元2.0Instruct ≈4元≈1元最高可节省50%-80%的Token费用,这不是"优化",这是"换赛道"。 而且TokenPlan支持的国产模型(混元2.0、GLM-5、Kimi-K2.5、MiniMax-M2.5)在中文编程场景下的表现丝毫不逊色于Claude和GPT,甚至在理解中文需求、生成中文注释方面更胜一筹
费用对比方案月API费用(估算)说明OpenClaw+Claude$30-80ClaudeAPI价格高OpenClaw+GPT-4o$20-60GPTAPI中等Hermes+DeepSeek¥10-30 费用只来自于模型API调用,而你可以自由选择最便宜的方案。 输出¥2/百万token$15/百万token$15/百万token同样的使用量,DeepSeek的费用约为Claude的5%。 -3.5-sonnet#复杂推理,偶尔用服务器费用HermesAgent本身的服务器成本也很低。 包含服务器在内的总月费:方案服务器API总计Lighthouse+DeepSeek8.25元~15元23.25元/月Lighthouse+Ollama52.5元(4C8G10M)052.5元/月本地电脑
毕竟,顾名思义,免费使用GPT-4的API,就问谁!不!心!动! 这不,上线没多久,已揽下18.5k⭐️不说,还分分钟被正主OpenAI找上门,要求麻溜儿下架,否则就起诉。 具体来说,这位童鞋是搞了这么一套操作: GPT4FREE会来骗,来偷袭OpenAI API,让它以为请求来自尊贵的付费用户(比如You.com、美国知乎Quora)。 1099825897697189898/1101201318053412934 [3]https://techcrunch.com/2023/04/25/a-developer-exploited-an-api-flaw-to-provide-free-access-to-gpt
上个月为了项目需要,我同时开通了ChatGPT Plus、Claude 3.5 Pro、Gemini Advanced 和 Grok 四个付费版,原本预计每月费用要500+元。 一、踩过的坑(血泪总结)直接用共享账号/池子密钥:2-3天内全部被OpenAI风控封号,项目直接中断。纯虚拟卡支付:审核通过率低,且容易触发二次验证。 '} # 随机UA池def call_ai(api_url, payload): time.sleep(random.uniform(0.8, 1.5)) # 随机延迟防限流 resp = requests.post(api_url, json=payload, proxies=proxies, headers=headers) return resp.json()速率控制:每个 约520元/月本方案总成本:腾讯云服务器35元 + 四个独享密钥订阅约25元 = 60元/月节省比例:88%以上,稳定不封号目前我项目中:创意脑暴 → ChatGPT Plus代码/方案严谨分析 → Claude
提取论文内容 首先,我们让Claude code识别提取PDF文献的内容。 生成PPT大纲 基于上一步识别提取到的内容,让Claude code生成一个文献PPT大纲,这里您可以详细指明PPT的使用场景(例如用于学术汇报),方便Claude code深入理解需求。 提示词: 基于提取的论文内容,生成8页PPT文字大纲,包括: 1.标题页 2.研究背景(2-3个要点) 3.研究目的 4.方法概述(2-3个要点) 5.主要结果(3-4个要点) 6.讨论(2-3个要点) 如何使用Claude code ✅ 登录网址 登录网址:https://ai.dftianyi.com ✅ 购买会员 选择Claude code(AICoder)后,点击“购买会员”选择您所需要的套餐进行购买 ✅ 查看 API Key 购买成功后,请耐心等待,待状态变为 “运行中”,然后点击 “查看 API KEY” 按钮,即可获取API 密钥。
目录1.安装ClaudeCode2.登录claude账户3.配置国产大模型密钥记录下安装过程,简化下官网提供的教程,以下介绍下Windows下的安装使用官网文档:https://code.claude.com 当使用claude命令启动交互式会话时,需要登录:展开代码语言:BashAI代码解释claude#首次使用时系统会提示您登录选择会话风格,默认即可选择登录的形式。 ,选择Yes这是ClaudeCode启动后的欢迎界面和初始提示显示我当前使用的AI模型是Sonnet4.6,并且正在通过你的个人账户进行API计费因为我没有开通相关付费服务,所以是不能使用Sonnet4.6 `#新增或修改里面的env字段#注意替换里面的`your_api_key`为上一步获取到的APIKey{"env":{"ANTHROPIC_AUTH_TOKEN":"your_api_key","ANTHROPIC_BASE_URL ":"https://open.bigmodel.cn/api/anthropic","API_TIMEOUT_MS":"3000000","CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC
API 文档维护太痛苦? Bruno + Claude 让你彻底解放双手 为什么选择 Bruno? 第一步:创建 Bruno 文档生成代理 在项目根目录下创建 .claude/agents/bruno-api-documenter.md 文件,配置一个专门生成 Bruno 文档的 AI 代理。 代理配置示例 以下是精简版 Agent 配置模板,保存为 .claude/agents/bruno-api-documenter.md --- name: bruno-api-documenter description 配置 Claude Agent # 创建 .claude/agents/bruno-api-documenter.md # 4. 开始使用 # 在 Claude Code 中: @bruno-api-documenter.md 生成路由文档 让 AI 和自动化工具为你打工,把时间花在真正有价值的事情上!
3.技术特点大模型驱动:基于Anthropic的Claude系列大模型,具备强大的自然语言理解和代码生成能力,能处理复杂编程任务。 5.注意事项网络与账号:需配置有效的API密钥,部分用户可能需通过中转服务访问,需注意账号安全和隐私保护。代码质量:AI生成的代码可能存在错误或不完全符合需求,需开发者进行人工审查和测试。 API配置:需获取Anthropic官方或第三方服务商的APIKey比如DKAI-CODEX,配置到编辑器插件中,确保与AI模型正常通信。
一、背景:一个SDK解决什么问题在Claude的技术体系中,存在明确的分层:层级定位适用场景ClaudeAPI底层消息接口,一次请求一次响应分类、摘要、提取、固定流程Q&AClaudeAPI+ToolUse 协议接入服务端工具(Server-sideTools)声明后完全由Anthropic托管执行包括:WebSearch、WebFetch、CodeExecution、ComputerUse无需自己实现沙箱环境三、核心API Session恢复原生支持需自行实现不支持代码执行Anthropic托管沙箱自行实现不支持八、工程落地建议推荐场景:需要模型自主读写文件/执行命令的编码助手复杂多步任务,需要子Agent分解需要与数据库、API 权限系统、hooks、MCP协议构成了三层安全网,而query()的极简API降低了入门门槛。如果你正在构建需要模型"动手做事"的应用,AgentSDK值得优先考虑。
如果你近期关注过 AI 编程,一定被 Claude Code 刷过屏。。。 虽然它很好用,但主打命令行操作,且配置麻烦,对接三方API模型不大利索,对小白用户实在不友好。 我呢也是前段时间刚把 Claude Code 的玩法摸顺,结果一抬头有一款 Claude Code 开源平替工具直接起飞了。 这种并行协作的爽感,是单线程的 Claude Code 无法比拟的。 除了内置有 2 个子代理,还直接支持 LSP。 https://github.com/code-yeongyu/oh-my-opencode 这个插件它解锁了 OpenCode 的许多限制,提供了更丰富的能力支持,像 Claude Skills 也能扩展进来
需求: 我需要对腾讯云对象存储cos某一桶下目录前缀为xxx/的文件进行递归遍历,然后给文件添加cdn域名并对资源进行预热. claude 与腾讯云cos api的联动 首先先体验一下腾讯云自有的api Explorer 稍微体验了一下:https://console.cloud.tencent.com/api/explorer? 将文件导入到了服务器: 图片 前几天 顺便体验了一下claude,chatgpt这些的。 看小伙伴用poe:https://poe.com/ 也简单的玩了一下,以claude-2-100k为例,体验一下chat问答式的流程完成下面的流程: chat式问答 问: 写一个脚本获取文件中所有<Key 但是gtp4次数用光了无法提问了.....也试了一下API Explorer。貌似会带这个文件夹根的忽略了!!
很多人以为ClaudeCode接第三方API很复杂,其实真正要做的事只有一件:先看你的客户端支持哪种供应商入口。 常见就两种接法:Claude兼容环境变量OpenAICompatible供应商如果你用的是第三方聚合API,最稳的思路就是先准备好baseURL、令牌和模型ID,再按客户端支持的方式填进去。 一、先准备三样东西开始之前,先确认你手上有这三项:控制台创建的令牌API地址模型名称默认情况下,OpenAICompatible的地址是:https://apitoken.fun/v1如果客户端支持Anthropic 如果是更复杂的工程修改、长上下文、多文件Agent任务,再考虑:claude-opus-4-6claude-opus-4-7ClaudeMAX这一档更适合ClaudeCode重任务,不建议轻量问答一上来就用 这时候可以先:换轻一点的模型降低上下文长度稍后重试七、我的建议如果你是第一次接ClaudeCode,我建议这么选:先用claude-sonnet-4-6跑通确认日志和扣费正常再按任务复杂度切到claude-opus
行业痛点 随着 ChatGPT、Claude、DeepSeek 等大模型的普及,越来越多的企业开始提供 AI 服务。 (Claude 3.5 Sonnet, Claude 3 Opus) - Google (Gemini 2.5 Pro, Gemini 2.0 Flash) - DeepSeek (DeepSeek-V3 Kill Bill 计费引擎 Kill Bill 是业界领先的开源计费平台,被众多企业采用: 计费模式支持 计费模式 说明 适用场景 订阅制 包月/包年固定费用 基础版/专业版/企业版套餐 按量计费 按 Token 使用量计费 按量付费用户 混合计费 基础费 + 超额按量 套餐内免费额度 + 超额计费 套餐配置示例 <! 解决方案: 按对话次数阶梯定价 月结账单自动推送 支持发票开具 项目优势 与自建计费系统对比 维度 自建系统 AI Token Platform 开发周期 3-6 个月 1 天 开发成本 2-3 名工程师
4.配置API在Ubuntu终端中创建Claude配置目录:展开代码语言:BashAI代码解释mkdir-p~/.claudenano~/.claude/settings.json写入以下内容:展开代码语言 2.安装ClaudeCode展开代码语言:BashAI代码解释npminstall-g@anthropic-ai/claude-codeclaude--version3.配置API创建配置目录:展开代码语言 --version3.配置API展开代码语言:BashAI代码解释mkdir-p~/.claudenano~/.claude/settings.json写入:展开代码语言:JSONAI代码解释{"env 通过QuickRouterAPI配置后,国内开发者可以用更统一的方式接入Claude系列模型。 配置完成后,在项目目录中执行claude,即可开始使用。