首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AgenticAI

    MacOS已推送支持GPT-4o-mini的ChatGPT桌面版更新

    重点是,MacOS桌面版ChatGPT也在北京时间7月19号下午推送更新了,我已经更新了,免费使用GPT-4o-mini,之前聊着聊着就不能用的尴尬情况不再来了。我在文章《重磅! 但是GPT-4o-mini是支持图像的,所以我预计很快就会更新。 下面我们看一下本次GPT-4o-mini亮点。

    29900编辑于 2025-03-18
  • 来自专栏翩翩白衣少年

    GPT-4o-mini驱动的开源OCR!

    Zerox OCR 会先将 PDF 文件转换成图像,再由 GPT-4o-mini模型识别并输出 Markdown,最后将所有页面对应的 Markdown 结果,汇总在一起形成完整的 Markdown 文档 核心优势 1、零样本 OCR 使用 GPT-4o-mini 模型进行文本识别,能够处理完全陌生的 PDF、图片等文档类型,不需要事先训练数据,即可提供高精度的 OCR 结果。 • GPT-4o-mini 转换:每个生成的图像将被发送至 GPT-4o-mini 模型进行文本识别。 result = asyncio.run(main()) # print markdown result print(result) 结果: 结语 Zerox OCR 是一款功能强大的本地开源工具,基于 GPT

    2.6K10编辑于 2024-10-21
  • 来自专栏AI进修生

    GPT-4o-mini + Qwen2 + ContinueDev:一分钟创建Github Copilot教程(本地、免费)

    Aitrainee | 公众号:AI进修生 最近,GPT-4o-mini发布了。他们说它在学术基准测试上超越了GPT-3.5 Turbo和其他小模型,无论是文本智能还是多模态推理。 没错,我也在今天把公众号AI社群的幼笙换成了GPT-4o-Mini(过往我使用的是Gpt4-o-ca)。 话不多说,接下来,我会告诉你如何用GPT-4O-Mini创建一个VS Code co-pilot。 现在在这里,将模型名称更改为GPT-4O-Mini, 完成后保存。现在你的聊天界面应该开始使用gp4o-Mini模型工作。 我推荐这种方式,因为自动完成可以在本地进行,无需互联网连接且无需任何费用,而聊天和代码生成可以使用GPT-4O-Mini,这也会比GitHub co-pilot便宜很多。

    74000编辑于 2024-12-02
  • 来自专栏DrugOne

    Commun. Chem.|用于计算化学工作流的智能体框架

    ChemGrap(基于GPT-4o-mini)首先将反应中各分子的化学名称转换为SMILES字符串(工具调用1–4)。 图3 使用GPT-4o-mini,任务为react2enthalpy的human–ChemGraph(单智能体)交互示例。 GPT-4o-mini在工具调用时经常出现错误,将方法名mace_mp同时作为优化器和计算器传入,从而导致初始执行失败。 图7 使用GPT-4o-mini,任务为react2enthalpy的Human–ChemGraph(多智能体)交互示例。 在react2enthalpy任务中,GPT-4o-mini的准确率从40%提升至87%,Claude-3.5-haiku从67%提升至87%。

    14020编辑于 2026-03-02
  • 来自专栏漫漫架构路

    使用 LangChain 实现简单的翻译功能

    既然如此,我们基于“唐诗翻译”这项基础功能,对 glm-4-0520 模型进行一下简单的基准测试,并与前一代 glm-4-airx 模型和目前大火的OpenAI gpt-4o-mini 进行一下对比。 -4-0520", temperature=0), ChatZhipuAI(model="glm-4-airx", temperature=0), ChatOpenAI(model="gpt moon so fair, And bow it down, my hometown I recall. ---------------------------------------------- 【gpt And lower it to think of my hometown. ---------------------------------------------- 从翻译结果可以看出,相较于 gpt

    41710编辑于 2024-09-07
  • 来自专栏Elastic Stack专栏

    使用EDOT为你的Python、Node.js和Java应用程序进行OpenAI监控

    按照本文前面描述的方式创建你的.env文件,并在chat.py中编写如下源代码:import osimport openaiCHAT_MODEL = os.environ.get("CHAT_MODEL", "gpt 你应该会看到一个名为“chat gpt-4o-mini”的交易。你可以在Python EDOT库的这里找到此示例的工作副本和相关说明。 static void main(String[] args) { String chatModel = System.getenv().getOrDefault("CHAT_MODEL", "gpt 你应该会看到一个名为“chat gpt-4o-mini”的交易。你可以在EDOT Java源代码库的这里找到此示例的工作副本。Node.js假设你已经安装并配置了npm,运行以下命令来初始化示例项目。 你应该会看到一个名为“chat gpt-4o-mini”的交易。你可以在EDOT Node.js源代码库的这里找到此示例的工作副本。

    57911编辑于 2025-03-17
  • 来自专栏AI进修生

    使用Llama3.1 (405B & 8B) 创建编码助手代替Github Copilot(本地、免费&快速)

    Together.AI目前提供25美元的免费额度 并且Continue也支持Together.AI 除此以外,你如果想要个人终端也支持这些大模型的话,也可以把这些api配入Shellgpt 这篇文章有介绍: GPT (Mistral Nemo & 本地) 2024-07-24 GPT-4o-mini + Qwen2 + ContinueDev:一分钟创建Github Copilot教程(本地、免费) 2024-07

    32710编辑于 2024-12-02
  • 来自专栏JavaEdge

    LangChain4j HTTP 客户端定制:解锁 LLM API 交互的更多可能性

    httpClientBuilder(jdkHttpClientBuilder)         .apiKey(System.getenv("OPENAI_API_KEY"))         .modelName("gpt httpClientBuilder(springRestClientBuilder)         .apiKey(System.getenv("OPENAI_API_KEY"))         .modelName("gpt

    46210编辑于 2025-06-01
  • Langchain4j-04

    chatModel = OpenAiChatModel.builder() .apiKey(System.getenv("OPENAI_API_KEY")) .modelName("gpt ("AZURE_OPENAI_URL")) .apiKey(System.getenv("AZURE_OPENAI_API_KEY")) .deploymentName("gpt OpenAiChatModel.builder() // see [1] below .apiKey(System.getenv("OPENAI_API_KEY")) .modelName("gpt ("AZURE_OPENAI_URL")) .apiKey(System.getenv("AZURE_OPENAI_API_KEY")) .deploymentName("gpt

    22110编辑于 2025-10-16
  • Single Agent 和 Multi-Agent 究竟怎么选,用科研助手 + 基金分析两个实战项目带你分析

    import ChatOpenAI# 你可以自由替换成 AzureChatOpenAI / OpenAI 等def get_llm(): return ChatOpenAI( model="gpt 让 LLM 帮忙从 text 中提取 城市 + 日期 llm = ChatOpenAI(model="gpt-4o-mini", temperature=0.0) prompt = f""" ChatOpenAIfrom tools_basic import time, weatherdef build_single_agent(): llm = ChatOpenAI(model="gpt llm = ChatOpenAI(model="gpt-4o-mini", temperature=0.3) prompt = f"""你是一个帮助设计实验计划的科研助手。 llm = ChatOpenAI(model="gpt-4o-mini", temperature=0.2) prompt = f"""你是一个量化分析助手。

    46510编辑于 2025-11-23
  • 来自专栏PHP技术分享

    PHP调用ChatGPT API完整教程|获取密钥与可复用代码示例(含Class封装)

    API密钥"; // 替换为你自己的密钥$url = "https://api.openai.com/v1/chat/completions";// 发送的内容$data = [ "model" => "gpt 封装成一个通用函数function chatgpt($prompt, $model = "gpt-4o-mini") { $api_key = "sk-xxxxxx"; $url = "https:// } return $result; } /** * Chat 模式(文字对话) */ public function chat(string $prompt, string $model = "gpt ""; } /** * JSON 模式(适合结构化结果) */ public function chatJSON(string $prompt, string $model = "gpt-4o-mini

    1.5K10编辑于 2025-10-19
  • 来自专栏AI相关

    大模型API的token是如何计算的?

    展开代码语言:PythonAI代码解释importtiktokendefcount_tokens(text,model="gpt-4o-mini"):encoding=tiktoken.encoding_for_model fmt.Printf("中文文本token数:%d\n",CountTokens(textCn,"gpt-4o-mini"))fmt.Printf("英文文本token数:%d\n",CountTokens (textEn,"gpt-4o-mini"))}输出结果与Python版本一致。 下面是一些实用建议1️⃣预估调用成本以GPT-4o-mini为例(假设价格如下):输入:$0.15/100万tokens输出:$0.60/100万tokens假设你每次调用平均:输入:2,000tokens

    2.6K20编辑于 2025-11-10
  • 来自专栏福大大架构师每日一题

    go-openai v1.39.1发布!关键BUG修复+测试覆盖大提升,带你深入解析新版亮点与应用

    resp, err := client.CreateChatCompletion(context.Background(), ChatCompletionRequest{ Model: "gpt openai.NewClient("你的OpenAI API Key") req := openai.ChatCompletionRequest{ Model: "gpt panic(err) } fmt.Println("AI回复:", resp.Choices[0].Message.Content) } 这段代码演示了如何通过新版SDK调用修正过名字的gpt

    26010编辑于 2025-05-08
  • 来自专栏编程进阶实战

    使用Microsoft.Extensions.AI简化.NET中的AI集成

    OpenAIClient(Environment.GetEnvironmentVariable("OPENAI_API_KEY")) .AsChatClient(modelId: "gpt AZURE_OPENAI_ENDPOINT")), new DefaultAzureCredential()) .AsChatClient(modelId: "gpt

    48610编辑于 2024-11-18
  • 来自专栏大侠之运维

    7.6k star,推荐一个更加智能的文档转换开源工具

    errorMode: ErrorMode.IGNORE, maintainFormat: false, maxRetries: 1, maxTesseractWorkers: -1, model: "gpt ErrorMode.IGNORE, "maintainFormat": False, "maxRetries": 1, "maxTesseractWorkers": -1, "model": "gpt

    68210编辑于 2025-01-02
  • 基于 RAG 的聊天机器人在 Elastic OpenTelemetry 中的追踪、日志和指标

    LLM_TYPE=openaiOPENAI_API_KEY=XXXXCHAT_MODEL=gpt-4o-mini按照以下命令运行 Docker 容器docker compose up --build - : "app" - name: LLM_TYPE value: "openai" - name: CHAT_MODEL value: "gpt env: - name: LLM_TYPE value: "openai" - name: CHAT_MODEL value: "gpt

    30210编辑于 2025-02-15
  • 来自专栏云云众生s

    CrewAI如何使AI代理成为协作团队成员

    ", llm="gpt-4o-mini", # Specifies the language model tools=[SerperDevTool()], # Integrates 例如,集成OpenAI的GPT-4o-mini 或其他模型非常简单: from crewai import Agent, LLM custom_llm = LLM( model="gpt-4o-mini import Flow, listen, start from litellm import completion class ExampleFlow(Flow): model = "gpt

    1.1K21编辑于 2025-01-04
  • 来自专栏Python项目实战

    从“调个 API”到“自己养模型”:用 Python 快速构建聊天机器人的完整路径

    fromopenaiimportOpenAIclient=OpenAI(api_key="YOUR_API_KEY")response=client.chat.completions.create(model="gpt 你:")messages.append({"role":"user","content":user_input})resp=client.chat.completions.create(model="gpt

    17210编辑于 2026-02-08
  • 怎么把 OpenClaw 接入个人微信?打造 24 小时在线 AI 助理(2026 实战版)

    -d \n --name openclaw \n -p 8080:8080 \n -e WECHAT_API_KEY="your_api_key_here" \n -e AI_MODEL="gpt AI_MODEL:支持 GPT-4o-mini / Claude-3.5 等主流模型。 4.

    8.6K131编辑于 2026-03-06
  • 来自专栏机器之心

    AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

    例如以 gpt-4o-mini 作为执行模型的 AFlow 在多跳任务中仍与 o3-mini 的直接求解存在差距。 然而,AoT 通过原子化分解,使得即便仅以 gpt-4o-mini 这种短思维链模型作为推理基座,也能在性能上超越这些强大的长思维链模型。

    36400编辑于 2025-03-17
领券