首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏养虾记

    OpenClaw 接入本地 Ollama

    (以qwen2.5:7b为例):展开代码语言:BashAI代码解释#通义千问2.5-阿里开源模型,中文优化好$ollamapullqwen2.5:7b#其他可选模型:#DeepSeekCoder-适合编程任务 /qwen2.5:7bgateway.mode:localgateway.port:18789gateway.bind:loopback步骤2:选择模型提供方,配置Ollama连接在Model/authprovider token=YOUR_TOKENWebUI界面会显示当前使用的模型:Default(qwen2.5:7b-ollama),表示已成功连接到本地Ollama服务。 减小模型大小:使用量化版本(如:q4_0后缀)选择更小的模型(如7B替代13B)配置Ollama使用CPU:展开代码语言:BashAI代码解释$exportOLLAMA_NO_GPU=1$ollamaserveQ4 展开代码语言:BashAI代码解释#重新拉取最新版本$ollamapullqwen2.5:7bQ7:如何删除模型?展开代码语言:BashAI代码解释$ollamarmqwen2.5:7b

    3.6K40编辑于 2026-03-31
  • 来自专栏AI 新手村

    Claude Code 完美接入 Ollama 指南

    ://ollama.com/下载安装包安装。 2.下载大模型可以通过Ollama的WebUI页面直接下载,如下图。也可以通过命令行快速拉取适合编码的模型。 展开代码语言:BashAI代码解释#查看本地模型ollamalist#下载新模型ollamapullqwen2.5-coder:7b#删除模型ollamarmqwen2.5-coder:7b#查看模型基本参数 ollamashowqwen2.5-coder:7b3.配置ClaudeCode连接本地Ollama展开代码语言:BashAI代码解释exportANTHROPIC_AUTH_TOKEN=ollamaexportANTHROPIC_BASE_URL =http://localhost:11434#启动ClaudeCode并指定本地模型claude--modelqwen2.5-coder:7b#如果想使用云端模型,命令类似claude--modelglm

    8.6K11编辑于 2026-01-22
  • 来自专栏AI 新手村

    Claude Code 完美接入 Ollama 指南

    “注意:Ollama 版本v0.14.0+,Claude Code版本v2.1.12+,可以通过下面命令验证 claude --version ollama --version Ollama 安装后会自动作为后台服务运行 #查看本地模型 ollama list #下载新模型 ollama pull qwen2.5-coder:7b #删除模型 ollama rm qwen2.5-coder:7b #查看模型基本参数 ollama show qwen2.5-coder:7b 3.配置 Claude Code 连接本地 Ollama export ANTHROPIC_AUTH_TOKEN=ollama export ANTHROPIC_BASE_URL=http://localhost:11434 # 启动 Claude Code 并指定本地模型 claude --model qwen2.5-coder:7b ', http_client=http_client, ) with client.messages.stream( model='qwen2.5-coder:7b', max_tokens

    12.7K12编辑于 2026-01-26
  • centos7 安装ollama 运行 ollama -v 报错解决

    问题在ollama官网上,找到了linux上安装ollama的命令后,复制到自己的虚拟机中,下载完ollama,运行 ollama serve,提示以下报错:ollama: /lib64/libm.so .6: version `GLIBC_2.27' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX _3.4.25' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.20' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.9' not found (required by ollama )ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.11' not found (required by ollama)ollama: /lib64/

    3.4K11编辑于 2025-06-12
  • XVERSE-7B-chat langchain 接入

    XVERSE-7B-Chat为XVERSE-7B模型对齐后的版本。 XVERSE-7B 是由深圳元象科技自主研发的支持多语言的大语言模型(Large Language Model),参数规模为 70 亿,主要特点如下: 模型结构:XVERSE-7B 使用主流 Decoder-only 如果你使用的是 autodl 部署模型的话,我们有制作好的镜像供大家使用:XVERSE-7B-Chat # 升级pip python -m pip install --upgrade pip # 更换 为便捷构建 LLM 应用,我们需要基于本地部署的 XVERSE-LLM,自定义一个 LLM 类,将 XVERSE 接入到 LangChain 框架中。 \n7. 进行简单的计算:如果你需要进行复杂的数学运算,我可能无法直接解答,但我可以尝试提供一些基本的计算方法。\n8. 提供新闻更新:我可以为你提供实时的新闻更新,让你随时了解世界大事。\n9.

    25700编辑于 2025-07-21
  • DeepSeek-7B-chat langchain 接入

    DeepSeek-7B-chat langchain 接入 这篇主要讲 DeepSeek-7B-chat 如何对接Langchain中 langchain.llms.base 的 LLM 模块,其他关于如何对接向量数据库和 pip install langchain==0.0.292 DeepSeek-7B-chat 接入 LangChain 为便捷构建 LLM 应用,我们需要基于本地部署的 DeepSeek-7B-chat ,自定义一个 LLM 类,将 DeepSeek-7B-chat 接入到 LangChain 框架中。 基于本地部署的 DeepSeek-7B-chat 自定义 LLM 类并不复杂,我们只需从 LangChain.llms.base.LLM 类继承一个子类,并重写构造函数与 _call 函数即可: from llm = DeepSeek_LLM('/root/autodl-tmp/deepseek-ai/deepseek-llm-7b-chat') llm('你好') 如下图所示:

    39010编辑于 2025-07-17
  • 来自专栏AIGC大模型应用

    三分钟让Dify接入Ollama部署的本地大模型!

    2 Dify 中接入 Ollama 2.1 添加模型 在 设置 > 模型供应商 > Ollama 添加模型: 填写 LLM 信息: 模型名称:以 ollama 返回的为准 $ ollama ls NAME ID SIZE MODIFIED qwen2:0.5b 6f48b936a09f 352 MB 7 months ago 那就得填写 Embedding 模型接入方式类似LLM,只需将模型类型改为Text Embedding: 2.2 使用 Ollama 模型 进入需要配置的 App 提示词编排页面,选择 Ollama 供应商下的 llava exceeded with url:/api/chat (Caused by NewConnectionError ('<urllib3.connection.HTTPConnection object at 0x7f8562812c20 通过 OLLAMA_HOST 环境变量更改绑定地址。 参考: Ollama Ollama FAQ

    7.1K11编辑于 2025-05-29
  • BlueLM-7B-Chat langchain 接入

    BlueLM-7B-Chat langchain 接入 模型介绍 BlueLM-7B 是由 vivo AI 全球研究院自主研发的大规模预训练语言模型,参数规模为 70 亿。 BlueLM-7B 在 C-Eval 和 CMMLU 上均取得领先结果,对比同尺寸开源模型中具有较强的竞争力(截止11月1号)。本次发布共包含 7B 模型的 Base 和 Chat 两个版本。 模型下载链接见: 基座模型 对齐模型 BlueLM-7B-Base BlueLM-7B-Chat BlueLM-7B-Base-32K BlueLM-7B-Chat-32K BlueLM-7B-Chat cache_dir='/root/autodl-tmp', revision="master") 代码准备 为便捷构建 LLM 应用,我们需要基于本地部署的 BlueLM,自定义一个 LLM 类,将 BlueLM 接入到 from LLM import BlueLM llm = BlueLM('/root/autodl-tmp/vivo-ai/BlueLM-7B-Chat') llm('你好') 如下图所示:

    34710编辑于 2025-07-17
  • 来自专栏JavaEdge

    三分钟让Dify接入Ollama部署的本地大模型!

    2 Dify 中接入 Ollama 2.1 添加模型 在 设置 > 模型供应商 > Ollama 添加模型: 填写 LLM 信息: 模型名称:以 ollama 返回的为准 $ ollama ls NAME ID SIZE MODIFIED qwen2:0.5b 6f48b936a09f 352 MB 7 months ago 那就得填写 Embedding 模型接入方式与 LLM 类似,只需将模型类型改为 Text Embedding 即可。 exceeded with url:/api/chat (Caused by NewConnectionError ('<urllib3.connection.HTTPConnection object at 0x7f8562812c20 OLLAMA_HOST "0.0.0.0" 重启 Ollama 应用程序。

    1.7K20编辑于 2025-06-01
  • 来自专栏机器学习与统计学

    Ollama,危?

    大家好,我是 Ai 学习的老章 Ollama 是咱们公众号的常客了,比较重要的几个功能升级我都写过文章介绍 Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用 Ollama 的新动作:大模型联网搜索 API、MCP 客户端集成 Ollama 可以启动云端大模型了,免费 Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 我使用的是 tw93 开发的 pake,一行命令即可,本地服务也可以打包成 app 然后它就将只能浏览器访问的 web 应用打包成 app 了 如此轻量舒服的应用,我与这位网友有相同的期待——支持其他模型的接入 总结来看,比之前想要挑战 ollama 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢 ,企业就别折腾了,并发太差:不要再用 _Ollama_,不要再用 llama.cpp

    43610编辑于 2025-11-20
  • 来自专栏nginx

    Docker部署Ollama接入Llama 2模型通过前端交互界面向AI提问

    拉取相关的Docker镜像 运行Llama 2需要借助Ollama镜像,对语言模型进行交互需要用到Chatbot-Ollama前端界面,所以我们需要拉取这两个docker镜像,本例群晖版本由于无法直接在群晖控制面板 pull ollama/ollama:latest *拉取Chatbot-Ollama镜像命令 sudo docker pull ghcr.io/ivanfioravanti/chatbot-ollama 运行Ollama 镜像 选中镜像,点击运行进入配置界面,名称无需设置,默认即可,然后点击下一步 输入外部访问的端口,和容器内部端口一致,填写11434即可,然后点击下一步 然后点击完成即可运行ollama 命令界面,执行ollama run llama2命令,接着等待下载即可,最后出现success,表示下载运行Llama 2模型成功,下载完成后可以关闭掉窗口.这样ollama 容器启动,并运行Llama 免费选择随机域名 地区:选择China 点击创建 隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https,下面我们使用生成的http地址访问 7.

    65210编辑于 2025-11-15
  • 来自专栏我在本科期间写的文章

    Windows环境安装Ollama接入llama2模型并通过MaxKB与AI远程对话

    前言 在本文中,我们将详细介绍如何在Windows环境中本地运行大语言模型框架Ollama,并下载大语言模型LLaMA2。 下载运行Ollama 进入Ollama Github 界面:https://github.com/ollama/ollama? 安装大语言模型 ollama安装完成后,下面进行下载运行大语言模型,本例采用llama2模型,当然还有其他模型,可以到github上面选择,命令窗口输入下面命令 ollama run llama2 然后等待安装完成即可 Ollama这个大语言模型框架,远程通信! key的信息,注意是下面框住的这一部分是key 然后把key 输入到API Key 框里面 然后点击添加即可 最后我们可以看到成功添加了,如果在添加过程中没有llama2的大语言模型,这里也会自动下载 7.

    1K10编辑于 2025-01-14
  • 来自专栏.Net Core技术分享

    Ollama系列05:Ollama API 使用指南

    本文是Ollama系列教程的第5篇,在前面的4篇内容中,给大家分享了如何再本地通过Ollama运行DeepSeek等大模型,演示了chatbox、CherryStudio等UI界面中集成Ollama的服务 在今天的分享中,我将分享如何通过API来调用ollama服务,通过整合ollama API,将AI能力集成到你的私有应用中,提升你的职场价值! Ollama API Ollama 提供了一套简单好用的接口,让开发者能通过API轻松使用大语言模型。 本篇内容将使用Postman作为请求工具,和开发语言无关。 参考内容 官方API文档:https://github.com/ollama/ollama/blob/main/docs/api.md 官方兼容OpenAI文档:https://github.com /ollama/ollama/blob/main/docs/openai.md

    4.5K21编辑于 2025-03-21
  • InternLM2-7B-chat langchain 接入

    InternLM2-7B-chat langchain 接入 InternLM2 ,即书生·浦语大模型第二代,开源了面向实用场景的70亿参数基础模型与对话模型 (InternLM2-Chat-7B)。 AutoModel, AutoTokenizer import os model_dir = snapshot_download('Shanghai_AI_Laboratory/internlm2-chat-7b /autodl-tmp', revision='master') 代码准备 为便捷构建 LLM 应用,我们需要基于本地部署的 InternLM2-LM,自定义一个 LLM 类,将 InternLM2 接入到 LLM llm = InternLM2_LLM(mode_name_or_path = "/root/autodl-tmp/Shanghai_AI_Laboratory/internlm2-chat-7b

    33710编辑于 2025-07-17
  • Baichuan2-7B-chat langchain 接入

    Baichuan2-7B-chat langchain 接入 这篇主要讲 Baichuan2-7B-chat 如何对接Langchain中 langchain.llms.base 的 LLM 模块,并且提供一个快捷搭建向量数据库 ',cache_dir='/root/autodl-tmp', revision='v1.0.4') Baichuan2-7B-chat 接入 LangChain 为便捷构建 LLM 应用,我们需要基于本地部署的 Baichuan2-7B-chat,自定义一个 LLM 类,将 Baichuan2-7B-chat 接入到 LangChain 框架中。 基于本地部署的 Baichuan2-7B-chat 自定义 LLM 类并不复杂,我们只需从LangChain.llms.base.LLM 类继承一个子类,并重写构造函数与 _call 函数即可: from AutoModelForCausalLM = None def __init__(self, model_path :str): # model_path: Baichuan-7B-chat

    31210编辑于 2025-07-20
  • Shimmy,超越ollama?

    /models/•或从其他来源获取模型文件(如Ollama模型目录)。 自动发现路径:•Shimmy默认扫描以下路径:◦~/.cache/huggingface/hub/(HuggingFace缓存)◦~/.ollama/models/(Ollama模型目录)◦.

    14810编辑于 2026-04-29
  • 来自专栏.Net Core技术分享

    Ollama系列06:C#使用OllamaSharp集成Ollama服务

    本文是Ollama系列教程的第6篇,主要介绍如何通过SDK将ollama集成到c#程序中。 Ollama 提供了HTTP API的访问,如果需要使用SDK集成到项目中,需要引用第三方库OllamaSharp,直接使用nuget进行安装即可。 功能亮点 简单易用:几行代码就能玩转Ollama 值得信赖:已为Semantic Kernal、.NET Aspire和Microsoft.Extensions.AI提供支持 全接口覆盖:支持所有Ollama = new OllamaApiClient(uri); 获取模型列表 // list models var models = await ollama.ListLocalModelsAsync(); var chat = new Chat(ollama); Console.WriteLine(); Console.WriteLine($"Chat with {ollama.SelectedModel

    92710编辑于 2025-03-26
  • 来自专栏【腾讯云开发者】

    彻底疯狂!基于DeepSeek打造集代码补全、问答搜索为一体的超级应用,免费!

    也可接入本地 Ollama 部署的 Deepseek 大模型,结合腾讯云AI代码助手和 DeepSeek ,开发者可实现更加强大、高效、安全的 AI 编程体验。 当然,还有如下一种办法,用户通过本地 Ollama 部署 DeepSeek R1 接入,本地部署无任何网络等限制,能部署启动即可使用! 03、方法二:通过用户本地部署的 Ollama + DeepSeek R1 进行配置接入 以 Mac 为例,部署 DeepSeek 对电脑硬件也有一定要求,以下为DeepSeek R1 在 Mac 上的配置要求 例如,下载 7B 版本的命令为: ollama run deepseek-r1:7b 启动 Ollama 服务:在终端运行以下命令后台,并可尝试访问尝试访问http://localhost:11434, R1 ollama run deepseek-r1:1.5b # 7B DeepSeek R1 ollama run deepseek-r1:7b # 8B Llama DeepSeek R1

    1.1K00编辑于 2025-02-14
  • 腾讯云 AI 代码助手支持 DeepSeek R1 接入 !好用免费!

    也可接入本地 Ollama 部署的 Deepseek 大模型,结合腾讯云AI代码助手和 DeepSeek ,开发者可实现更加强大、高效、安全的 AI 编程体验。 当然,还有如下一种办法,用户通过本地 Ollama 部署 DeepSeek R1 接入,本地部署无任何网络等限制,能部署启动即可使用! 方法二:通过用户本地部署的 Ollama + DeepSeek R1 进行配置接入 以 Mac 为例,部署 DeepSeek 对电脑硬件也有一定要求,以下为DeepSeek R1 在 Mac 上的配置要求 例如,下载 7B 版本的命令为: ollama run deepseek-r1:7b ● 启动 Ollama 服务:在终端运行以下命令后台,并可尝试访问尝试访问http://localhost:11434 R1ollama run deepseek-r1:1.5b # 7B DeepSeek R1ollama run deepseek-r1:7b # 8B Llama DeepSeek R1ollama

    5.4K41编辑于 2025-02-10
  • 来自专栏AI进修生

    Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)

    我会继续介绍VLLM和Ollama的单节点多卡推理,哦,还有Huggface、modelscope模型下载,然后简单过过Dify、FastGPT的模型接入,相关嵌入、重排模型部署、Llama.cpp使用 FastGPT使用Oneapi接入模型,配置各种模型都挺方便的,以前有写过: Kimi+Langchain+FastGPT:文档转LLM微调数据集 / QA问答对生成、Kimi 128KAPI免费接入 Dfiy就简单讲讲: 1、Ollama接入 2、用的比较多的肯定是OpenAl-API-compatible,即OpenAI兼容格式,比如Vllm就需要用这个接入,OpenAl-API-compatible /llama-gguf-split --merge qwen2.5-7b-instruct-q4_0-00001-of-00002.gguf qwen2.5-7b-instruct-q4 记住只需要指定第 =5,7 -e OLLAMA_FLASH_ATTENTION=1 -e OLLAMA_NUM_PARALLEL=64 -v ollama:/root/.ollama -v /home/ly

    23.1K12编辑于 2024-12-02
领券