首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏养虾记

    OpenClaw 接入本地 Ollama

    1.概述本手册介绍如何在OpenClaw中配置本地Ollama服务。Ollama是一个开源的本地大语言模型运行框架,支持在本地机器上运行多种开源模型,如Llama、DeepSeek、Qwen等。 ,Ollama服务会自动启动。 列表中,选择Ollama。 6.常见问题Q1:Ollama服务无法启动? :OpenClaw无法连接到Ollama

    3.6K40编辑于 2026-03-31
  • 来自专栏AI 新手村

    Claude Code 完美接入 Ollama 指南

    操作步骤 1.安装 Claude Code 和 Ollama npm install -g @anthropic-ai/claude-code@latest Ollama 可以通过官网https:// ollama.com/下载安装包安装。 “注意:Ollama 版本v0.14.0+,Claude Code版本v2.1.12+,可以通过下面命令验证 claude --version ollama --version Ollama 安装后会自动作为后台服务运行 #查看本地模型 ollama list #下载新模型 ollama pull qwen2.5-coder:7b #删除模型 ollama rm qwen2.5-coder:7b #查看模型基本参数 ollama show qwen2.5-coder:7b 3.配置 Claude Code 连接本地 Ollama export ANTHROPIC_AUTH_TOKEN=ollama export

    12.7K12编辑于 2026-01-26
  • 来自专栏AI 新手村

    Claude Code 完美接入 Ollama 指南

    但随着Ollama宣布兼容AnthropicMessagesAPI,我们现在可以轻松地将ClaudeCode与本地模型集成。 操作步骤1.安装ClaudeCode和Ollama展开代码语言:TXTAI代码解释npminstall-g@anthropic-ai/claude-code@latestOllama可以通过官网https ://ollama.com/下载安装包安装。 注意:Ollama版本v0.14.0+,ClaudeCode版本v2.1.12+,可以通过下面命令验证展开代码语言:BashAI代码解释claude--versionollama--versionOllama 2.下载大模型可以通过Ollama的WebUI页面直接下载,如下图。也可以通过命令行快速拉取适合编码的模型。

    8.6K11编辑于 2026-01-22
  • 来自专栏AIGC大模型应用

    三分钟让Dify接入Ollama部署的本地大模型!

    2 Dify 中接入 Ollama 2.1 添加模型 在 设置 > 模型供应商 > Ollama 添加模型: 填写 LLM 信息: 模型名称:以 ollama 返回的为准 $ ollama ls NAME Embedding 模型接入方式类似LLM,只需将模型类型改为Text Embedding: 2.2 使用 Ollama 模型 进入需要配置的 App 提示词编排页面,选择 Ollama 供应商下的 llava OLLAMA_HOST "0.0.0.0" 重启 Ollama 应用程序。 点击 OK / 应用保存 在一个新的终端窗口运行 ollama 咋在我的网络暴露 OllamaOllama 默认绑定 127.0.0.1 端口 11434。 通过 OLLAMA_HOST 环境变量更改绑定地址。 参考: Ollama Ollama FAQ

    7.1K11编辑于 2025-05-29
  • 来自专栏AI机器学习与深度学习算法

    学习分类 2-3 感知机

    要如何求出权重向量呢?基本做法和回归时相同,将权重向量用作参数,创建更新表达式来更新参数。这就需要一个被称为感知机的模型。

    64410编辑于 2022-11-08
  • 来自专栏JavaEdge

    三分钟让Dify接入Ollama部署的本地大模型!

    1 运行 Ollama 与 qwen2:0.5b 聊天 ollama run qwen2:0.5b 启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost 2 Dify 中接入 Ollama 2.1 添加模型 在 设置 > 模型供应商 > Ollama 添加模型: 填写 LLM 信息: 模型名称:以 ollama 返回的为准 $ ollama ls NAME Embedding 模型接入方式与 LLM 类似,只需将模型类型改为 Text Embedding 即可。 OLLAMA_HOST "0.0.0.0" 重启 Ollama 应用程序。 通过 OLLAMA_HOST 环境变量更改绑定地址。 参考: Ollama Ollama FAQ 本文已收录在Github,关注我,紧跟本系列专栏文章,咱们下篇再续!

    1.7K20编辑于 2025-06-01
  • 来自专栏机器学习与统计学

    Ollama,危?

    大家好,我是 Ai 学习的老章 Ollama 是咱们公众号的常客了,比较重要的几个功能升级我都写过文章介绍 Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用 Ollama 的新动作:大模型联网搜索 API、MCP 客户端集成 Ollama 可以启动云端大模型了,免费 Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 我使用的是 tw93 开发的 pake,一行命令即可,本地服务也可以打包成 app 然后它就将只能浏览器访问的 web 应用打包成 app 了 如此轻量舒服的应用,我与这位网友有相同的期待——支持其他模型的接入 总结来看,比之前想要挑战 ollama 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢 ,企业就别折腾了,并发太差:不要再用 _Ollama_,不要再用 llama.cpp

    43710编辑于 2025-11-20
  • 来自专栏nginx

    Docker部署Ollama接入Llama 2模型通过前端交互界面向AI提问

    拉取相关的Docker镜像 运行Llama 2需要借助Ollama镜像,对语言模型进行交互需要用到Chatbot-Ollama前端界面,所以我们需要拉取这两个docker镜像,本例群晖版本由于无法直接在群晖控制面板 pull ollama/ollama:latest *拉取Chatbot-Ollama镜像命令 sudo docker pull ghcr.io/ivanfioravanti/chatbot-ollama 运行Ollama 镜像 选中镜像,点击运行进入配置界面,名称无需设置,默认即可,然后点击下一步 输入外部访问的端口,和容器内部端口一致,填写11434即可,然后点击下一步 然后点击完成即可运行ollama 命令界面,执行ollama run llama2命令,接着等待下载即可,最后出现success,表示下载运行Llama 2模型成功,下载完成后可以关闭掉窗口.这样ollama 容器启动,并运行Llama 然后设置一个环境变量,该变量就是连接我们上面运行Ollama框架服务的地址,我们设置本地地址:http://群晖局域网IP:11434即可,设置完成点击下一步,然后直接点击完成即可,chatbot Ollama

    65210编辑于 2025-11-15
  • 来自专栏我在本科期间写的文章

    Windows环境安装Ollama接入llama2模型并通过MaxKB与AI远程对话

    前言 在本文中,我们将详细介绍如何在Windows环境中本地运行大语言模型框架Ollama,并下载大语言模型LLaMA2。 下载运行Ollama 进入Ollama Github 界面:https://github.com/ollama/ollama? 安装大语言模型 ollama安装完成后,下面进行下载运行大语言模型,本例采用llama2模型,当然还有其他模型,可以到github上面选择,命令窗口输入下面命令 ollama run llama2 然后等待安装完成即可 Ollama这个大语言模型框架,远程通信! 配置公网地址 点击左侧仪表盘的隧道管理——创建隧道,创建一个ollama的公网http地址隧道!

    1K10编辑于 2025-01-14
  • 来自专栏算法无遗策

    动画 | 什么是2-3树?

    2-3树正是一种绝对平衡的树,任意节点到它所有的叶子节点的深度都是相等的。 2-3树的数字代表一个节点有2到3个子树。它也满足二分搜索树的基本性质,但它不属于二分搜索树。 2-3树查找元素 2-3树的查找类似二分搜索树的查找,根据元素的大小来决定查找的方向。 动画:2-3树插入 2-3树删除元素 2-3树删除元素相对比较复杂,删除元素也和插入元素一样先进行命中查找,查找成功才进行删除操作。 2-3树为满二叉树时,删除叶子节点 2-3树满二叉树的情况下,删除叶子节点是比较简单的。 动画:2-3树删除 -----END---

    1K10发布于 2020-01-02
  • 来自专栏.Net Core技术分享

    Ollama系列05:Ollama API 使用指南

    本文是Ollama系列教程的第5篇,在前面的4篇内容中,给大家分享了如何再本地通过Ollama运行DeepSeek等大模型,演示了chatbox、CherryStudio等UI界面中集成Ollama的服务 在今天的分享中,我将分享如何通过API来调用ollama服务,通过整合ollama API,将AI能力集成到你的私有应用中,提升你的职场价值! Ollama API Ollama 提供了一套简单好用的接口,让开发者能通过API轻松使用大语言模型。 本篇内容将使用Postman作为请求工具,和开发语言无关。 参考内容 官方API文档:https://github.com/ollama/ollama/blob/main/docs/api.md 官方兼容OpenAI文档:https://github.com /ollama/ollama/blob/main/docs/openai.md

    4.5K21编辑于 2025-03-21
  • 来自专栏《Cloud Studio》

    喂饭教程:10分钟部署一个DeepSeek,支持网页调用!关键还免费!

    curl.qcloud.com/tA0CERrX 2.开通免费 GPU 传送门:https://ide.cloud.tencent.com/dashboard/gpu-workspace 3.进入之后,新建-AI模板-ollama ,官方现在有 deepseek 的模板,但是没有 UI 界面,还需要自己安装,所以建议您安装 ollama 。 4.等待大约2-3分钟,点击图标进入 apt install sudo ollama list ollama rm llama3 ollama run deepseek- 5.复制粘贴以上命令 等待大约 7.左侧菜单-Zero Trust-网络-Tunnes 先复制命令,一会粘贴到终端 这里的下一步需要滑块往下滑(有人找不到) 需要注意的是: 6339 是 ollama 调用的端口(API) 6889 在未来的技术旅程中,腾讯云 Cloud Stuio携手腾讯云 AI 代码助手同行,为你提供免费的 GPU 空间和编码神器,腾讯云 AI 代码助手也将近期支持多模型接入,强烈安利你提前在 IDE 插件市场搜索腾讯云

    1.7K21编辑于 2025-02-12
  • 来自专栏我是攻城师

    什么是2-3

    2-3树 VS 二叉搜索树 同样的一组数据,在2-3树和二叉搜索树里面的对比如下: ? 可以看到2-3树的节点分布非常均匀,且叶子节点的高度一致,并且如果这里即使是AVL树,那么树的高度也比2-3树高,而高度的降低则可以提升增删改的效率。 2-3树的插入 为了保持平衡性,2-3树的插入如果破坏了平衡性,那么树本身会产生分裂和合并,然后调整结构以维持平衡性,这一点和AVL树为了保持平衡而产生的节点旋转的作用一样,2-3树的插入分裂有几种情况如下 2-3树的删除 2-3树节点的删除也会破坏平衡性,同样树本身也会产生分裂和合并,如下: ? 总结 本篇文章,主要介绍了2-3树相关的知识,2-3树,2-3-4树以及B树都不是二叉树,但与二叉树的大致特点是类似的,它们是一种平衡的多路查找树,节点的孩子个数可以允许多于2个,虽然高度降低了,但编码相对复杂

    2.4K20发布于 2019-04-28
  • Shimmy,超越ollama?

    /models/•或从其他来源获取模型文件(如Ollama模型目录)。 自动发现路径:•Shimmy默认扫描以下路径:◦~/.cache/huggingface/hub/(HuggingFace缓存)◦~/.ollama/models/(Ollama模型目录)◦.

    14810编辑于 2026-04-29
  • 来自专栏刷题笔记

    2-3 链表拼接 (20 分)

    本文链接:https://blog.csdn.net/shiliang97/article/details/101050371 2-3 链表拼接 (20 分) 本题要求实现一个合并两个有序链表的简单函数

    69240发布于 2019-11-08
  • 来自专栏python3

    2-3 选项卡控件

    2-3 选项卡控件 u本节学习目标: n了解选项卡控件的基本属性 n掌握如何设置选项卡控件的属性 n掌握统计页面选项卡控件页面基本信息 n掌握选项卡控件的功能操作控制 2-3-1 简介 在 Windows 一般选项卡在Windows操作系统中的表现样式如图2-3所示。 ? 图2-3 图片框控件的属性及方法 2-3-2 选项卡控件的基本属性 图片框控件是使用频度最高的控件,主要用以显示窗体文本信息。 其基本的属性和方法定义如表2-3所示: 属性 说明 MultiLine 指定是否可以显示多行选项卡。如果可以显示多行选项卡,该值应为 True,否则为 False。 使用这个集合可以添加和删除TabPage对象 表2-3 选项卡控件的属性 2-3-3 选项卡控件实践操作 1.

    2.1K10发布于 2020-01-07
  • 来自专栏python3

    2-3 T-SQL函数

    2-3 T-SQL函数 学习系统函数、行集函数和Ranking函数;重点掌握字符串函数、日期时间函数和数学函数的使用参数以及使用技巧 重点掌握用户定义的标量函数以及自定义函数的执行方法 掌握用户定义的内嵌表值函数以及与用户定义的标量函数的主要区别 我们首先运行一段SQL查询:select tno,name , salary From teacher,查询后的基本结构如图2-3所示。我们看见,分别有三位教师的薪水是一样高的。 图2-3 薪酬排序基本情况 图2-4 row_number函数排序 图2-5 row_number另一使用 我们可以使用Row_number函数来实现查询表中指定范围的记录,一般将其应用到Web应用程序的分页功能上

    2K10发布于 2020-01-08
  • 来自专栏《Cloud Studio》

    喂饭教程:10分钟部署一个DeepSeek,支持网页调用!关键还免费!

    curl.qcloud.com/tA0CERrX2.开通免费 GPU传送门:https://ide.cloud.tencent.com/dashboard/gpu-workspace3.进入之后,新建-AI模板-ollama ,官方现在有 deepseek 的模板,但是没有 UI 界面,还需要自己安装,所以建议您安装 ollama 。 4.等待大约2-3分钟,点击图标进入apt install sudo ollama listollama rm llama3ollama run deepseek-5.复制粘贴以上命令等待大约 5 分钟下载模型 7.左侧菜单-Zero Trust-网络-Tunnes先复制命令,一会粘贴到终端这里的下一步需要滑块往下滑(有人找不到)需要注意的是:6339 是 ollama 调用的端口(API)6889 是 chatbot 现在开始带你飞在未来的技术旅程中,腾讯云 Cloud Stuio携手腾讯云 AI 代码助手同行,为你提供免费的 GPU 空间和编码神器,腾讯云 AI 代码助手也将近期支持多模型接入,强烈安利你提前在 IDE

    57400编辑于 2025-03-17
  • centos7 安装ollama 运行 ollama -v 报错解决

    问题在ollama官网上,找到了linux上安装ollama的命令后,复制到自己的虚拟机中,下载完ollama,运行 ollama serve,提示以下报错:ollama: /lib64/libm.so .6: version `GLIBC_2.27' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX _3.4.25' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.20' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.9' not found (required by ollama )ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.11' not found (required by ollama)ollama: /lib64/

    3.4K11编辑于 2025-06-12
  • 来自专栏.Net Core技术分享

    Ollama系列06:C#使用OllamaSharp集成Ollama服务

    本文是Ollama系列教程的第6篇,主要介绍如何通过SDK将ollama集成到c#程序中。 Ollama 提供了HTTP API的访问,如果需要使用SDK集成到项目中,需要引用第三方库OllamaSharp,直接使用nuget进行安装即可。 功能亮点 简单易用:几行代码就能玩转Ollama 值得信赖:已为Semantic Kernal、.NET Aspire和Microsoft.Extensions.AI提供支持 全接口覆盖:支持所有Ollama = new OllamaApiClient(uri); 获取模型列表 // list models var models = await ollama.ListLocalModelsAsync(); var chat = new Chat(ollama); Console.WriteLine(); Console.WriteLine($"Chat with {ollama.SelectedModel

    92810编辑于 2025-03-26
领券