首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小明学AI

    Ollama本地安装基础教程

    本文,我将手把手教你如何完全掌控Ollama的安装和模型存储位置,让大模型“住”进你指定的文件夹!一、自定义ollama安装路径首先,访问Ollama官网下载对应操作系统的安装程序。 Ollama虽然安装包不大,但下载的模型文件却相当庞大,所以需要通过自定义安装和存储路径,在ollama安装目录打开cmd,在执行安装得时候制定目录:等到安装之后,验证是否安装成功ollama--version 如果出现ollama对应版本说明安装成功。 二、创建大模型存储目录ollama安装完成之后,需要设置大模型环境变量,也就是制定大模型存储得目录。需要注意的是,设置环境变量之后需要重启ollama,否则不会生效。 至此,自定义ollama安装就已经完成,后面下载的ollama大模型也会存储在我们指定的目录中。总结通过自定义Ollama安装路径与模型存储目录,成功解决了大模型占满系统盘空间的痛点。

    91310编辑于 2026-04-05
  • 来自专栏机器学习与统计学

    Ollama,危?

    大家好,我是 Ai 学习的老章 Ollama 是咱们公众号的常客了,比较重要的几个功能升级我都写过文章介绍 Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用 Ollama 的新动作:大模型联网搜索 API、MCP 客户端集成 Ollama 可以启动云端大模型了,免费 Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢,deepseek-v3.1 并发太差:不要再用 _Ollama_,不要再用 llama.cpp

    35110编辑于 2025-11-20
  • 来自专栏.Net Core技术分享

    Ollama系列05:Ollama API 使用指南

    本文是Ollama系列教程的第5篇,在前面的4篇内容中,给大家分享了如何再本地通过Ollama运行DeepSeek等大模型,演示了chatbox、CherryStudio等UI界面中集成Ollama的服务 在今天的分享中,我将分享如何通过API来调用ollama服务,通过整合ollama API,将AI能力集成到你的私有应用中,提升你的职场价值! Ollama API Ollama 提供了一套简单好用的接口,让开发者能通过API轻松使用大语言模型。 本篇内容将使用Postman作为请求工具,和开发语言无关。 参考内容 官方API文档:https://github.com/ollama/ollama/blob/main/docs/api.md 官方兼容OpenAI文档:https://github.com /ollama/ollama/blob/main/docs/openai.md

    4.3K21编辑于 2025-03-21
  • 来自专栏自然语言处理

    实战教程来了!从零开始打造MCP+Ollama集成

    模型上下文协议MCP与Ollama的整合实现指南 在过去一两个个月里,模型上下文协议(Model Context Protocol,MCP)频繁出现在各种技术微信交流群中。 前面一篇文章给大家分享了MCP一些基础概念,但是读完之后还是模棱两可,所以决定尝试将Ollama中的小型语言模型与MCP服务器连接起来,体验一下这个新标准。 今天,向大家展示如何实现Ollama与MCP服务器的集成。 通过Ollama发送对话并接收结构化输出 如果响应中包含工具,则向服务器发送请求 安装依赖 要运行这个项目,需要安装必要的包。 使用以下命令将所需库添加到你的项目中: uv add fastmcp ollama 这会同时安装MCP服务器和Ollama聊天库,以便你在它们的基础上构建客户端和服务器逻辑。

    3.4K11编辑于 2025-04-20
  • 来自专栏服务器运维日常

    喂饭式教程 - 腾讯云HAI服务原生安装Ollama部署DeepSeek

    简单的说,就是DeepSeek是运行在Ollama软件中的,要使用DeepSeek需要先安装Ollama。 三、Linux 部署 Ollama3.1、复制安装命令打开 Ollama 官网,点击下载,选择 Linux ,复制安装命令。3.2 命令安装 Ollama在服务器终端输入命令,等待下载安装。 3.4、在终端运行命令安装模型输入Ollama版本号命令查看是否安装成功,然后输入模型安装命令# 查看Ollama版本号ollama --version# 安装模型ollama run deepseek-r1 四、Windows 部署 Ollama4.1、下载Ollama安装软件打开 Ollama 官网,点击下载,选择 Windows ,下载软件安装程序,完成安装。 在打开命令窗口上,输入以下命令,完成安装# 查看Ollama版本号ollama --version# 安装模型ollama run deepseek-r1:1.5b五、选择什么样的模型DeepSeek-R1

    1.2K20编辑于 2025-02-13
  • centos7 安装ollama 运行 ollama -v 报错解决

    问题在ollama官网上,找到了linux上安装ollama的命令后,复制到自己的虚拟机中,下载完ollama,运行 ollama serve,提示以下报错:ollama: /lib64/libm.so .6: version `GLIBC_2.27' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX _3.4.25' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.20' not found (required by ollama)ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.9' not found (required by ollama )ollama: /lib64/libstdc++.so.6: version `CXXABI_1.3.11' not found (required by ollama)ollama: /lib64/

    3.2K11编辑于 2025-06-12
  • 来自专栏养虾记

    OpenClaw 接入本地 Ollama

    1.概述本手册介绍如何在OpenClaw中配置本地Ollama服务。Ollama是一个开源的本地大语言模型运行框架,支持在本地机器上运行多种开源模型,如Llama、DeepSeek、Qwen等。 ,Ollama服务会自动启动。 列表中,选择Ollama。 6.常见问题Q1:Ollama服务无法启动? :OpenClaw无法连接到Ollama

    2.5K40编辑于 2026-03-31
  • 来自专栏.Net Core技术分享

    Ollama系列06:C#使用OllamaSharp集成Ollama服务

    本文是Ollama系列教程的第6篇,主要介绍如何通过SDK将ollama集成到c#程序中。 Ollama 提供了HTTP API的访问,如果需要使用SDK集成到项目中,需要引用第三方库OllamaSharp,直接使用nuget进行安装即可。 功能亮点 简单易用:几行代码就能玩转Ollama 值得信赖:已为Semantic Kernal、.NET Aspire和Microsoft.Extensions.AI提供支持 全接口覆盖:支持所有Ollama = new OllamaApiClient(uri); 获取模型列表 // list models var models = await ollama.ListLocalModelsAsync(); var chat = new Chat(ollama); Console.WriteLine(); Console.WriteLine($"Chat with {ollama.SelectedModel

    88210编辑于 2025-03-26
  • ollama指定目录安装

    ollama安装时候不能选择安装路径,只能默认安装C盘大概需要5GB空间,面对C盘没有多少的用户就很难装上去。 windows默认安装在C盘,不支持修改程序安装目录,可以在Windows终端中输入以下命令来自定义安装路径 在OllamaSetup.exe安装包文件路径下打开终端 D:\Ollama为安装的目标路径 OllamaSetup.exe /DIR="D:\Ollama" 自定义模型储存路径 在用户环境变量中添加一个OLLAM_MODELS环境变量来定义模型的储存位置

    2.8K00编辑于 2025-07-16
  • ollama安装初体验

    Ollama配置服务端口 编辑环境变量 配置端口 变量名称:OLLAMA_HOST 值: 0.0.0.0:8080 配置大模型本地存储路径 变量名称:OLLAMA_MODELS 值:D:\ollama \models 访问端口允许跨域 变量名称:OLLAMA_ORIGINS 值:* 配置环境变量后重启Ollama 常见ollama 属性设置   我们在平时使用ollama过程中会遇到不少问题,比如模型镜像加载在 模型操作命令 ollama serve:启动 Ollama 服务,是后续操作的基础。 ollama create:从模型文件创建模型,适用于自定义模型或本地已有模型文件的情况。 ollama pull: 从注册表中拉取模型,如ollama pull llama3,方便获取官方或其他来源的模型。 ollama push:将模型推送到注册表,便于共享模型。 ollama list:列出本地已有的模型,方便管理和选择。 ollama cp:复制模型,可用于备份或创建模型副本。 ollama rm:删除模型,释放存储空间。

    1.1K10编辑于 2025-07-16
  • 来自专栏leehao

    Ollama整合open-webui

    It supports various LLM runners, including Ollama and OpenAI-compatible APIs.

    52310编辑于 2025-02-11
  • ollama的setup.exe和ollama-windows-amd64.zip区别

    在Windows系统上,安装Ollama最为便捷的途径是利用OllamaSetup.exe安装程序。该程序无需管理员权限,即可在你的个人账户中顺利完成安装。 我们致力于不断更新Ollama,以确保其能够支持最新的模型,而该安装程序将助你轻松保持软件的最新版本。 若你有意将Ollama作为服务进行安装或集成,那么可以选择使用独立的ollama-windows-amd64.zip压缩包。 此压缩包内仅包含Ollama CLI以及Nvidia和AMD的GPU库依赖项,这为你提供了将Ollama嵌入现有应用程序中的灵活性,或者通过如ollama serve等工具,利用NSSM等服务管理器将其作为系统服务来运行

    1.4K00编辑于 2025-07-16
  • 来自专栏CodeGuide | 程序员编码指南

    教程】在Nas上部署Ollama,搭建DeepSeek、配置PageAssist AI、提供API调用

    docker-compose.yml 部署 ollama 脚本。 执行脚本 # docker compose -f docker-compose.yml up -d version: '3.8' services: ollama: # image: ollama : ollama restart: unless-stopped ports: - "11434:11434" 原始镜像 image: ollama/ollama:0.5.10 模型安装 - DeepSeek 你需要进入到 Ollama 管理后台执行安装模型脚本; # 拉取模型 ollama pull deepseek-r1:1.5b # 运行模型 ollama run deepseek-r1 1套源码课程、1套基础教程、1到云服务器教程以及各类场景解决方案。 小傅哥有那么多课程内容,我加入后都可以学习吗?可以! 从你加入开始,所有过往的课程和积累内容,你都可以学习。

    1K10编辑于 2025-08-11
  • 详细教程Ollama本地部署新版DeepSeek-R1,如何实现远程访问?

    本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek-R1,并借助贝锐花生壳内网穿透,轻松实现安全远程访问! 与传统的云端部署或端口映射远程访问方式相比,贝锐花生壳内网穿透技术不仅使得远程连接更为便捷,而且能够有效防止未授权用户擅自访问本地部署的Ollama,从而全方位保障 AI 资源的私密性和安全性。 一、利用Ollama一键本地部署Qwen3首先,访问Ollama官网,下载并一键安装Ollama客户端。 需要注意的是,Ollama默认仅开启本机访问权限(不允许外部或远程访问)。完成上述步骤后,你可以在本机通过命令行或者http请求进行访问,如果能够返回以下结果,就说明模型已经正常运行了。 open-webui --restart always ghcr.io/open-webui/open-webui:main如果希望通过其他方式部署,大家也可以自行查看Open WebUl github主页的教程

    2.3K30编辑于 2025-06-09
  • 来自专栏Java Tale

    Linux内网离线安装Ollama

    ://github.com/ollama/ollama/releases/ # x86_64 CPU选择下载ollama-linux-amd64 # aarch64|arm64 CPU选择下载ollama-linux-arm 离线下载Linux环境的Ollama安装脚本 保存到/home/Ollama目录 ## 下载地址1,浏览器中打开下面地址 https://ollama.com/install.sh ## 下载地址 <模型名称> ollama run qwen2:7b 关闭 Ollama 服务 # 关闭ollama服务 service ollama stop Ollama 常用命令 ## 启动Ollama服务 ollama serve ## 从模型文件创建模型 ollama create ## 显示模型信息 ollama show ## 运行模型 ollama run 模型名称 ## 从注册表中拉去模型 ollama pull 模型名称 ## 将模型推送到注册表 ollama push ## 列出模型 ollama list ## 复制模型 ollama cp ## 删除模型 ollama rm 模型名称 ## 获取有关Ollama

    12K12编辑于 2024-08-15
  • 来自专栏云技术与

    ollama 离线安装本地模型

    GitHub手动安装文档地址:https://github.com/ollama/ollama/blob/main/docs/linux.md 安装包下载地址:https://ollama.com/download "\ # "https://ollama.com/download/ollama-linux- # SUDO install -o0 -g0 -m755 TEMP_DIR/ollama # /ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment="PATH=$PATH" [Install] $SUDO rm -rf /usr/share/ollama/lib $SUDO chmod o+x /usr/share/ollama $SUDO install -o ollama -g ollama /download/ollama-linux-amd64-rocm.tgz${VER_PARAM}" \ | $SUDO tar zx --owner ollama --group ollama -

    1.6K10编辑于 2025-10-31
  • Ollama 常用命令

    Ollama 常用命令Ollama 是一个用于管理和运行大型语言模型的工具,提供了丰富的命令行接口(CLI),方便用户在本地环境中轻松地部署和运行各种模型。 以下是一些 Ollama 的常用命令及其用法:一、模型管理命令1. 列出本地模型ollama list显示本地存储的所有模型,包括模型名称、版本等信息。4. 查看模型信息ollama show <model_name>显示指定模型的详细信息,如版本、参数、大小等。 启动 Ollama 服务ollama serve启动 Ollama 服务器,使其开始监听请求并处理模型任务。2. 查看帮助信息ollama help显示 Ollama 支持的所有命令及其简要说明,帮助用户了解可用的功能。2. 查看版本信息ollama -v显示当前 Ollama 工具的版本信息。

    7K10编辑于 2025-03-11
  • 无需公网IP,内网穿透远程访问Ollama+Gemma3模型+Open WebUI教程

    本地部署Ollama搭配开源视觉模型Gemma3和Open WebUI,不仅可离线运行强大多模态大模型,还通过图形界面实现便捷交互,兼顾隐私、安全与易用性。 以下是在本地部署Ollama+Gemma3模型+Open WebUI的完整细化流程,适用于Windows环境,后续还可以结合贝锐花生壳进行内网穿透实现远程访问,而且无需公网IP、无需配置路由器,操作非常简单 一、如何用Ollama部署Gemma3模型?1.安装Ollama前往Ollama官网(ollama.com)下载安装包,一键安装,并启动Ollamaollama run gemma3二、如何用Docker安装安装OpenWebUI?1.安装Docker前往Docker官网(www.docker.com)下载安装包,一键安装,并启动Docer。 至此,从模型部署到图形化界面再到远程访问,一整套基于Ollama+Gemma3+Open WebUI的本地AI应用方案已经搭建完成。

    2.7K20编辑于 2025-06-30
  • 来自专栏nobody

    Ollama大模型入门指南

    前提条件 在开始之前,请确保你已经安装Ollama并下载qwen3:4b模型: 代码解析 import asyncio from ollama import AsyncClient # 创建异步客户端 ,连接本地 Ollama 服务 client = AsyncClient(host='http://localhost:11434') asyncdef chat(): # 构造用户消息 运行程序 你将看到类似以下的实时输出: 提示:如果看到连接错误,请确认 Ollama 服务是否正在运行(可在浏览器访问 http://localhost:11434 测试)。 LangChain连接 Ollama 准备 Python 环境 你需要安装 LangChain 的核心库以及专门用于连接 Ollama 的社区库。 pip install langchain langchain-community langchain-core langchain-ollama LangChain 连接 Ollama 基础用法 1

    21110编辑于 2026-03-16
  • 来自专栏AI模型部署实践

    HAI - Ollama 使用指南

    概述Ollama 是一款支持在本地运行多种开源大型语言模型,具有本地运行、开源模型支持、简化流程、高度定制且跨平台兼容等特性的软件平台。 环境配置Ubuntu20.04、Python 3.10、CUDA 11.7、cuDNN 8、Ollama 和 JupyterLab。 快速开始查看Ollama语言模型列表ollama list选择语言模型,启动ollamaollama run llama3:latest3. 查看运行结果。 Ollama 的运行结果示例图如下:Ollama 官方文档与资源Ollama 官方 使用文档。查看 Ollama 语言模型。

    1.3K10编辑于 2025-05-28
领券