首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >Ollama大模型入门指南

Ollama大模型入门指南

作者头像
nobody-nobody
发布2026-03-16 21:11:35
发布2026-03-16 21:11:35
1500
举报
文章被收录于专栏:nobodynobody

前提条件

在开始之前,请确保你已经安装Ollama并下载qwen3:4b模型:

代码解析

代码语言:javascript
复制
import asyncio
from ollama import AsyncClient

# 创建异步客户端,连接本地 Ollama 服务
client = AsyncClient(host='http://localhost:11434')

asyncdef chat():
    # 构造用户消息
    message = {'role': 'user', 'content': '你好,如何入门大模型学习'}
    
    # 发起流式聊天请求
    asyncfor part inawait client.chat(
        model='qwen3:4b', 
        messages=[message], 
        stream=True
    ):
        # 实时打印模型返回的内容片段
        print(part['message']['content'], end='', flush=True)

# 运行异步主函数
asyncio.run(chat())

关键点说明

  • AsyncClient:Ollama 提供的异步客户端,适合在高并发或非阻塞场景中使用。
  • stream=True:启用流式输出。模型会逐字(或逐词元)返回响应,而不是等待全部生成完毕。这对于提升用户体验(如聊天机器人)非常重要。
  • async for:用于异步迭代流式响应。每次循环获取一个数据块(chunk)。
  • flush=True:确保每个字符立即输出到终端,避免缓冲延迟。

运行程序

你将看到类似以下的实时输出:

代码语言:javascript
复制


💡 提示:如果看到连接错误,请确认 Ollama 服务是否正在运行(可在浏览器访问 http://localhost:11434 测试)。

LangChain连接 Ollama

准备 Python 环境

你需要安装 LangChain 的核心库以及专门用于连接 Ollama 的社区库。

代码语言:javascript
复制
pip install langchain langchain-community langchain-core langchain-ollama

LangChain 连接 Ollama 基础用法

1. 初始化模型

创建一个简单的 Python 脚本(例如 main.py):

代码语言:javascript
复制
from langchain_ollama import ChatOllama
from langchain_core.messages import HumanMessage

# 初始化 Ollama 模型
# base_url 默认为 http://localhost:11434,如果修改了端口需在此指定
llm = ChatOllama(
    base_url="http://localhost:11434",
    model="qwen3:4b",  # 确保这里的名字和你 ollama pull 的名字一致
    temperature=0.7,
)

# 发送消息
messages = [HumanMessage(content="你好,如何入门大模型")]
response = llm.invoke(messages)

print(response.content)

2. 流式输出 (Stream)

为了让体验更像 ChatGPT,可以使用流式输出:

代码语言:javascript
复制
for chunk in llm.stream("写一首关于春天的短诗"):
    print(chunk.content, end="", flush=True)

整体源码:

代码语言:javascript
复制

from langchain_ollama import ChatOllama


# 初始化 Ollama 模型
# base_url 默认为 http://localhost:11434,如果修改了端口需在此指定
llm = ChatOllama(
    base_url="http://localhost:11434",
    model="qwen3:4b",  # 确保这里的名字和你 ollama pull 的名字一致
    temperature=0.7,
)
for chunk in llm.stream("如何入门大模型"):
    print(chunk.content, end="", flush=True)
    

总结

通过 Ollama 提供本地推理能力,配合 LangChain 的能力,你可以轻松构建出:

  • 本地知识库问答系统 (RAG)
  • 个人数据分析助手
  • 离线代码辅助工具
  • 隐私安全的聊天机器人
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-03-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 认知科技技术团队 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前提条件
  • 代码解析
    • 关键点说明
    • 运行程序
  • LangChain连接 Ollama
    • 准备 Python 环境
    • LangChain 连接 Ollama 基础用法
      • 1. 初始化模型
      • 2. 流式输出 (Stream)
  • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档