

近日,ollama 发布了 v0.12.10 版本(发布日期:2025年11月7日),本次更新在功能与性能方面均有提升。其中最重要的亮点是 ollama run 现已支持运行 embedding 模型,用于从文本生成向量嵌入。同时,多个针对性能与稳定性的改进也被加入本版本。本文将详细解析 v0.12.10 的主要更新内容。
在 v0.12.10 中,ollama run 命令不仅能运行传统的推理模型,还可以直接运行 embedding 模型,从文本生成对应的向量嵌入。
示例用法:
ollama run embeddinggemma "Hello world"该功能还支持通过标准输入提供内容,例如:
echo "Hello world" | ollama run embeddinggemma这一改动使得向量化处理文本的流程更加简洁、高效,便于在搜索、推荐、语义匹配等应用中直接使用生成的 embeddings。
qwen3-vl:235b 和 qwen3-vl:235b-instruct 模型时出现的错误,提升了相关视觉-语言模型的稳定性。/api/chat 接口在调用工具(Tool)时,现在会返回 Tool Call ID,便于开发者在多工具调用场景下进行跟踪和管理。ollama v0.12.10 的更新重点在于:
ollama run 现在可以直接运行 embedding 模型,为文本向量化提供了高效途径。我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。