首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏轩辕镜像

    LocalAI Docker 容器化部署指南

    LocalAI的核心优势在于其兼容性和部署灵活性:作为OpenAIAPI的替代品,现有基于OpenAIAPI开发的应用可无缝迁移至LocalAI;同时,其容器化部署方式简化了安装配置流程,降低了本地化部署的技术门槛 ,便于后续管理-p8080:8080:端口映射,将容器内8080端口映射到主机8080端口(实际部署时请根据轩辕镜像文档LOCALAI)https://xuanyuan.cloud/r/localai #限制使用4个CPU核心-p8080:8080\-v/opt/localai/data:/app/data\-v/opt/localai/models:/app/models\xxx.xuanyuan.run 参考资源官方文档与镜像资源轩辕镜像-LocalAI文档https://xuanyuan.cloud/r/localai/localai:轩辕镜像的本地化部署文档LocalAI镜像标签列表https:// xuanyuan.cloud/r/localai/localai/tags:查看所有可用版本标签LocalAI项目GitHubhttps://github.com/go-skynet/LocalAI:项目源代码和官方文档

    66310编辑于 2025-12-29
  • 开源免费本地AI神器,一键部署多模态大模型!

    LocalAI 是一款革命性的开源AI框架,专为本地化部署设计。 ", "content": "用Python写个快速排序"}] }'同类项目对比项目名称部署难度功能丰富度硬件要求社区生态LocalAI⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐Ollama⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐ ⭐LM Studio⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐GPT4All⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐产品优势:唯一支持多模态的本地化方案无需GPU加速的量化模型支持完整的OpenAI API兼容性活跃的开源社区(每月10 +次版本更新)企业级功能:联邦学习/P2P网络应用场景实例案例1:智能文档助手from langchain_community.llms import LocalAIllm = LocalAI(endpoint 三大核心优势: 零门槛部署:普通笔记本电脑即可运行百亿参数大模型 全功能覆盖:文本/语音/图像/视频处理一应俱全 高度可扩展:支持自定义模型和分布式集群适用人群:需要私有化部署AI能力的企业开发者对数据安全有严格要求的金融

    2.7K10编辑于 2025-03-31
  • 来自专栏信数据得永生

    django 1.8 官方文档翻译: 6-6-4 部署静态文件

    部署静态文件 另见 django.contrib.staticfiles 的用法简介,请参见管理静态文件(CSS、images)。 网站和静态文件位于同一台服务器上 如果你的静态文件和网站位于同一台服务器,流程可能像是这样: 将你的代码推送到部署的服务器上。 在一下的小节中,我们将演示一些示例的Fabric 脚本来自动化不同选择的文件部署。Fabric 脚本的语法相当简单,但这里不会讲述;参见Fabric 的文档 以获得其语法的完整解释。 一些常见的选择有: Nginx 裁剪版的Apache 配置这些服务器在这篇文档范围之外;查看每种服务器各自的文档以获得说明。 Django 文档协作翻译小组人手紧缺,有兴趣的朋友可以加入我们,完全公益性质。

    65140编辑于 2022-11-27
  • 来自专栏TCR实践

    Harbor边缘部署文档

    access_secret 仓库access_key 仓库状态 仓库状态 仓库名称 在Harbor中仓库的唯一ID 仓库credential类型 仓库access_secret 仓库access_key Harbor边缘部署文档 https://cedhub.com 配置持久化存储 使用hostPath 在Node上创建文件夹 mkdir -p /data/disks/{disk1-5G,disk2-5G,disk3-1G,disk4- - ReadWriteOnce persistentVolumeReclaimPolicy: Recycle hostPath: path: "/data/disks/disk4- , the following settings for database will # be ignored database: existingClaim: "disk4- tls.key /etc/docker/certs.d/yourdomain.com/ cp ca.crt /etc/docker/certs.d/yourdomain.com/ 使用边缘Harbor部署工作负载

    1.7K30编辑于 2022-03-06
  • 来自专栏开源部署

    MetaQ安装部署文档

    一.MetaQ安装部署情况: 地点 IP Broker ID Master/Slave Slave ID:Group 合肥 192.168.52.23 1 Slave 1:meta-slave-group-hf 部署 解压tar zxvfmetaq-server-1.4.6.2.tar.gz,将解压出来的taobao/metamorphosis-server-wrapper文件夹移动到/usr/lib下,并重命名为 l lib:metaq依赖的jar包 l provided: 开发者自己开发的程序 4. master/slave集群配置 使用异步复制架构。

    74410编辑于 2022-06-28
  • 来自专栏飞鸟的专栏

    Kafka集群部署文档

    /local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties & 现在,我们的Kafka集群已经成功部署了 现在,我们已经成功地部署了Kafka集群,并使用Kafka提供的命令行工具测试了它的功能。

    90030编辑于 2023-03-28
  • 来自专栏NLP/KG

    LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署LocalAI本地优化,Dify赋能应用开发

    LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署LocalAI本地优化,Dify赋能应用开发 1. 3.LocalAI 部署 LocalAI 是一个本地推理框架,提供了 RESTFul API,与 OpenAI API 规范兼容。 Dify 支持以本地部署的方式接入 LocalAI 部署的大型语言模型推理和 embedding 能力。 LocalAI API 服务部署完毕,在 Dify 中使用接入模型 在 设置 > 模型供应商 > LocalAI 中填入: 模型 1:ggml-gpt4all-j - 模型类型:文本生成 - 模型名称: LocalAI 更多信息,请参考:https://github.com/go-skynet/LocalAI 4.配置LLM+Dify(ollama ) 确认服务端口状态: netstat -tulnp

    3.1K11编辑于 2024-08-17
  • 来自专栏AI SPPECH

    2025年本地AI部署完全指南:从Ollama到vLLM的全方位实践教程

    3.2 使用Docker部署LocalAI Docker是部署LocalAI的推荐方式,它能够简化安装过程并确保环境的一致性。 5.1 GPT4All - 个人使用的轻量级解决方案 GPT4All是一个专注于个人用户的开源AI模型生态系统,提供了预训练的模型和简单的部署方式。 6.1 方案综合对比 特性 Ollama LocalAI vLLM GPT4All llama.cpp 部署难度 低 中 中高 低 中高 资源占用 中 中 高 低 低-中 推理性能 中 中 高 低 中 → llama.cpp 6.3 最佳实践建议 6.3.1 基于规模的选择 个人开发者:优先选择Ollama或GPT4All,部署简单,使用方便 小型团队:考虑LocalAI或Ollama集群,兼顾易用性和性能 AI部署的主流方案,从基础概念到高级应用,涵盖了Ollama、LocalAI、vLLM、GPT4All和llama.cpp等多个框架。

    14.7K31编辑于 2025-11-16
  • 来自专栏山行AI

    创建与任何事物聊天的私人ChatGPT-AnythingLLM

    你可以在本地运行,也可以远程托管,并能够智能地与你提供的任何文档进行交流。 AnythingLLM将你的文档分成被称为工作区的对象。工作区的功能类似于线程,但增加了对文档的容器化。 查询模式是针对你的文档的简单问答•聊天中的引用链接到原始文档来源和文本•简单的技术堆栈,便于快速迭代•100%云部署就绪•"自带你的LLM"模式•非常高效的成本节约措施,用于管理非常大的文档。 支持的LLM、嵌入器和向量数据库 支持的LLM: •任何开源llama.cpp兼容模型[1]•OpenAI[2]•Azure OpenAI[3]•Anthropic ClaudeV2[4]•LM Studio (所有模型)[5]•LocalAi (所有模型)[6] 支持的嵌入模型: •AnythingLLM原生嵌入器[7](默认)•OpenAI[8]•Azure OpenAI[9]•LM Studio (所有 openai.com/ [3] Azure OpenAI: https://azure.microsoft.com/en-us/products/ai-services/openai-service [4]

    4.4K10编辑于 2023-12-19
  • 来自专栏C++系列

    本地AI新选择:LocalAI如何实现低成本硬件也能轻松训练AI大模型

    在本文中,我将详细介绍如何使用Docker快速部署LocalAI,并结合cpolar内网穿透工具实现远程访问。无论你是技术新手还是有经验的老手,都能从中学到实用的知识和技巧! 安装cpolar内网穿透 不过我们目前只能在本地局域网内访问刚刚部署LocalAI来使用AI大模型聊天,如果想不在同一局域网内时,也能在外部网络环境使用手机、平板、电脑等设备远程访问与使用它,应该怎么办呢 9200端口即:【http://localhost:9200】访问Cpolar管理界面,使用Cpolar官网注册的账号登录,登录后即可看到cpolar web 配置界面,接下来在web 界面配置即可: 4. 如图所示,现在就已经成功实现使用公网地址异地远程访问本地部署LocalAI来用AI大模型聊天啦! 最后,我们使用固定的公网地址在任意设备的浏览器中访问,可以看到成功访问本地部署LocalAI Web UI页面,这样一个永久不会变化的二级子域名公网网址即设置好了。

    1.9K10编辑于 2025-02-14
  • 来自专栏飞鸟的专栏

    etcd集群原理,部署文档

    本文将介绍etcd集群的原理和部署文档。etcd集群原理etcd是一个强一致性的系统,它采用Raft协议作为一致性算法。 etcd集群部署文档etcd集群可以在多台服务器上部署,以保证高可用性。下面是etcd集群的部署文档:步骤1:安装etcd在所有节点上安装etcd,可以从etcd官网下载二进制文件进行安装。 shellCopy code$ sudo mkdir -p /var/lib/etcd步骤4:配置etcd集群在所有节点上创建etcd配置文件,指定etcd节点的IP地址、端口号、数据存储目录和集群配置 示例配置文件:perlCopy code# /etc/etcd/etcd.confname=node4data-dir=/var/lib/etcdinitial-advertise-peer-urls= 要部署etcd集群,需要在每个节点上安装etcd软件,并创建etcd配置文件,指定节点的IP地址、端口号、数据存储目录和集群配置。

    2K20编辑于 2023-03-27
  • 来自专栏cuijianzhe

    openstack系列- keystone部署文档

    id | gAAAAABdoFeqLzi8NPoEwyiFAdbUhnZjVFS8avXsns9eQRWBFlPbouQfZOizXhh_cYn7iLMDmsrhL-d-Bw6UfjB4tB-PnowYcxckWhN3hEFSfd0gGbu9SzK3HUyNfw1pGuJ3E67Wxy7E_NR8QRMVG4yuooO-H-Y71 -SCeNqAv1ak__xK4cBb54g | | project_id | 7728319b685d4e5fb8aa8c9274fcb4b5 | | id | gAAAAABdoFx-gay2U7zVQHXIrVY4tYHvUzKc3XyLaB6VPgpjKEY3PjOfzSe81Wo7OdqHR4bC_KyPgJLtvEiz-YY-l46drqRRADDql4 -I0Nf1sl2yfp7uaQNjokpJiRBi76JUhdpDEOMdeFEnLm3R0t4WO86a0fKDZIbkoM7ChKX4QkvoL7-6ce4 | | project_id | 4291d582710e407aa7abc46a64f2da57 -------------------------------------------------------------------+ ---- 标题:openstack系列- keystone部署文档

    1.3K10编辑于 2022-06-14
  • 来自专栏云深之无迹

    keli4使用文档

    而且网上的文档良莠不齐,自带的才是最好的 ? 我们先找到这个文件的地址,然后反编译成HTML C:\Keil\C51\Hlp ? 在这里就有很多的文档 ? /uv4.chm ? 就编译完成了,然后用chrome浏览器打开记忆可以了 ? 这个是内部文档的软件周期开发图 C/C++ 编译器和宏汇编器 源文件由 µVision IDE 创建并传递给 C 或 C++ 编译器或宏汇编器。编译器和汇编器处理源文件并创建可重定位的目标文件。

    1.1K20发布于 2021-06-25
  • 来自专栏晓晨的专栏

    IdentityServer4 实战文档

    一.前言 IdentityServer4实战这个系列主要介绍一些在IdentityServer4(后文称:ids4),在实际使用过程中容易出现的问题,以及使用技巧,不定期更新,谢谢大家关注。 这些问题、技巧都是博主在将IdentityServer4用于实际生产环境的经验总结。 目录 #1 基于角色的权限控制及Claim详解 #2 AccessToken 生命周期分析 (有坑必看) 3 必须使用HTTPS问题解析 5 Token加密和签名所用证书解析 (集群部署必看) 6 Token 颁发者Issuer解析 (集群部署必看) 7 API与IdentityServer的交互过程解析 (集群部署必看) 不能点击的是还未更新的

    87320发布于 2018-06-22
  • 来自专栏史上最简单的Spring Cloud教程

    docker官方文档翻译4

    article/details/80186178 本文出自方志朋的博客 个人博客纯净版:https://www.fangzhipeng.com/docker/2018/09/11/docker-trans4. 确保你的镜像可以部署为一个容器。 在第4部分中,将此应用程序部署到群集上,并在多台机器上运行它。 通过将多台机器连接到称为swarm的“Dockerized”群集,使多容器,多机器应用成为可能。 和之前一样,运行下面的命令在mym1机器上部署应用。 总结 在第4部分中,你了解了群体是什么,群体中的节点如何成为manager或workwer,创建群体并在其上部署应用程序。

    97630编辑于 2022-05-07
  • 来自专栏张善友的专栏

    Semantic Kernel 通过 LocalAI 集成本地模型

    今天我们就来看一看如何把SK 和 本地部署的开源大模型集成起来。我们使用MIT协议的开源项目“LocalAI“:https://github.com/go-skynet/LocalAILocalAI 使用 C++ 绑定来优化速度。 它基于用于音频转录的 llama.cpp、gpt4all、rwkv.cpp、ggml、whisper.cpp 和用于嵌入的 bert.cpp。 可参考官方 Getting Started 进行部署,通过LocalAI我们将本地部署的大模型转换为OpenAI的格式,通过SK 的OpenAI 的Connector 访问,这里需要做的是把openai 如第42行到46行代码所示,运行起来就可以体验下列的效果: 本文示例源代码:https://github.com/geffzhang/sk-csharp-hello-world 参考文章: Docker部署 LocalAI 实现本地私有化 文本转语音(TTS) 语音转文本 GPT功能 | Mr.Pu 个站博客 (putianhui.cn) LocalAI 自托管、社区驱动的本地 OpenAI API 兼容替代方案

    1.1K10编辑于 2024-01-26
  • 来自专栏运维之美

    Github 星标 14.6K: 一站式 AI 桌面应用 Anything LLM

    Anything LLM 是一个集成了 RAG 和 AI Agent 功能的 AI 桌面应用,它可以将多种格式的文档、网址或内容转化为上下文,以便与大型语言模型(LLM)交流时使用,支持本地运行或部署为服务供多人使用 查询模式则是是针对您的文档做简单问答 聊天中会提供所引用的相应文档内容 100% 云部署就绪 部署你自己的 LLM模型 管理超大文档时高效、低耗。 只需要一次就可以嵌入(Embedding)一个庞大的文档或文字记录。比其他文档聊天机器人解决方案节省 90% 的成本。 OpenAI (通用) Azure OpenAI Anthropic Google Gemini Pro Hugging Face (聊天模型) Ollama (聊天模型) LM Studio (所有模型) LocalAi 聊天模型) OpenRouter (聊天模型) Mistral Groq Cohere KoboldCPP 支持的嵌入模型 AnythingLLM原生嵌入器(默认) OpenAI Azure OpenAI LocalAi

    2.4K10编辑于 2024-06-13
  • 来自专栏Laoqi's Linux运维专列

    SubversionEdge部署研发团队文档管理

    为了提高公司办公效率,需要搭建一款文档分享server,windows可轻轻松松搭建一个文档服务器,但是为了配合研发同事的工作需要,综合考虑最终使用了Linux下的SVN作为首选。

    1.6K40发布于 2018-05-31
  • 来自专栏nginx

    从配置到实战:LocalAI+cpolar实现本地AI训练与跨平台访问全过程

    今天为您带来一套颠覆性的本地化部署方案——基于LocalAI的智能计算架构。这个开源项目能将普通PC升级为具备强大AI运算能力的终端设备,实现高效模型推理与多样化内容创作。 现在就让我们共同探索这套低成本、高效率的本地智能部署方案! 【视频教程】 支持CPU推理运行的开源AI神器LocalAI本地安装与远程使用教程 1. 9200端口即:【http://localhost:9200】访问Cpolar管理界面,使用Cpolar官网注册的账号登录,登录后即可看到cpolar web 配置界面,接下来在web 界面配置即可: 4. 如图所示,现在就已经成功实现使用公网地址异地远程访问本地部署LocalAI来用AI大模型聊天啦! 最后,我们使用固定的公网地址在任意设备的浏览器中访问,可以看到成功访问本地部署LocalAI Web UI页面,这样一个永久不会变化的二级子域名公网网址即设置好了。

    50010编辑于 2025-11-16
  • 来自专栏SerMsBlog

    BMP项目部署参考文档

    后台代码部署 前言: 需要环境有,JDK1.8,Maven3.8,Mysql8.0,Redis,Tomcat(自己百度安装),本项目内不含该服务部署 如有细微不同之处,会一对一进行讲诉 打开idea 找到application配置文件,修改数据库端口号、数据库名称、用户名、密码 随后即可点击运行按钮运行此工程 数据库部署 新建数据库,导入项目包里的sql文件即可,太基础这里不做讲解 前台工程项目部署

    1.3K10编辑于 2022-11-22
领券