最近要用到 AI 绘画,所以研究了下目前市面上的 AI 绘画工具,真可谓是琳琅满目,但主流的还是 Stable diffusion 和 Midjourney 两大阵营。 树先生总结了目前使用 Stable diffusion 的几种不同姿势,还没上车的朋友们快跟着我一起上车吧~SD 镜像网站推荐指数:★☆☆☆☆适用人群:浅尝辄止地体验玩家如果你只想浅尝辄止地体验一下 AI 云服务器推荐指数:★★★★☆适用人群:本地电脑无法运行 Stable diffusion 的玩家如果你本地电脑不满足安装 Stable diffusion 的条件,可以考虑使用云服务器,现在很多云服务器厂商都自带了 github.com/AUTOMATIC1111/stable-diffusion-webui.gitcd stable-diffusion-webuigit checkout a9fed7c364061ae6efb37f797b6b522cb3cf7aa2mkdir 本地安装推荐指数:★★★★★适用人群:本地电脑可以运行 Stable diffusion 的玩家安装环境要在本地顺利运行 Stable diffusion,需要满足如下条件:操作系统 win10 以上内存
本文为你精选出 6 款适合本地运行 LLM(如 DeepSeek R1)的优秀工具。 像 LM Studio[3] 这样的工具,在本地运行 LLM 时不会收集用户数据,也不会追踪用户的操作行为。它能确保你的所有聊天数据都保留在本地计算机上,不会被共享给任何 AI/机器学习服务器。 目前,多个本地 LLM 工具均支持 Mac、Windows 和 Linux 平台。以下是我们为你精选的六款最佳本地运行工具: 1. 在前文提到的所有开源本地 LLM 工具中,Ollama 拥有最多的贡献者,且具备更强的可扩展性。 6. •支持前端 AI 工具(Frontend AI Tools): LLaMa.cpp 支持多种开源的 LLM 可视化 UI 工具,例如: MindWorkAI/AI-Studio[31](基于 FSL-1.1
得益于人工智能(AI)技术的飞速进步,如今程序员们有了众多 AI 辅助工具可供使用,这些工具能让编程工作变得更加迅速、简便和高效。 在这篇博客[1]文章里,我们会详细地研究一些目前最适合程序员使用的 AI 工具。我们会深入了解这些工具的主要功能,探讨它们是如何助力工作效率提升的,以及为何你应该考虑将它们应用到你的开发工作中去。 Tabnine Tabnine 是另一款基于 AI 的代码补全工具,能够无缝融入你的集成开发环境(IDE)。 6. DeepCode DeepCode 是一款基于 AI 的代码审查工具,利用机器学习技术分析代码,帮助开发者发现代码中的错误、安全漏洞和质量问题,并提供优化建议。 总结 AI 工具正在深刻改变开发者的工作方式,让编码变得更快速、高效且精准。
MCP(Model Context Protocol)的出现,就是为了给AI装上眼睛和手。它是一个标准接口,让AI能够安全地连接到本地工具、数据库和API。 有了它,AI不再是只会纸上谈兵的聊天机器人,而是能直接读取文档、查询数据、甚至执行部署的工程师。为了避免AI在项目里胡作非为,这里推荐6款能显著提升代码可用性的MCP工具。 AI最容易瞎编的就是SQL语句和表字段名。通过PostgreSQL MCP,AI以只读权限连接到本地或测试数据库。 对于开发者来说,为了用一个工具,先把本地的Node版本折腾一遍,再解决Python的依赖冲突,这本身就很劝退。但没关系,办法总比困难多,比如我们直接用Servbay。 AI是为了提高效率,工具也是。通过 MCP 连接业务,通过 ServBay 搞定环境,把复杂的配置留给工具,把时间留给真正的创造。你用过哪些好用的MCP,分享一下吧~
6个超实用的AI小工具 BGM:鬼火の童・鬼切、虎徹にございます! 今天学习的AI实用小工具,分分钟帮我们提高666倍工作效率,让我们听着这首欢快魔性的小曲儿一起去认识它们吧! 01 矩形网格工具 藏在“直线段工具”下的一键绘制网格神器。 右键点击“直线段工具”选择“矩形网格工具”,在画板上按住鼠标左键拖动,绘制矩形网格。 06 吸管工具 划重点了:在PS里面,吸管工具只能用来吸色,如果你以为在AI里面它还是只能吸色,那你就OUT了! AI的吸管工具可以吸取字体样式: 还可以吸取渐变效果: 吸色的时候,按住Shift键,可以只吸取部分颜色效果。 链接: https://pan.baidu.com/s/1kViocBH 密码:vng6
AI大模型本地化部署涉及一系列工具和框架,它们旨在简化部署流程、优化性能并确保兼容性。以下是一些关键工具和框架。1. 本地部署工具:Ollama: 一个轻量级的AI推理框架,支持本地运行LLM(大型语言模型)。它使得在本地运行大型语言模型变得非常简单。 LocalAI: 一个开源的本地AI推理引擎,它兼容OpenAI API,可以让你在本地运行各种AI模型。PrivateGPT: 专注于隐私的本地AI解决方案,允许用户在本地安全地查询文档。3. 选择工具和框架的注意事项:硬件兼容性: 确保所选工具和框架与本地硬件兼容。模型格式: 验证工具是否支持要部署的模型格式。性能要求: 根据应用需求,选择提供所需性能水平的工具。 易用性: 考虑工具的易用性和文档,以简化部署和维护。通过利用这些工具和框架,开发者可以更有效地将AI大模型部署到本地环境,从而实现各种应用场景。
com.github.benmanes.caffeine.cache.Caffeine; import java.util.concurrent.TimeUnit; import java.util.concurrent.locks.ReentrantLock; /** * 本地锁工具类 key一把锁 */ public class LockUtil { private LockUtil() { throw new IllegalStateException("工具类禁止实例化
ChatGLM-6B 简介 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。 结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。 值得注意的是在 Windows 环境安装 cuda toolkit 前需要先安装 VC++构建工具,图省事的话可以只安装Visual C++生成工具,然后安装最新版本的 VC++与 Window SDK 模型 直接通过 git clone 将 ChatGLM-6B 仓库克隆到本地。 使用 web ui 我直接从官方仓库下载了web demo的代码,然后在本地运行。 需要对 web_demo.py 进行一些修改,同样使用 int4 量化级别。
前言2026 年开源圈热门的本地自动化 AI 工具 OpenClaw,凭借本地运行、零代码操作、自动化执行的核心特性收获大量技术用户认可,它并非普通的聊天 AI,而是能通过自然语言指令操控电脑的自动化工具 后续还将持续更新 OpenClaw 技能扩展、本地大模型接入、办公工具联动等进阶内容,助力深度挖掘工具价值。 一、OpenClaw(小龙虾)核心优势 OpenClaw 能成为热门的开源 AI 自动化工具,核心在于解决了技术门槛高、隐私无保障、功能适配性差等使用痛点,兼顾小白用户和技术开发者的使用需求:✅ 本地运行 **:配置本地大模型,实现 OpenClaw 离线运行,进一步提升数据隐私性; - **办公工具联动**:实现 OpenClaw 与微信、飞书、Slack 等办公工具的深度联动,随时随地远程下达自动化指令 promoCode=IVB807603D98觉得本教程实用的话,欢迎点赞 + 收藏 + 关注,后续将持续分享 OpenClaw 进阶玩法和使用技巧,让本地 AI 智能体成为你的高效办公助手!
在AI工具竞争白热化的今天,一款名为爱派(AIPY)的本地AI工具悄然完成重磅升级,其最新版本带来的功能革新让众多依赖云端服务的AI工具相形见绌! ✔ 端到端加密:即使用户选择云端存储,所有数据在上传前都会在本地完成加密,确保即使云端管理员也无法查看您的内容。 为什么说爱派碾压云端工具? 零延迟响应:作为本地AI工具,爱派的所有基础运算都在您的设备上完成,告别云端工具的网络延迟。离线工作能力:无网络环境?没问题!爱派的核心功能完全不依赖互联网连接。 博主实测体验作为首批体验者,我必须说这次更新彻底改变了我使用AI工具的方式。 这次更新不仅没有削弱其本地AI的核心优势,反而通过精心设计的云端协同功能,让工具变得更加实用而强大。您更倾向于完全本地的AI工具,还是可以接受可控的云端协同? 欢迎在评论区分享您的观点!
使用.NET Core 3.0,您可以在特定的文件夹下安装“本地”工具,它的作用范围仅限于该文件夹及其子文件夹。 .NET Core 3.0 本地工具 打开Visual Studio的Package Manager Console(Powershell或者其它终端也可以),在安装本地工具之前,首先要创建一个本地工具清单文件 由于Cake.Tool是本地安装的,运行本地工具需要在前边加上dotnet: ? 这样就可以了。 其实上面那种写法是下面写法的简写: ? 也可以这样写: ? 此外,在工具安装目录的子目录里也可以使用这个工具。 共享本地工具 我们可以把.config目录提交到源码管理,这样的话,其它开发者也可以使用安装的本地工具了。 这些工具实际是安装在全局nuget包缓存里,如果第一次运行的时候没有安装工具的包,那么你需要先执行 dotnet tool restore 进行还原,然后才可以使用这些本地工具。
工具内置了两个模型PP-Matting和PP-MattingV2,由于需要批量抠图,原本是想用MODNet的,可惜最新的模型官方不开源,旧模型扣的人物边缘有白边。最后发现了PP飞桨。 软件截图 说明 1、工具应解压到非中文路径,含中文的路径必出错。 2、完整解压后,运行main.exe。将单个/多个图片拖入工具,等待提示完成后,在运行目录下的out目录内可找到扣好的图片。 2、如果使用精度优先,等待时间会比较长 3、工具使用CPU版的PaddlePaddle,非GPU版本 此工具模型仅适合抠人像,不建议抠物 测试效果 左边是抠图后的png,右边是原图。 传到博客来后图片有压缩) 发丝效果处理的还不错,我测试的这张图由于发色跟背景色有些相似,部分地方的发丝没抠好,如果大家处理的图片效果不是太好的话可以自行放到PS里再修一下 下载地址 {cloud title="AI
主流本地化AI编程工具横向评测(2025)1. 腾讯云AI代码助手 CodeBuddy(推荐指数 ★★★★☆)本地化支持:提供VS Code/JetBrains全系插件,支持离线代码补全(需定期联网更新模型)核心技术指标:响应延迟<300ms(本地环境实测 百度文心快码 Comate AI IDE(推荐指数 ★★★★)架构特性:多智能体协同框架(Zulu Agent),支持设计稿转代码、MCP工具调用实测数据:复杂任务分解准确率92.5%(如生成俄罗斯方块游戏 开源方案 ChromeMCPServer核心技术:通过MCP协议实现浏览器级自动化优势场景:网页操作自动化(表单填充↑300%效率)本地数据处理(零数据外传)缺陷:仅限Web开发场景,无传统IDE支持关键维度对比表工具 Zulu Agent在多文件协同生成场景错误率↓27%(对比单模型方案)敏捷迭代需求:Trae的混合架构在代码补全场景节省19%耗时(IDC 2025编程工具报告)技术趋势:2025年主流工具均采用 "
每一个新工具、新应用,就像一盏明灯,指引着我们继续前行。你是不是也在纠结:哪些AI工具才是真正值得一试的呢?这些AI工具不仅能提高工作效率,还能激发你的创造力,让你在职场和生活中更加自如。 别担心,我为你挑选了2024年绝不能错过的6大AI工具,每一个都是精挑细选,绝对实用高效。现在,就让我们一起揭开它们的神秘面纱吧! 操作也很简单:先选好你的专业方向,再确定研究主题,然后匹配相关标签信息,设置好学习阶段和目标字数,点一下“规划大纲”,几秒钟内就会生成一个包含6到8个章节的大纲建议。 宙语Cosmos AI写作工具宙语Cosmos AI专为中文写作设计,是一款超智能的AI工具,能生成高质量的中文内容。 这款高效的AI工具不仅改善了用户的数据处理体验,还提高了工作效率,让原本复杂的任务变得轻松快捷。随着我们深入了解这些AI工具,你是否感受到了它们带来的便利与高效?
如果你遇到了一些特定的问题,或者你仅仅是希望在一个很短的时间内监控你 Confluence 的运行,你可以使用本地监控。 本地监控将会对你的服务器性能产生影响,所以我们并不推荐你使用本地监控来长时间的监控你运行的 Confluence 实例。 启动本地监控: 启动 JConsole (你可以在 JDK 安装目录中找到了启动需要的 bin)。 选择 本地进程(Local Process)。 选择 Confluence 进程。 这个进程被命名为 org.apache.catalina.startup.Bootstrap start 请参考 Using JConsole 来获得有关本地监控的更多有用信息。 https://www.cwiki.us/display/CONF6ZH/Live+Monitoring+Using+the+JMX+Interface
本地环境 系统:Ubuntu 24.04 显卡:NVIDIA Corporation GA106 GeForce RTX 3060 Lite Hash Rate (rev a1) (prog-if 00 更新系统软件包 sudo apt-get upgrade 安装ssh sudo apt install openssh-server sudo apt install openssh-client 安装必要工具 镜像网站下载方法可以参考它的首页https://hf-mirror.com/介绍 采用方法2 huggingface-cli huggingface-cli 是 Hugging Face 官方提供的命令行工具 ('MODEL_PATH', '/usr/local/app/ai/chatglm3-6b') client 命令行demo conda install gpustat # 如果有必要 python /usr/local/app/ai/ChatGLM3/basic_demo/cli_demo.py 基于 Gradio 的网页版 demo python /usr/local/app/ai/ChatGLM3
ChatGLM-6B是由清华大学和智谱AI开源的一款对话语言模型,基于 General Language Model (GLM)架构,具有 62亿参数。 本篇将介绍使用DAMODEL深度学习平台部署ChatGLM-6B模型,然后通过Web API的形式使用本地代码调用服务端的模型进行对话。 由于要使用本地模型启动,所以我们需要把从Hugging Face Hub加载改为本地路径加载,打开cli_demo.py和web_demo.py文件,将这两行代码改为从本地文件目录加载预训练模型。 2.1、启动服务通过以上步骤,我们成功启动了ChatGLM-6B模型,并可以在服务器的JupyterLab中进行对话,下面我们将其部署为API服务,然后在本地进行使用。 2.4、本地代码使用功能测试完成后,下面开始转到本地开发,以下是一个基础的单轮对话功能示例代码:暂时无法在飞书文档外展示此内容在此基础上,我们可以实现一个基于ChatGLM-6B模型的简单对话系统,在本地通过命令行与
1.Modified webui-user.sh,add those flags to the file
简介 LaZagne project 是一款用于检索大量存储在本地计算机上密码的开源应用程序。 每款软件他们保存密码的方法或许不尽相同(明文,API,算法,数据库等等),我开发这款工具的目的是为了寻找计算机中最常用软件的密码。 截至目前,该工具支持Windows上的22款软件,Linux/Unix-Like OS上的12款软件。 ?
CloudMounter Mac版是一款强大的云盘本地加载工具,用于将云存储和Web服务器作为本地磁盘安装到Mac。 下载:CloudMounter Mac版 在Mac上将云驱动器装载为本地磁盘 CloudMounter是一个可靠的系统实用程序,用于将云存储和Web服务器作为本地磁盘安装到Mac。