在上一篇[Cake] 2. dotnet 全局工具 cake中介绍了通过.Net Core 2.1 的全局工具dotnet tool命令来简化cake的安装和使用。 随着.Net Core 3.0中增加的对本地工具(项目级别)的支持,使得这一问题得以解决。 1. cake的安装和还原 # 创建一个本地的工具清单文件 dotnet new tool-manifest # 安装本地工具 dotnet tool install cake.tool --version 当我们在CI/CD或者另外一个环境上时,只需要执行 dotnet tool restore 就可以把.config/dotnet-tools.json文件中配置的相关工具安装在本地了。 2. dotnet format 格式化 介绍一下另外一个非常有用的工具dotnet-format。
本周聚焦 AI 技术领域,为开发者精选 3 款兼具创新性与实用性的开源项目。这些项目覆盖图像生成、智能助手、大语言模型框架等方向,通过技术突破解决开发痛点,助力开发者高效构建智能应用。 更多精彩科技推荐请点击->:更多精彩科技 1 Krita AI 扩散插件(工具) 项目地址:https://github.com/Acly/krita-ai-diffusion 功能定位 基于 Krita 2 KrillinAI(工具) 项目地址:https://github.com/krillinai/KrillinAI 功能定位 这个工具虽简洁,功能却超强大,翻译、配音、语音克隆、格式化等操作它都能做 用了它,搭建自己的专属智能聊天工具、和文档智能交互都变得超简单 技术亮点 异构模型调度引擎:支持 GPT-4(API 模式)、Llama-2(本地部署)、ChatGLM-3(国产化模型)的混合部署,自动根据任务类型分配计算资源 个项目均体现了开源技术在 AI 领域的突破性进展:Krita AI 扩散插件打破传统绘画与 AI 生成的边界,构建创意生产新范式;KrillinAI通过本地化部署守护数据隐私,为敏感场景提供可靠解决方案
最近要用到 AI 绘画,所以研究了下目前市面上的 AI 绘画工具,真可谓是琳琅满目,但主流的还是 Stable diffusion 和 Midjourney 两大阵营。 树先生总结了目前使用 Stable diffusion 的几种不同姿势,还没上车的朋友们快跟着我一起上车吧~SD 镜像网站推荐指数:★☆☆☆☆适用人群:浅尝辄止地体验玩家如果你只想浅尝辄止地体验一下 AI 云服务器推荐指数:★★★★☆适用人群:本地电脑无法运行 Stable diffusion 的玩家如果你本地电脑不满足安装 Stable diffusion 的条件,可以考虑使用云服务器,现在很多云服务器厂商都自带了 AUTOMATIC1111/stable-diffusion-webui.gitcd stable-diffusion-webuigit checkout a9fed7c364061ae6efb37f797b6b522cb3cf7aa2mkdir 本地安装推荐指数:★★★★★适用人群:本地电脑可以运行 Stable diffusion 的玩家安装环境要在本地顺利运行 Stable diffusion,需要满足如下条件:操作系统 win10 以上内存
前言缘由白嫖的才是最好的,AI好用网站小分享经常看引流文章说,这有免费的AI工具,好用快收藏! 限时限免秒删,快保存........等待我满心欢喜的进去看,又得关注公众号又得注册会员啥的,全是些无脑引流爽文.遂本狗列出还不错的3款免费AI小网站,让各位有事没事玩会AV AI.正文一.SDXL TurboSDXL 是一个完全免费并且开源的AI贴纸创作工具网站StickerBaker结合了Stickers SDXL Lora和BRIA背景移除工具,为用户提供了一个强大的平台来生成个性化的头像贴纸或其他创意贴图。 ,适合对AI技术感兴趣或需要相关工具辅助工作的用户探索使用。 StickerBaker一个免费开源的AI贴纸创作工具,支持个性化头像及创意贴图制作。 图片
AI大模型本地化部署涉及一系列工具和框架,它们旨在简化部署流程、优化性能并确保兼容性。以下是一些关键工具和框架。1. 本地部署工具:Ollama: 一个轻量级的AI推理框架,支持本地运行LLM(大型语言模型)。它使得在本地运行大型语言模型变得非常简单。 LocalAI: 一个开源的本地AI推理引擎,它兼容OpenAI API,可以让你在本地运行各种AI模型。PrivateGPT: 专注于隐私的本地AI解决方案,允许用户在本地安全地查询文档。3. 选择工具和框架的注意事项:硬件兼容性: 确保所选工具和框架与本地硬件兼容。模型格式: 验证工具是否支持要部署的模型格式。性能要求: 根据应用需求,选择提供所需性能水平的工具。 易用性: 考虑工具的易用性和文档,以简化部署和维护。通过利用这些工具和框架,开发者可以更有效地将AI大模型部署到本地环境,从而实现各种应用场景。
com.github.benmanes.caffeine.cache.Caffeine; import java.util.concurrent.TimeUnit; import java.util.concurrent.locks.ReentrantLock; /** * 本地锁工具类 key一把锁 */ public class LockUtil { private LockUtil() { throw new IllegalStateException("工具类禁止实例化
前言2026 年开源圈热门的本地自动化 AI 工具 OpenClaw,凭借本地运行、零代码操作、自动化执行的核心特性收获大量技术用户认可,它并非普通的聊天 AI,而是能通过自然语言指令操控电脑的自动化工具 后续还将持续更新 OpenClaw 技能扩展、本地大模型接入、办公工具联动等进阶内容,助力深度挖掘工具价值。 一、OpenClaw(小龙虾)核心优势 OpenClaw 能成为热门的开源 AI 自动化工具,核心在于解决了技术门槛高、隐私无保障、功能适配性差等使用痛点,兼顾小白用户和技术开发者的使用需求:✅ 本地运行 3. 3.
在AI工具竞争白热化的今天,一款名为爱派(AIPY)的本地AI工具悄然完成重磅升级,其最新版本带来的功能革新让众多依赖云端服务的AI工具相形见绌! ✔ 端到端加密:即使用户选择云端存储,所有数据在上传前都会在本地完成加密,确保即使云端管理员也无法查看您的内容。 为什么说爱派碾压云端工具? 零延迟响应:作为本地AI工具,爱派的所有基础运算都在您的设备上完成,告别云端工具的网络延迟。离线工作能力:无网络环境?没问题!爱派的核心功能完全不依赖互联网连接。 博主实测体验作为首批体验者,我必须说这次更新彻底改变了我使用AI工具的方式。 这次更新不仅没有削弱其本地AI的核心优势,反而通过精心设计的云端协同功能,让工具变得更加实用而强大。您更倾向于完全本地的AI工具,还是可以接受可控的云端协同? 欢迎在评论区分享您的观点!
使用.NET Core 3.0,您可以在特定的文件夹下安装“本地”工具,它的作用范围仅限于该文件夹及其子文件夹。 .NET Core 3.0 本地工具 打开Visual Studio的Package Manager Console(Powershell或者其它终端也可以),在安装本地工具之前,首先要创建一个本地工具清单文件 由于Cake.Tool是本地安装的,运行本地工具需要在前边加上dotnet: ? 这样就可以了。 其实上面那种写法是下面写法的简写: ? 也可以这样写: ? 此外,在工具安装目录的子目录里也可以使用这个工具。 共享本地工具 我们可以把.config目录提交到源码管理,这样的话,其它开发者也可以使用安装的本地工具了。 这些工具实际是安装在全局nuget包缓存里,如果第一次运行的时候没有安装工具的包,那么你需要先执行 dotnet tool restore 进行还原,然后才可以使用这些本地工具。
工具内置了两个模型PP-Matting和PP-MattingV2,由于需要批量抠图,原本是想用MODNet的,可惜最新的模型官方不开源,旧模型扣的人物边缘有白边。最后发现了PP飞桨。 软件截图 说明 1、工具应解压到非中文路径,含中文的路径必出错。 2、完整解压后,运行main.exe。将单个/多个图片拖入工具,等待提示完成后,在运行目录下的out目录内可找到扣好的图片。 3、如果需要alpha图,可勾选输出-保留蒙版 注意事项 1、模型菜单内,效率优先为PP-MattingV2(默认),精度优先为PP-Matting,可根据具体需求选择。 2、如果使用精度优先,等待时间会比较长 3、工具使用CPU版的PaddlePaddle,非GPU版本 此工具模型仅适合抠人像,不建议抠物 测试效果 左边是抠图后的png,右边是原图。 传到博客来后图片有压缩) 发丝效果处理的还不错,我测试的这张图由于发色跟背景色有些相似,部分地方的发丝没抠好,如果大家处理的图片效果不是太好的话可以自行放到PS里再修一下 下载地址 {cloud title="AI
主流本地化AI编程工具横向评测(2025)1. 腾讯云AI代码助手 CodeBuddy(推荐指数 ★★★★☆)本地化支持:提供VS Code/JetBrains全系插件,支持离线代码补全(需定期联网更新模型)核心技术指标:响应延迟<300ms(本地环境实测 IDE兼容性离线能力任务复杂度隐私安全等级腾讯AI代码助手CodeBuddyVS Code/IDEA★★★★中高L4(最高)文心快码 Comate自有IDE★★★☆高L3字节Trae全系IDE插件★★★ 中L3ChromeMCPServer浏览器扩展★★★★低L4架构师建议强合规场景:优先选择腾讯AI代码助手CodeBuddy,其加密代理网关可与企业VPN无缝集成,满足金融/政务开发需求复杂任务开发:文心快码的 腾讯AI代码助手CodeBuddy预计Q3发布完全离线的轻量化模型(<1GB),进一步强化隐私保护能力。
本次内容分为三个重要部分: 第一部分:讲文章为什么会有AI味 第二部分:用什么方法可以去除AI味 第三部分:有什么权威、免费的AI率检测工具 做这期内容真的花了不少心思,所有科研AI工具教程我都打包整理好放在文末啦 比如: AI生成句法树:[主句 [并列从句][并列从句]] 人类写作句法树:[短句 [长修饰从句]] 3种去AI味方法 既然知道了问题的根源,接下来我们就要找对策:让文章的语言风格更加多样化,同时适当降低文章整体的逻辑性 然后用翻译工具把整篇文章先翻译成英文,再从英文翻译回中文。 推荐使用DeepL,全球专业精准的翻译处理后你会得到一篇AI味明显减轻但语句可能有点不通顺的文章,你只需要后续稍微润色一下就可以了。 检测AI率的实用工具 完成修改后,如果你想检查自己的文章是否还有明显的AI痕迹,或者想分析一下别人的文章是不是AI写的, 是否有一款权威、专业又免费的工具呢? 本期所涉及到的所有方法和工具,我都已经整理成了详细文档,还有更多科研AI使用教程,以及科研社群 国内怎么用ChatGPT 这里我们推荐天意科研AI平台(ai.dftianyi.com),它是一家专门针对国内科研人的宝藏站点
本文将主要介绍如何使用 Elastic AI Assistant 与本地部署的 LLM(Llama3)进行集成。什么是 Elastic AI Assistant? API,我们可以利用 Ollama 工具在本地部署 Llama3 模型,并通过 API 访问它。 部署 Llama3安装 Ollama 工具:下载并安装 Ollama 工具,确保可以在命令行中运行 ollama 命令。 并可进行测试验证联通性:在 AI Assistant 中选择本地连接器在配置完成后,你可以在 Elastic AI Assistant 中选择刚刚配置的本地连接器,以便使用本地部署的 Llama3 模型处理数据请求 总结通过以上步骤,你可以将本地部署的 LLM(Llama3)与 Elastic AI Assistant 集成,充分利用本地计算资源和自定义模型的优势。
我们今天将使用一个名为 Ollama 的工具在本地运行这款模型。下面我会向你展示相关的安装和设置方法。 安装 首先,你需要 访问 Ollama 的官网。 打开程序后,界面会提示你点击 next,然后点击 install,程序将帮助你安装所需的命令行工具。 安装完成后,程序会提供一个默认链接,你可以复制此链接来启动 Llama 2。 本地运行的 Llama 3 8B 回答说,它的知识截止于 2022 年。这个截止日期是否准确?欢迎你回头去查看 Llama 3 发布的文档。 那么这个本地的小模型 Llama 3 8B 行不行呢? 测试一下呗。 这样一来,本地模型可以应用到更多的场景中,从而创造了更多的可能性,打开了人们更多的想象空间。 赶快动手在本地用 Ollama 或者 LM Studio 试试看吧。祝 AI 辅助数据分析愉快!
2025 年,容器化、自动化部署技术的成熟推动本地部署工具向智能化、场景化方向发展。 Stack Overflow 2024 开发者报告显示,76% 的开发者使用或计划使用 AI 辅助工具进行环境配置,但仅有 43% 完全信任其输出结果。 AI 辅助决策:35% 的工具集成 AI 参数优化功能,例如自动调整 PHP 内存限制或推荐插件组合。 AI 辅助部署:主流工具中,35% 集成 AI 参数优化功能(如自动调整 PHP 内存限制)。 边缘计算适配:新增工具中,47% 支持 ARM 架构设备(树莓派、NAS 等)。 建议技术团队根据项目规模、协作模式及云战略选择适配方案,重点关注工具的容器化支持、自动化能力及安全机制。所有测评工具均通过 WordPress 6.4 兼容性测试,可满足不同场景的本地开发需求。
/webui.sh --skip-torch-cuda-test --precision full --no-half图片3.Success图片
简介 LaZagne project 是一款用于检索大量存储在本地计算机上密码的开源应用程序。 每款软件他们保存密码的方法或许不尽相同(明文,API,算法,数据库等等),我开发这款工具的目的是为了寻找计算机中最常用软件的密码。 截至目前,该工具支持Windows上的22款软件,Linux/Unix-Like OS上的12款软件。 ? 1.使用软件名创建一个类包含两个重要的函数: init:用于定义启动类的所有参数 run:主函数 2.将类名和相关信息添加到config.manageModules.py文件 3.所有包含密码的输出都必须发送到
所以就写了一个增量打包工具。 工作原理:根据文件的最后修改时间来打增量。 org.apache.commons.io.FileUtils; import org.apache.commons.lang.StringUtils; import org.apache.log4j.Logger; /** * 增量打包工具类 configPath:" + configPath); } if (args.length > 1) { dbScriptPath = args[3] --时间间隔,如果是3小时,则扫描时只扫描3小时内修改的文件,不配置则扫描当天修改的文件 --> <arg value="" /> <!
CloudMounter Mac版是一款强大的云盘本地加载工具,用于将云存储和Web服务器作为本地磁盘安装到Mac。 下载:CloudMounter Mac版 在Mac上将云驱动器装载为本地磁盘 CloudMounter是一个可靠的系统实用程序,用于将云存储和Web服务器作为本地磁盘安装到Mac。 连接到Finder中的Dropbox,Google Drive,Amazon S3,Microsoft OneDrive,(S)FTP,WebDAV和OpenStack Swift服务器,就像它们都托管在您的计算机上一样 保护您的云存储 CloudMounter允许加密Google Drive,Dropbox,OneDrive,Amazon S3数据以及FTP / WebDAV服务器和OpenStack Swift对象存储上的文件
为了不在痛,引出本章的主角:jsf本地联调工具。 图2 JSF本地联调工具调用关系 看过架构图大家会对工具有个大体的了解,利用redis的发布订阅模式来完成jsf请求到响应的数据传递工作。 下面是对工具的思维脑图: 图3 JSF本地联调工具设计的思维脑图 通过思维脑图,列出了解决这些问题的办法,下面就一一讲解。 通过中间件作为连通两个本地环境的桥梁,做到连通。 图4 JSF本地联调工具核心思路 通过上图可以分析,中间件需要具备的能力就是发布订阅,那么能想到的就是jmq和redis。 3.4 整体流程图 说明: 虚线部分是jsf原调用流程,工具不会通过的 蓝线部分是工具走的路线,线上的描述序号为执行顺序 图8 JSF本地联调工具调用顺序图 04 功能实现