首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Goose:免费开源的本地化AI编程助手

    Goose:免费开源的本地化AI编程助手,挑战Claude Code每月200美元的高昂费用人工智能编程革命伴随一个显著问题:成本高昂。 Goose能做而传统代码助手不能做的事情Goose作为命令行工具或桌面应用程序运行,可以自主执行复杂的开发任务。 步骤3:配置连接在Goose Desktop中,导航到“设置”,然后“配置提供商”,并选择Ollama。 Goose与Cursor、GitHub Copilot以及付费AI编程市场的比较Goose进入了一个拥挤的AI编程工具市场,但占据了独特的位置。 AI编程工具每月200美元的时代可能即将结束AI编程工具市场发展迅速。开源模型正以不断缩小与专有替代品差距的速度改进。

    89210编辑于 2026-03-11
  • 来自专栏云开发

    教你 3 分钟搭建 AI 助手,超 Easy!

    前言 今天给大家带来的是使用云开发创建AI智能体的实践教程,本文将向您展示如何通过简单的配置,无需编写任何代码,就能轻松搭建起专属 AI 助手AI助手 选择「分享」可以直接对话体验 如果没有满意的AI助手可以通过「从模版创建」 平台默认提供了10多个AI助手供你选择 选择后可以进入AI助手编辑详情页面 左边区域可以设置人设提示词 右边区域可以直接对话调试效果 确认没问题点击「提交」就创建成功了,接下来再自定义一个AI助手,选择「创建智能体」 输入AI助手名称点击「确认」 进入AI助手详情页,不会写人设提示词可以点击「获取AI建议」 AI会根据名称来生成一套专业的人设提示词 ,点击「使用AI建议」即可 设定好AI助手人设后,可以在右边区域对话调试 除此之外还可以设置AI助手的基础信息 对外展示信息 头像 名称 简介 背景 开场白 欢迎语 推荐问题 确认无误后,点击「提交」就创建好了 ,可以「分享」给你的好友使用 电脑端效果: 手机端效果: 支持在「对话」菜单中查看所有智能体的对话记录 总结 整个体验下来,创建流程简单丝滑,只需要输入你要创建的AI助手名称即可生成,全程无需代码,

    2.7K10编辑于 2024-06-24
  • 语音助手阿拉伯语本地化技术解析

    语音助手阿拉伯语本地化技术解析阿拉伯语版语音助手于2021年12月在沙特阿拉伯和阿联酋推出。与所有新语言版本一样,阿拉伯语在语音识别、语言理解和语音合成方面提出了独特挑战。 技术演进方向新的语音助手语言不仅是新语言,更是针对特定地区的新本地化版本。技术团队将继续扩展阿拉伯语到更多地区,同时将系统扩展到全新的语系家族。

    47510编辑于 2025-08-22
  • 来自专栏AI大模型应用开发炼丹房

    Cherry Studio+Filesystem MCP Server:本地化AI文件助手的架构设计与实战

    更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。一、技术架构核心​​1. Cherry Studio客户端​​ 国产化AI桌面客户端,提供以下核心能力:​​多模型调度​​:支持OpenAI/Gemini/Anthropic等云服务、网页端AI(Claude/Perplexity Cherry Studio配置要点​​ 在模型服务设置中选择供应商并启用MCP:​​3. 助手创建流程​​使用预设助手模板创建新助手重命名为"智能文件助手"设置系统提示词明确路径规范: "用户桌面路径:C:\Users\yuan_\Desktop,下载目录:C:\Users\yuan_\Downloads 智能内容编辑​​用户指令: "将天空为什么是蓝色的科学解释保存到report.txt"-> 模型生成科普内容-> 通过edit_file工具写入​​3.

    2K10编辑于 2025-07-22
  • 来自专栏AI技术应用

    AI本地化部署的流程

    AI本地化部署(On-Premise AI Deployment)的流程是一个系统性、多阶段的过程,旨在将AI模型及其所有相关组件(数据、基础设施、应用程序)部署在企业自己的数据中心或边缘设备上。 以下是AI本地化部署的详细流程:阶段一:规划与需求定义 (Planning & Requirement Definition)项目启动与目标明确:明确业务目标: AI智能体或模型将解决什么具体业务问题? 软件许可证与成本: 评估操作系统、虚拟化软件、数据库、AI框架等的许可费用。团队技能评估: 识别当前团队在AI、DevOps、运维方面的技能缺口。 阶段四:AI服务化部署 (AI Servitization & Deployment)构建推理服务:API开发: 为AI模型创建RESTful API或gRPC接口,作为模型推理的入口。 AI本地化部署是一个长期的过程,需要企业持续投入资源进行优化、维护和迭代。

    1.6K10编辑于 2025-06-06
  • 来自专栏AI技术应用

    AI本地化部署的优势

    AI本地化部署(On-Premise AI Deployment)指的是将AI模型、数据、基础设施和相关应用程序全部部署在企业自己的服务器、数据中心或边缘设备上,而不是依赖于第三方云服务提供商。 所有敏感数据和AI模型都在企业自己的防火墙内处理和存储,数据从不离开企业控制范围,极大地降低了数据泄露和滥用的风险。 本地化部署是满足这些合规性要求的关键。物理安全控制: 企业可以对其数据中心进行物理安全控制,包括访问控制、监控、防火防盗等,提供比云服务更精细化的物理安全保障。 优化硬件利用率: 可以根据特定AI模型的计算特性,精确配置和优化硬件资源,实现更高的硬件利用率和计算效率。3. 总结AI本地化部署的优势主要体现在数据主权、安全性、性能、低延迟、长期成本控制以及高度的定制化和集成能力。这些优势使得它成为许多对安全、性能和合规性有严苛要求的企业或特定行业应用场景的首选方案。

    1.8K11编辑于 2025-06-06
  • 来自专栏AI技术应用

    AI大模型本地化部署

    AI大模型本地化部署是将大规模人工智能模型(如GPT、LLaMA、DeepSeek等)部署到本地服务器或设备上,以满足数据隐私、安全性和性能需求的过程。 以下是AI大模型本地化部署的关键步骤、技术难点及解决方案。一、本地化部署的关键步骤1.需求分析与规划 明确应用场景(如智能客服、文本生成、图像识别等)。评估本地硬件资源(GPU、内存、存储)和预算。 2.模型选择与优化选择适合任务的预训练模型(如DeepSeek、Llama3、GPT等)。通过量化、剪枝、蒸馏等技术压缩模型,降低计算资源需求。 3.数据隐私与安全难点:本地化部署需确保数据隐私和合规性。解决方案:采用私有化部署方案,避免数据外传。4.部署复杂性难点:从硬件调试到模型优化,流程复杂。 通过以上步骤和解决方案,AI大模型本地化部署可以更好地满足行业需求,推动AI技术的广泛应用。

    4.1K10编辑于 2025-03-08
  • 来自专栏AI技术应用

    AI大模型的本地化部署

    AI大模型的本地化部署,是将原本在云端运行的大型人工智能模型,转移到本地的硬件设备上运行。这种部署方式,在数据隐私、网络延迟、成本控制等方面,都有着重要的意义。 以下是关于AI大模型本地化部署的一些关键方面。1. 本地化部署的优势:数据隐私: 本地部署可以最大限度地保护敏感数据,避免数据在传输和存储过程中泄露的风险。 安全问题: 本地化部署需要注意本地设备的安全,防止模型被恶意使用。3. 本地化部署的关键技术:模型量化: 通过降低模型的精度,减小模型的大小,提高运行速度。 本地化部署的应用场景:智能手机: 图像识别、语音识别、自然语言处理等。智能家居: 语音助手、智能安防、智能控制等。工业自动化: 质量检测、故障预测、智能控制等。 总而言之,AI大模型的本地化部署,是一项具有挑战性但也充满机遇的技术。随着硬件资源的不断提升和模型优化技术的不断发展,本地化部署的应用前景将更加广阔。

    1.8K10编辑于 2025-03-10
  • 来自专栏AI技术应用

    AI 本地化部署的详细方案

    AI 本地化部署(On-Premise AI Deployment)指的是将 AI 模型、数据、基础设施和相关应用程序部署在企业自己的服务器、数据中心或边缘设备上,而不是依赖于第三方云服务提供商。 以下是 AI 本地化部署的详细方案:一、前期规划与需求分析明确用例和目标: 部署哪个 AI 模型(LLM、CV 模型、推荐系统等)? 解决什么业务问题? 期望的性能指标(延迟、吞吐量、准确性)? 软件许可(操作系统、虚拟化、AI 框架)成本。 人力资源(AI 工程师、运维工程师、数据科学家)成本。 现有 IT 基础设施的兼容性。 本地化部署的优缺点:优点: 数据隐私和安全性: 数据不离开企业防火墙,满足严格的合规性要求。 完全控制: 对硬件、软件和 AI 环境拥有完全控制权,可深度定制。 AI 本地化部署是一个复杂的项目,但对于那些拥有敏感数据、严格合规要求和强大 IT 基础设施的企业来说,它提供了无与伦比的控制力、安全性和定制化能力。

    4.7K10编辑于 2025-06-06
  • 来自专栏AI技术应用

    AI大模型的本地化测试

    AI大模型本地化测试是确保模型在本地环境中能够正常运行、满足性能要求并符合预期功能的关键步骤。以下是AI大模型本地化测试的详细流程和方法。 3.测试数据:准备与任务相关的测试数据集。确保数据集覆盖各种边界情况和异常输入。三、测试内容与方法1.功能测试测试内容:验证模型是否能完成预期任务(如文本生成、分类、翻译等)。 3.稳定性测试测试内容:验证模型在长时间运行和高负载下的稳定性。检查是否存在内存泄漏或崩溃问题。测试方法:持续运行模型,监控资源占用和错误日志。模拟高并发请求,测试系统的稳定性。 3.安全测试工具:Adversarial Robustness Toolbox:检测模型对抗样本的鲁棒性。OWASP ZAP:检查数据传输和存储的安全性。 2.Llama本地化测试:测试Llama模型在本地设备上的推理性能。检查模型对多语言输入的处理能力。通过以上测试流程和方法,可以确保AI大模型在本地化部署后能够稳定、高效地运行,并满足实际应用需求。

    67600编辑于 2025-03-08
  • 来自专栏AI

    AI本地化大模型的维护

    AI本地化大模型的维护是确保模型在部署后能够持续高效运行、适应新需求并保持安全性和稳定性的关键环节。以下是AI本地化大模型维护的主要内容和方法。一、维护目标1.性能优化:确保模型在长期运行中保持高效。 3.安全性保障:防止模型受到攻击或数据泄露。4.稳定性监控:及时发现和解决运行中的问题。5.成本控制:优化资源使用,降低维护成本。 3.数据管理与更新管理内容:确保训练数据和输入数据的质量。定期清理和更新数据集。更新方法:建立数据质量管理流程,定期检查数据标注和清洗。使用数据版本控制工具(如DVC)管理数据集变更。 3.数据管理工具:DVC(Data Version Control):管理数据集版本。Label Studio:数据标注和质量检查。 3.团队协作与培训:定期组织团队培训,分享维护经验和新技术。通过以上维护内容和方法,可以确保AI本地化大模型在长期运行中保持高效、安全和稳定,满足实际应用需求。

    64710编辑于 2025-03-08
  • 来自专栏最新Python入门基础合集

    3款本周高潜力开源AI工具(多模态集成_隐私本地化

    本周聚焦 AI 技术领域,为开发者精选 3 款兼具创新性与实用性的开源项目。这些项目覆盖图像生成、智能助手、大语言模型框架等方向,通过技术突破解决开发痛点,助力开发者高效构建智能应用。 图像编辑软件的开源 AI 绘图插件,实现手绘与 AI 生成的深度融合,支持在绘画过程中实时调用 AI 生成图像元素。 应用场景 智能客服系统:通过多模型融合提升意图识别准确率,支持日均 10 万次以上对话请求 科研数据分析:在医疗领域实现病历文本的跨模态分析(结合医学影像模型协同处理) 教育平台开发:快速构建个性化学习助手 个项目均体现了开源技术在 AI 领域的突破性进展:Krita AI 扩散插件打破传统绘画与 AI 生成的边界,构建创意生产新范式;KrillinAI通过本地化部署守护数据隐私,为敏感场景提供可靠解决方案 开发者可根据实际需求,从项目 1、项目 2、项目 3的技术实现中获取灵感,加速智能应用的落地进程。

    75810编辑于 2025-04-17
  • 来自专栏AI技术应用

    AI 大模型本地化部署的调试

    AI 大模型本地化部署的调试是一个复杂但至关重要的过程,它确保模型在本地环境中的正确运行和性能优化。以下是一些关键的调试方面。1. 3. 性能调试:推理速度: 测量模型在本地设备上的推理速度(如每秒处理的图像数、每秒生成的文本数)。 通过以上调试方法,可以有效地提高AI大模型本地化部署的成功率,确保模型在本地环境中稳定、高效运行。

    87110编辑于 2025-03-11
  • 来自专栏AI技术应用

    AI大模型本地化部署的运营

    AI大模型本地化部署的运营,涉及多个层面的考量,从技术维护到用户体验,再到可能的商业模式。以下是一些关键的运营方面。1. 技术维护与更新:模型更新: AI大模型需要定期更新以保持其性能和准确性。 3. 安全与合规:数据安全: 确保本地部署的模型和数据符合相关的数据隐私法规和安全标准。 采取措施保护模型和数据免受未经授权的访问和篡改。 合规性: 了解并遵守与AI技术相关的法律法规,确保运营合法合规。 关注政策变化,及时调整运营策略。4. 关键考量:成本效益: 平衡运营成本和收益,确保本地化部署的商业可行性。技术演进: 关注AI技术的最新发展,及时更新产品和服务,保持竞争力。 通过综合考虑以上各个方面,可以有效地运营AI大模型本地化部署,实现其商业价值和社会价值。

    55410编辑于 2025-03-11
  • 来自专栏AI技术应用

    AI 本地化部署的主要问题

    AI 本地化部署(On-Premise AI Deployment)虽然在数据隐私、安全性、低延迟和长期成本控制方面具有显著优势,但也伴随着一系列挑战和问题。 以下是 AI 本地化部署的主要问题:1. 高昂的前期投入 (High Upfront Investment)硬件成本: 购买高性能的AI专用硬件(特别是GPU服务器、高速存储、网络设备)成本极高。 3. 扩展性与弹性差 (Limited Scalability & Elasticity)弹性不足: 无法像云服务那样按需即时扩展或缩减计算资源。 规划难度大: 需要精确预测未来的AI计算需求,以避免资源不足或过度投资。但AI需求往往难以预测。4. 综上所述,AI本地化部署虽然在特定场景下是最佳选择,但企业必须充分权衡其带来的技术、财务和运营挑战。对于大多数企业而言,混合云部署或充分利用云服务可能是更灵活、更具成本效益的策略。

    85110编辑于 2025-06-06
  • 来自专栏NLP/KG

    AI助手到个性化数字分身:WeClone & Second Me打造本地化、私有化的个性化AI代理系统

    它不仅仅是一个AI助手,而是一个能够代表用户真实自我的数字分身。通过本地训练和部署,Second Me 确保用户的数据完全由自己掌控,避免了传统AI系统中数据被大公司掌控的风险。 Second Me 的核心目标是保护用户的独特身份,同时为用户提供一种全新的方式在AI时代中表达自我。它支持全球互联,允许用户的AI代理与其他AI代理进行协作,形成一个去中心化的AI网络。 隐私保护:Second Me的运行完全本地化,用户数据存储在本地也设备上。 智能记忆管理:支持快速识别模式、适应变化,与用户共同进化。 /scripts/setup.sh 3. 启动服务 使用 make 命令: make start 或者直接使用脚本: . 3. 训练 Second Me 最后一步是训练 Second Me,使其具备你的个性和能力: 导航至 Create Second Me > Train Second Me。

    2.2K10编辑于 2025-05-11
  • 来自专栏网络安全技术点滴分享

    AI技术唾手可得的时代,挖掘新需求成为核心竞争力——某知名本地化AI助手需求探索

    a.内容描述该项目定位为一款完全本地化AI助手替代方案,核心功能在于提供隐私保护的自主AI服务。 该解决方案特别适合对数据隐私有严格要求的用户群体,以及希望在受限网络环境中使用AI能力的场景,类似于某些知名办公协作工具中的智能助手功能,但具备更强的自主性和隐私保护特性。 b.功能特性基于实现文件分析,该系统具备以下核心功能点:完全本地化运行:所有AI模型和处理流程均在用户设备执行,支持多种本地LLM提供商自主网页浏览:能够自动搜索、提取信息、填写网页表单,实现真正的无干预浏览多语言编程支持 e.潜在新需求(1)用户希望增加多模态模型支持,使系统能够处理图像、视频等非文本内容(2)用户希望提供无需Docker的部署方案,降低系统资源占用和部署复杂度(3)用户希望改进ARM架构Linux系统的兼容性 ChromeDriver版本匹配问题(5)用户希望提供一键安装选项,简化在多平台上的安装流程(6)用户希望增强Windows系统的命令兼容性,确保生成的命令符合Windows命令行规范article id:3a8b786404d5aa7842b6f89c5da1a402

    22310编辑于 2025-11-03
  • 腾讯云AI代码助手 vscode初体验#腾讯云AI代码助手#

    可以使用deepseek,代码注释解释,快捷键使用,很丝滑流畅,同时支持原生AI对话,很棒棒 @ 腾讯云 AI 代码助手1、帮你理解项目代码2、通过 #Docs 引用微信知识库,这个太牛逼了,例如「微信小游戏 」和「微信支付」、「微信云开发」3、通过内联对话,实现人机合一,沉浸式体验

    1.7K10编辑于 2025-03-03
  • 来自专栏AI技术应用

    AI大模型本地化部署的流程

    本地化大模型的步骤通常包括以下几个关键环节。1.需求分析明确目标:确定本地化大模型的具体用途,如文本生成、翻译、问答等。资源评估:评估本地硬件资源(如GPU、内存、存储)和预算。 3.环境准备硬件配置:确保有足够的GPU、内存和存储。软件安装:安装必要的深度学习框架(如PyTorch、TensorFlow)和依赖库。4.数据准备数据收集:获取与任务相关的数据集。

    1.4K10编辑于 2025-03-08
  • 来自专栏AI uTools

    FastGPT | 3分钟构建属于自己的AI智能助手

    fastgpt其实就是使用了chatgpt的api(或者其他的大模型),构建自己的AI知识库 chatgpt是没办法获取到你自己的信息的 如果你想部署属于自己的gpt,或者是公司内部使用的 你可以选择fastgpt 适用人群: chatgpt爱好者 chatgpt深度使用者 想要构建自己的AI知识库 想要给其他人提供gpt服务 公司/组织 私有化 功能介绍 目前我觉得比较好用的3个功能 构建自己的知识库 通过导入文档或已有问答对进行训练 ,让 AI 模型能根据你的文档以交互式对话方式回答问题。 例如查询数据库、查询库存、预约实验室等 不过这个功能比较复杂,需要一定的学习成本 在线使用 国内版:ai.fastgpt.in 海外版:fastgpt.run 环境需要 系统:windows or

    1.1K10编辑于 2024-10-29
领券