首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏韩曙亮的移动开发专栏

    【AI 模型】Meta Llama 3 模型 ( Llama 3 模型简介 | Ollama 软件下载安装 | Llama3 模型下载 | Llama 3 模型 在线 离线 使用 )

    首先 , 安装 Ollama 软件 , 到 https://ollama.com/ 下载安装 ; 然后 , 运行 ollama run llama3 命令 , 即可开始使用 Llama3 模型 ; 一 、Meta Llama 3 模型安装 1、Llama 3 模型简介 Llama 3 模型 是 Meta 公司 发布的 模型 , Meta 公司 就是 Facebook ; Llama 3 模型 Llama3 模型 ; 下载的模型放在了 C:\Users\用户名.ollama 目录中 , 在我的电脑上的路径是 C:\Users\octop.ollama ; 这个模型很大 , 有 4.7 G 安装完成后的效果 for help) 二、Meta Llama 3 模型使用 1、Llama 3 模型在线使用 在命令行中 , 可以直接进行对话 , 下面是对话内容 : D:\Llama>ollama run llama3 for help) 2、Llama 3 模型离线使用 Llama 3 模型 联网时 , 可以访问云端服务 , 可以生成更加丰富的文本 ; Llama 3 模型 在 断网后也可以使用 , 下面是断开网络后

    1.7K12编辑于 2024-08-09
  • 来自专栏开源项目搭建

    简单3步部署本地国产模型DeepSeek模型

    简单3步部署本地国产模型DeepSeek模型DeepSeek是最近非常火的开源模型,国产模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。 本文将介绍如何通过简单 3 步在本地部署 DeepSeek 模型,让你能够轻松体验这一强大的 AI 工具。 deepseek-r1的哪个版本的模型? 它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。 理论上就安装完成了,可以只在命令行中使用模型了。修改路径文件保存路径可以不用改,如果C盘空间不够用,建议修改。

    6.4K33编辑于 2025-02-06
  • 来自专栏锤子代码

    Nginx反向代理模型推理接口(SSE)

    Nginx作用这么? 在后台写了一个接口,用来调用第三方的AI接口,SSE方式返回。 用普通的Nginx代理配置接口返回特别慢。 找了下原因,发现是代理配置有问题。 接口总算丝滑了。 http://192.168.0.105:228866 这个地址是你对应第三方AI模型返回数据的接口

    1.1K10编辑于 2025-04-04
  • 来自专栏Soul Joy Hub

    模型AIGC系列课程 3-2】国产开源模型:ChatGLM

    GLM https://arxiv.org/pdf/2103.10360.pdf GLM是General Language Model的缩写,是一种通用的语言模型预训练框架。 这个图示说明了GLM预训练的过程,具体解释如下: a) 原始文本:给定一个原始文本,例如[x1, x2, x3, x4, x5, x6]。 在这个例子中,我们随机选择了两个连续的词片段[x3]和[x5, x6]作为样本。 b) 替换和洗牌:在Part A中,我们将被选择的词片段替换为[M](表示遮盖)。 在这个例子中,我们将[x3]和[x5, x6]洗牌为[x5, x6]和[x3]。 c) 自回归生成:GLM使用自回归的方式生成Part B。 在生成过程中,模型可以根据之前生成的词片段和Part A中的上下文来预测下一个词片段。 d) 自注意力掩码:为了限制模型的注意力范围,

    78120编辑于 2023-08-28
  • 来自专栏大模型应用

    模型应用:模型的本地 API 服务:FastAPI 封装与接口鉴权.44

    一、引言 模型的里里外外我们都进行了很多细节的讲解,但模型的部署引用还没有涉及太多,今天我们重点讲一下模型接口发布,以及利用Postman工具的鉴权调试,Postman 是一款轻量、 核心作用:把模型的 "推理功能"(比如文本生成、问答),包装成 "可网络调用的接口"。2.3 接口鉴权的核心目的身份验证:确认调用者是 "自己人",不是恶意攻击者。 定义接口函数:写一个 Python 函数,接收用户请求,比如提示词,调用模型生成结果,再返回给用户。 启动服务:用 Uvicorn(ASGI 服务器)运行应用,模型就变成了可网络访问的 API 服务。3. 接口鉴权原理3.1 调用 API Key 鉴权的接口本质:验证 "调用者凭证" 的有效性。 3. 服务器接收请求后,先验证凭证是否正确,比如 API Key 是否存在、未过期,验证通过才让模型处理请求。核心流程:1.

    48153编辑于 2026-03-13
  • 来自专栏openclaw系列

    OpenClaw怎么换模型3步免费切换各种模型配置教程

    一句话总结:OpenClaw 本身不内置任何模型,而是通过灵活的配置机制对接各类模型服务。更换模型只需三步:选择目标模型获取 API Key、在配置文件中添加模型提供商、重启网关生效。 但很多人忽略了一个关键问题:OpenClaw 本身不包含任何 AI 模型。就像一台性能再强的电脑,没有操作系统也无法工作。OpenClaw 的“大脑”完全来自你接入的模型。 第一章:核心原理——OpenClaw 如何对接模型?1.1 为什么需要更换模型?OpenClaw 的核心价值在于“连接”——连接模型的思考能力与电脑的真实操作权限。 2.1 腾讯元宝模型配置(推荐中文场景)腾讯元宝基于混元模型,提供强大的中文理解和多模态能力,2026 年推出免费额度方案,大幅降低使用门槛。 Q3:本地模型响应太慢怎么办?

    15.1K54编辑于 2026-03-28
  • 来自专栏韩曙亮的移动开发专栏

    【AI 模型】函数调用 Function Calling ① ( 人机交互接口 与 应用程序编程接口 | 语言界面接口 | AI 模型缺陷与补救措施 | 函数调用为模型赋能 真逻辑 )

    ; 不需要会说话 , 只要不是傻子就可以使用该接口 ; 3、应用程序编程接口的发展 - 本地 -> 远程 -> 自然语言接口 应用程序编程接口的发展 : 本地 -> 远程 API : 早期 API 应用程序编程接口 发展问题 , 短时间内实现的可能性不大 ; 二、AI 模型缺陷与补救措施 - 函数调用 Function Calling 引入 1、AI 模型原理 GPT 模型 ( Generative ; 根据现有提示词 , 后面生成每个词的概率中 , sat 的概率是 0.5 , 概率最大 , 则生成 sat 单词 ; 2、AI 模型缺陷 AI 模型有如下 缺陷 : 并非全知全能 : AI 模型 函数调用 Function Calling 引入 AI 模型有 上述 三种缺陷 , 因此 需要 有一种机制 , 使得 AI 模型 需要 与 外部进行交互 , 为 AI 模型 对接 各种接口 ; 特定领域的知识或消息 , 不知道具体的推理步骤和过程 ; GPT 模型 并没有 逻辑推理能力 ; 5、函数调用 Function Calling 为 模型 赋能 " 真逻辑 " AI 模型 没有 " 真逻辑 " , 只是一个基于

    1.8K10编辑于 2024-07-14
  • 来自专栏大模型成长之路

    模型学习 | DeepSeek-V3原理】

    DeepSeek-V3 Technical Report DeepSeek-V3 的基本框架还是 Transformer。 另外,V3 模型是通过将预测多token作为训练目标。本文主要是对DeepSeek-V3模型框架以及训练目标进行讨论。 什么是负载平衡? 2️⃣ DeepSeekMoE 在Transformer架构中的FFN层,V3模型采用了MoE进行替换,使用更细粒度的专家,并将一些专家隔离为共享专家。 ✅ Yes ✅ 无偏置 目前的模型权重已开源: https://huggingface.co/deepseek-ai/DeepSeek-V3-Base 者由于设备限制无法对 V3模型进行体验。

    1.4K21编辑于 2025-07-25
  • 来自专栏AI工程落地

    语言模型--Llama3新特性

    更大的词表使得模型涵盖的语言更多、更加通用 Attention层--MultiHeadAttention算子 Llama3 8B和70B都使用了分组查询注意力机制(GQA),4个Query共享一对Key 减少了计算量,同时保持了模型的性能。 值是500000.0(Llama2用的是默认值10000.0) 上下文窗口中的最大Tokens从 4096增加到 8192 数据类型 Llama2开源的参数是float16格式的,但Llama3开源的参数都是 依赖软件包 transformers包升级到4.40.0以上 模型版本 2024年4月21号 初版 Llama3 8B的HellaSwag分数:acc 0.6039、acc_norm 0.776 2024年5月14号 第二版 Llama3 8B的HellaSwag分数:acc_norm 0.822

    37110编辑于 2024-05-29
  • 来自专栏贾志刚-OpenCV学堂

    DINOv3视觉基础模型正式发布!

    Meta 宣布发布 DINOv3,这是一个前沿的自监督视觉基础模型,在广泛的计算机视觉任务中实现了前所未有的性能。 随着 DINOv3 的发布,我们在密集任务上显著超过了弱监督模型,通过最佳类别的 WSL 模型的相对性能来展示(b)。 我们还使用在自然图像(c)和航拍图像(d)上训练的 DINOv3 生成了特征的 PCA 图。 DINOv3 通过采用全面的模型套件来扩展自监督学习的应用范围,以满足不同的用例需求。 DINOv3模型家族 通过 DINOv3,我们显著改善了密集特征图的退化问题,这要归功于 Gram anchoring。随着 SSL 导致的训练模型规模扩大,结果是显着的性能提升。 在这项工作中,我们成功地训练了一个包含 70 亿参数的 DINO 模型。由于如此模型需要大量的资源来运行,我们应用蒸馏技术将其知识压缩成更小的变体。

    33710编辑于 2026-04-02
  • 来自专栏啄木鸟软件测试

    多模态模型技术原理与实战(3)

    在阿里巴巴达摩院发布的《2023 土科技趋势》中,实现文本-图像-语音-视频“大统一”的多模态预训练模型占据榜首。 ·CLIP模型:CLIP模型是OpenAI在2021 年推出的文本-图像多模态预训练模型。证明了“多模态预训练模型零样本推理”这种模式的可行性。 o解决图像多模态问题有3种传统的思路,分别是使用单编码器模型、双编码器模型、编码器-解码器模型。 ·单编码器模型指的是整个架构中只存在一个图像编码器的模型模型+多模态的3种实现方法 1,以LLM 为核心,调用其他多模态组件 2023年5月,微软亚洲研究院(MSRA)联合浙江大学发布了HuggingGPT。 3.视觉问答任务 视觉问答任务指的是根据图像或视频中描述的内容进行回答、体现了多楼态模型的自然语言理解和推理能力。 这个城市拥有哪些著名大学? 上海是中国著名的现代化城市,拥有多所知名大学。

    1.2K20编辑于 2024-09-10
  • 来自专栏自然语言处理(NLP)论文速递

    | 发布 “点云” 模型:PointLLM,旨在实现模型3D对象上的应用!

    这些模型已成为多功能工具,可以充当通用接口来执行一系列复杂任务。然而,在文本任务上的应用只是语言模型(LLMs)应用众多应用场景中的一个。 提出了PointLLM,其模型效果如下图所示:  如上图:PointLLM是一种能够理解物体的彩色点云的多模态语言模型。它能够感知对象类型、几何结构和外观,而无需考虑模糊的深度、遮挡或视点依赖性。 然而,构建能够理解物体点云的多模态模型,存在三个特别关键的问题:1)缺乏模型训练数据;2)构建合适的模型架构;3)缺乏全面的评估标准和方法。 模型架构如下图所示:  对于PointLLM模型训练采用两阶段策略:点云编码器和语言模型之间的潜在空间进行初始对齐,然后对统一模型进行指令调整。 这种方法确保了3D点云的几何和外观信息与语言模型的语言功能的有效融合。 「最后,基准和评估」 作者建立了两个不同的基准:生成3D对象分类和3D对象描述,并配有多样化的评估框架,以评估模型对点云的理解。

    3.1K20编辑于 2023-09-14
  • 从零到一:使用pycharm搭建API接口调用模型

    从零到一:使用pycharm搭建API接口调用模型【前言】随着人工智能技术的快速发展,语言模型(LLM)已成为许多应用场景的核心技术。 本文将详细介绍如何使用PyCharm开发环境搭建API接口调用模型的完整流程,包括两种主流调用方式、模型列表查看方法,以及一个完整的求职岗位查询实战案例。 【任务】1.掌握使用OpenAI库和requests库调用模型API的方法。2.学会查看和展示可用的模型列表。3.实现基于模型的求职岗位查询系统。4.掌握API调用的错误处理和结果展示技巧。 By:不吃花椒的喵酱一.模型调用模型调用有两种方式,一种通过openai库进行调用,一种通过requests库进行调用。 () 图4:获取模型列表表格形式代码示例三.通过pycharm调用API接口,实现模型求职岗位查询第一步:准备工作在运行代码之前,请确保你的项目目录下有以下文件和配置。

    1.7K21编辑于 2025-12-23
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。 因此,对于通用模型或者垂直模型,更倾向于哪一方不取决于个人想法,而是取决于用户需要。

    78101编辑于 2024-12-30
  • 来自专栏自学测试之道

    接口测试3

    2、导入测试报告库文件HTMLTestRunner_PY3(这个文件在网上可以下载后[https://blog.csdn.net/cjh365047871/article/details/80181530 3、定义测试用例和测试报告存放路径、读取测试用例方法和测试报告格式 #! q=keitwo&page=1&type=note # @QQ交流 : 3227456102 import unittest,time import HTMLTestRunner_PY3 if _ + mail_from + ">", 'utf-8') message['To'] = ";".join(mail_to) message['Subject'] = Header(u"接口自动化测试报告 3、导入发送邮件模块 ? 4、运行结果 ?

    52820发布于 2019-09-29
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • 来自专栏AokSend接口

    3API接口平台对比

    本文将介绍三Email API Service平台:AokSend、Mailgun和Postmark,并对它们进行比较。1. AokSend的API接口功能强大,易于使用。用户可以通过API接口发送各种类型的邮件,包括营销邮件、通知邮件等。此外,AokSend还提供了详尽的文档和支持,帮助用户快速集成和使用API接口。2. MailgunMailgun是另一家知名的邮件服务提供商,提供了一套灵活且强大的API接口。Mailgun的API接口可以帮助用户轻松地发送、接收和跟踪邮件。 用户可以使用Mailgun的API接口发送个性化邮件、管理联系人、跟踪邮件发送情况和分析数据等。Mailgun的API接口易于使用,支持多种编程语言。 用户可以使用Mailgun的API接口快速集成邮件功能到他们的应用程序中。此外,Mailgun还提供了详细的文档和支持,帮助用户更好地使用API接口3.

    1.6K10编辑于 2024-03-22
  • 来自专栏接地气学堂

    3基础模型,搞掂互联网产品分析

    今天就系统地讲解一下,互联网产品有哪些类型,以及每一类的基础分析模型。 01 互联网产品3类型 互联网产品有很多分类方式,但站在:“产品是干什么的”角度,就只有3类: 交易型产品:以促成一笔商品/服务交易为目标。 内容型产品:以提供视频/文字内容给用户看为目标。 03 3基本分析模型 了解了产品分类与产品主指标,可以更进一步看基本分析模型。 第一类:交易型产品漏斗模型。 交易型产品目标就是提升交易,只是不同的路径促成交易效率不一样,因此漏斗模型是非常适合的(如下图): ? 如果是站外直接引流,则是纯粹的漏斗模型,考察每个漏斗转化率即可。 第二类:内容型产品的分群模型。 内容型产品理论上也能用类似的漏斗模型,观察用户是否愿意完成一次内容浏览,以及内容浏览后是否有转发、点赞、买货等行为(如下图)。 ?

    60420发布于 2021-07-23
  • 来自专栏AI

    最强开源模型Llama 3发布!

    最强开源模型Llama 3发布!我们看下重点: 今天,我们介绍Meta Llama 3,这是我们最先进的开源大型语言模型的下一代。 我们对Llama 3的目标 通过Llama 3,我们致力于构建与当今最优秀的专有模型相媲美的最佳开源模型。 今天发布的基于文本的模型是Llama 3模型系列的首批模型。我们未来的目标是使Llama 3具备多语言和多模态能力,具有更长的上下文,并持续提升核心LLM功能,如推理和编码的整体性能。 我们的训练数据集比Llama 2使用的七倍,其中包含四倍的代码。为了准备即将到来的多语言用例,超过5%的Llama 3预训练数据集包含覆盖30多种语言的高质量非英语数据。 Llama 3的8B和70B模型标志着我们计划为Llama 3发布的开始。而且还有更多的内容即将推出。 我们最大的模型超过了400B参数,虽然这些模型仍在训练中,但我们的团队对它们的发展趋势感到兴奋。

    1.2K10编辑于 2024-04-25
  • 来自专栏腾讯开源的专栏

    腾讯混元宣布语言模型3D模型正式开源!

    腾讯混元模型正在加快开源步伐‍ 11月5日,腾讯混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“ Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求 其中,腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型,而腾讯混元3D生成大模型则是业界首个同时支持文字、图像生成3D的开源模型。 业界首个同时支持文字、图像生成3D的开源模型 腾讯混元3D生成大模型首批开源模型包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型模型具有强大泛化能力和可控性,可重建各类尺度物体,到建筑,小到工具花草。经过定性、定量多个维度的评估,腾讯混元3D生成大模型的生成质量已达到开源模型的先进水平。 其中,腾讯地图基于腾讯混元3D模型,发布了自定义3D导航车标功能,支持用户创作个性化的 3D 导航车标,相比传统的3D车标重建方案,速度提升了91%。

    1.7K20编辑于 2025-02-05
领券