首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏韩曙亮的移动开发专栏

    【AI 模型】Meta Llama 3 模型 ( Llama 3 模型简介 | Ollama 软件下载安装 | Llama3 模型下载 | Llama 3 模型 在线 离线 使用 )

    首先 , 安装 Ollama 软件 , 到 https://ollama.com/ 下载安装 ; 然后 , 运行 ollama run llama3 命令 , 即可开始使用 Llama3 模型 ; 一 、Meta Llama 3 模型安装 1、Llama 3 模型简介 Llama 3 模型 是 Meta 公司 发布的 模型 , Meta 公司 就是 Facebook ; Llama 3 模型 Llama3 模型 ; 下载的模型放在了 C:\Users\用户名.ollama 目录中 , 在我的电脑上的路径是 C:\Users\octop.ollama ; 这个模型很大 , 有 4.7 G 安装完成后的效果 for help) 二、Meta Llama 3 模型使用 1、Llama 3 模型在线使用 在命令行中 , 可以直接进行对话 , 下面是对话内容 : D:\Llama>ollama run llama3 for help) 2、Llama 3 模型离线使用 Llama 3 模型 联网时 , 可以访问云端服务 , 可以生成更加丰富的文本 ; Llama 3 模型 在 断网后也可以使用 , 下面是断开网络后

    1.7K12编辑于 2024-08-09
  • Tencent Robotics X Lab 携手宇树科技:以 Tairos 模型加速具身智能商业化落地

    双方将结合腾讯在 AI 模型领域的算法优势与宇树科技在机器人硬件方面的领先地位,共同打造具身智能解决方案: 核心技术底座: 腾讯 Robotics X 实验室将发布 Tairos(钛坦) 具备感知、推理 、规划能力的具身智能模型。 产品交付形式: 计划于 2025年 发布包含具身智能模型开发套件(SDK)和云服务工具链的产品,为行业提供标准化的开发工具。 合作模式: 宇树科技作为世界领先的机器人公司,将利用 Tairos SDK 及云服务工具链,加速其模型在通用人形机器人及四足机器人上的部署,实现语义理解、逻辑推理及多轮对话等高阶能力。 融合感知推理优势驱动产业升级 腾讯在此次合作中展现了推动具身智能商业化的核心驱动力: 全栈技术赋能: 通过 Tairos 模型 提供从感知到决策的端到端能力,大幅降低了机器人应用开发的复杂度与运维成本

    49210编辑于 2026-02-03
  • 来自专栏开源项目搭建

    简单3步部署本地国产模型DeepSeek模型

    简单3步部署本地国产模型DeepSeek模型DeepSeek是最近非常火的开源模型,国产模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。 本文将介绍如何通过简单 3 步在本地部署 DeepSeek 模型,让你能够轻松体验这一强大的 AI 工具。 deepseek-r1的哪个版本的模型? 它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。 理论上就安装完成了,可以只在命令行中使用模型了。修改路径文件保存路径可以不用改,如果C盘空间不够用,建议修改。

    6.3K33编辑于 2025-02-06
  • 来自专栏Soul Joy Hub

    模型AIGC系列课程 3-2】国产开源模型:ChatGLM

    GLM https://arxiv.org/pdf/2103.10360.pdf GLM是General Language Model的缩写,是一种通用的语言模型预训练框架。 这个图示说明了GLM预训练的过程,具体解释如下: a) 原始文本:给定一个原始文本,例如[x1, x2, x3, x4, x5, x6]。 在这个例子中,我们随机选择了两个连续的词片段[x3]和[x5, x6]作为样本。 b) 替换和洗牌:在Part A中,我们将被选择的词片段替换为[M](表示遮盖)。 在这个例子中,我们将[x3]和[x5, x6]洗牌为[x5, x6]和[x3]。 c) 自回归生成:GLM使用自回归的方式生成Part B。 在生成过程中,模型可以根据之前生成的词片段和Part A中的上下文来预测下一个词片段。 d) 自注意力掩码:为了限制模型的注意力范围,

    75620编辑于 2023-08-28
  • 来自专栏openclaw系列

    OpenClaw怎么换模型3步免费切换各种模型配置教程

    一句话总结:OpenClaw 本身不内置任何模型,而是通过灵活的配置机制对接各类模型服务。更换模型只需三步:选择目标模型获取 API Key、在配置文件中添加模型提供商、重启网关生效。 但很多人忽略了一个关键问题:OpenClaw 本身不包含任何 AI 模型。就像一台性能再强的电脑,没有操作系统也无法工作。OpenClaw 的“大脑”完全来自你接入的模型。 第一章:核心原理——OpenClaw 如何对接模型?1.1 为什么需要更换模型?OpenClaw 的核心价值在于“连接”——连接模型的思考能力与电脑的真实操作权限。 2.1 腾讯元宝模型配置(推荐中文场景)腾讯元宝基于混元模型,提供强大的中文理解和多模态能力,2026 年推出免费额度方案,大幅降低使用门槛。 Q3:本地模型响应太慢怎么办?

    11.5K43编辑于 2026-03-28
  • 来自专栏大模型成长之路

    模型学习 | DeepSeek-V3原理】

    DeepSeek-V3 Technical Report DeepSeek-V3 的基本框架还是 Transformer。 另外,V3 模型是通过将预测多token作为训练目标。本文主要是对DeepSeek-V3模型框架以及训练目标进行讨论。 什么是负载平衡? 2️⃣ DeepSeekMoE 在Transformer架构中的FFN层,V3模型采用了MoE进行替换,使用更细粒度的专家,并将一些专家隔离为共享专家。 ✅ Yes ✅ 无偏置 目前的模型权重已开源: https://huggingface.co/deepseek-ai/DeepSeek-V3-Base 者由于设备限制无法对 V3模型进行体验。

    1.4K21编辑于 2025-07-25
  • 来自专栏AI工程落地

    语言模型--Llama3新特性

    更大的词表使得模型涵盖的语言更多、更加通用 Attention层--MultiHeadAttention算子 Llama3 8B和70B都使用了分组查询注意力机制(GQA),4个Query共享一对Key 减少了计算量,同时保持了模型的性能。 值是500000.0(Llama2用的是默认值10000.0) 上下文窗口中的最大Tokens从 4096增加到 8192 数据类型 Llama2开源的参数是float16格式的,但Llama3开源的参数都是 依赖软件包 transformers包升级到4.40.0以上 模型版本 2024年4月21号 初版 Llama3 8B的HellaSwag分数:acc 0.6039、acc_norm 0.776 2024年5月14号 第二版 Llama3 8B的HellaSwag分数:acc_norm 0.822

    36710编辑于 2024-05-29
  • 来自专栏贾志刚-OpenCV学堂

    DINOv3视觉基础模型正式发布!

    Meta 宣布发布 DINOv3,这是一个前沿的自监督视觉基础模型,在广泛的计算机视觉任务中实现了前所未有的性能。 随着 DINOv3 的发布,我们在密集任务上显著超过了弱监督模型,通过最佳类别的 WSL 模型的相对性能来展示(b)。 我们还使用在自然图像(c)和航拍图像(d)上训练的 DINOv3 生成了特征的 PCA 图。 DINOv3 通过采用全面的模型套件来扩展自监督学习的应用范围,以满足不同的用例需求。 DINOv3模型家族 通过 DINOv3,我们显著改善了密集特征图的退化问题,这要归功于 Gram anchoring。随着 SSL 导致的训练模型规模扩大,结果是显着的性能提升。 在这项工作中,我们成功地训练了一个包含 70 亿参数的 DINO 模型。由于如此模型需要大量的资源来运行,我们应用蒸馏技术将其知识压缩成更小的变体。

    27110编辑于 2026-04-02
  • 来自专栏啄木鸟软件测试

    多模态模型技术原理与实战(3)

    在阿里巴巴达摩院发布的《2023 土科技趋势》中,实现文本-图像-语音-视频“大统一”的多模态预训练模型占据榜首。 ·CLIP模型:CLIP模型是OpenAI在2021 年推出的文本-图像多模态预训练模型。证明了“多模态预训练模型零样本推理”这种模式的可行性。 o解决图像多模态问题有3种传统的思路,分别是使用单编码器模型、双编码器模型、编码器-解码器模型。 ·单编码器模型指的是整个架构中只存在一个图像编码器的模型模型+多模态的3种实现方法 1,以LLM 为核心,调用其他多模态组件 2023年5月,微软亚洲研究院(MSRA)联合浙江大学发布了HuggingGPT。 3.视觉问答任务 视觉问答任务指的是根据图像或视频中描述的内容进行回答、体现了多楼态模型的自然语言理解和推理能力。 这个城市拥有哪些著名大学? 上海是中国著名的现代化城市,拥有多所知名大学。

    1.2K20编辑于 2024-09-10
  • 来自专栏自然语言处理(NLP)论文速递

    | 发布 “点云” 模型:PointLLM,旨在实现模型3D对象上的应用!

    这些模型已成为多功能工具,可以充当通用接口来执行一系列复杂任务。然而,在文本任务上的应用只是语言模型(LLMs)应用众多应用场景中的一个。 提出了PointLLM,其模型效果如下图所示:  如上图:PointLLM是一种能够理解物体的彩色点云的多模态语言模型。它能够感知对象类型、几何结构和外观,而无需考虑模糊的深度、遮挡或视点依赖性。 然而,构建能够理解物体点云的多模态模型,存在三个特别关键的问题:1)缺乏模型训练数据;2)构建合适的模型架构;3)缺乏全面的评估标准和方法。 模型架构如下图所示:  对于PointLLM模型训练采用两阶段策略:点云编码器和语言模型之间的潜在空间进行初始对齐,然后对统一模型进行指令调整。 这种方法确保了3D点云的几何和外观信息与语言模型的语言功能的有效融合。 「最后,基准和评估」 作者建立了两个不同的基准:生成3D对象分类和3D对象描述,并配有多样化的评估框架,以评估模型对点云的理解。

    3K20编辑于 2023-09-14
  • 来自专栏腾讯云存储

    数据为翼,云端赋能——腾讯云存储联合艾欧智能发布具身智能数据平台

    3. 存算加速 — GooseFS 腾讯云自研分布式缓存加速文件系统,在 COS 与训练集群之间构建高速通道。 分布式训练 — 腾讯云 THPC 自研高性能计算平台,节点间互联带宽达 3.2 Tbps,支持亿级参数模型分布式训练。 模型推理 — HAI + Tairos Tairos(钛螺丝)是腾讯 Robotics X 实验室与福田实验室联合发布的国内首个模块化具身智能开放平台,提供规划模型、多模态感知模型、仿真工具与数据服务 HAI(高性能应用服务)提供即插即用 GPU/NPU 算力,深度集成 Tairos,从模型上传到推理接口可调用最快数分钟完成,支持推理集群弹性伸缩。 3. 数据资产化:MetaInsight 沉淀可检索多模态数据资产,形成采集→训练→仿真→应用的正向数据飞轮。 4. 安全合规:端到端加密、细粒度鉴权、完整审计日志,多客户数据严格隔离。 5.

    46430编辑于 2026-03-09
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。 因此,对于通用模型或者垂直模型,更倾向于哪一方不取决于个人想法,而是取决于用户需要。

    76301编辑于 2024-12-30
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • 来自专栏接地气学堂

    3基础模型,搞掂互联网产品分析

    今天就系统地讲解一下,互联网产品有哪些类型,以及每一类的基础分析模型。 01 互联网产品3类型 互联网产品有很多分类方式,但站在:“产品是干什么的”角度,就只有3类: 交易型产品:以促成一笔商品/服务交易为目标。 内容型产品:以提供视频/文字内容给用户看为目标。 03 3基本分析模型 了解了产品分类与产品主指标,可以更进一步看基本分析模型。 第一类:交易型产品漏斗模型。 交易型产品目标就是提升交易,只是不同的路径促成交易效率不一样,因此漏斗模型是非常适合的(如下图): ? 如果是站外直接引流,则是纯粹的漏斗模型,考察每个漏斗转化率即可。 第二类:内容型产品的分群模型。 内容型产品理论上也能用类似的漏斗模型,观察用户是否愿意完成一次内容浏览,以及内容浏览后是否有转发、点赞、买货等行为(如下图)。 ?

    59520发布于 2021-07-23
  • 来自专栏AI

    最强开源模型Llama 3发布!

    最强开源模型Llama 3发布!我们看下重点: 今天,我们介绍Meta Llama 3,这是我们最先进的开源大型语言模型的下一代。 我们对Llama 3的目标 通过Llama 3,我们致力于构建与当今最优秀的专有模型相媲美的最佳开源模型。 今天发布的基于文本的模型是Llama 3模型系列的首批模型。我们未来的目标是使Llama 3具备多语言和多模态能力,具有更长的上下文,并持续提升核心LLM功能,如推理和编码的整体性能。 我们的训练数据集比Llama 2使用的七倍,其中包含四倍的代码。为了准备即将到来的多语言用例,超过5%的Llama 3预训练数据集包含覆盖30多种语言的高质量非英语数据。 Llama 3的8B和70B模型标志着我们计划为Llama 3发布的开始。而且还有更多的内容即将推出。 我们最大的模型超过了400B参数,虽然这些模型仍在训练中,但我们的团队对它们的发展趋势感到兴奋。

    1.2K10编辑于 2024-04-25
  • 2026Q1 焉知机器人&轩元资本 中国人形机器人产业地图 发布,腾讯云入选智能生态核心赋能厂商

    第一章:报告基础信息 报告标题:中国人形机器人产业地图(2026Q1) 发布机构:焉知机器人、轩元资本 发布时间:2026年第一季度 行业标签:消费电子,工业,技术服务,汽车 产品标签:#腾讯云, #Tairos , #Robotics X实验室机器人, #AI模型, #腾讯云智能, #云基础设施 第二章:报告背景和目标 本报告旨在系统性呈现中国具身智能与人形机器人产业链的地域分布与细分赛道图谱。 样本规模与调研对象:覆盖泛汽车与泛科技领域产业链超过 1000家 核心企业,细分涵盖本体制造、模型、核心零部件(如灵巧手、传感器、减速器、丝杠、电机)及底层算力芯片等产业全链条。 软硬技术双轨并行构建护城河: 产业生态涵盖从底层硬件(如 柔性传感器、空心杯电机、行星减速器)到上层软件架构(如 具身模型、AI中间件、机器视觉、操作系统)的全栈布局。 旗下 Tairos 平台及 Robotics X实验室机器人 展现了在运动控制算法、AI模型和机器视觉等领域的领先水平,跻身具身智能技术底座的强劲表现者之列。

    20710编辑于 2026-03-31
  • 来自专栏腾讯开源的专栏

    腾讯混元宣布语言模型3D模型正式开源!

    腾讯混元模型正在加快开源步伐‍ 11月5日,腾讯混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“ Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求 其中,腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型,而腾讯混元3D生成大模型则是业界首个同时支持文字、图像生成3D的开源模型。 业界首个同时支持文字、图像生成3D的开源模型 腾讯混元3D生成大模型首批开源模型包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型模型具有强大泛化能力和可控性,可重建各类尺度物体,到建筑,小到工具花草。经过定性、定量多个维度的评估,腾讯混元3D生成大模型的生成质量已达到开源模型的先进水平。 其中,腾讯地图基于腾讯混元3D模型,发布了自定义3D导航车标功能,支持用户创作个性化的 3D 导航车标,相比传统的3D车标重建方案,速度提升了91%。

    1.6K20编辑于 2025-02-05
  • 来自专栏学习

    开源模型与闭源模型

    3.教育和学习资源: 开源模型为学生和研究人员提供了宝贵的学习资源。他们可以通过实践来理解模型的内部工作原理,进行实验和探索,从而推动教育和研究的发展。 二、闭源模型 闭源模型是指模型的代码和数据不对外公开,通常由商业公司开发和维护。代表性的闭源模型包括OpenAI的GPT-3和Google的BERT。 3.成本和准入门槛: 闭源模型通常通过付费API提供服务,对于个人开发者和小型企业来说,成本可能较高。 闭源模型则主要依靠公司内部的研发团队进行创新,虽然可能速度较慢,但通常更具商业应用的针对性和稳定性。例如,OpenAI的GPT-3通过付费API提供强大的商业服务。 3.资源共享与独占优势: 开源模型在资源共享方面表现突出,任何人都可以利用这些开源资源进行学习和研究,促进技术的普及和应用。

    1.7K10编辑于 2024-10-09
  • 来自专栏数据派THU

    原创 | 模型扫盲系列——初识模型

    为了提高模型的性能,研究者们不断尝试增加模型的参数数量,从而诞生了模型这一概念。本文讨论的模型将以平时指向比较多的语言模型为例来进行相关介绍。 3)Decoder-Only,仅包含解码器部分,通常用于序列生成任务,如文本生成、机器翻译等。这类结构的模型适用于需要生成序列的任务,可以从输入的编码中生成相应的序列。 3、对齐微调(Alignment Tuning) 主要目标在于将语言模型与人类的偏好、价值观进行对齐,其中最重要的技术就是使用RLHF(reinforcement learning from human Step 3.利用强化学习模型微调 主要使用了强化学习的邻近策略优化(PPO,proximal policy optimization )算法,对于每个时间步,PPO算法会计算当前产生和初始化的KL散度 3.无法保障内容可信:模型会编造词句,无法保障内容真实可信、有据可查。当前使用者只能根据自己需求去验证生成的内容是否真实可信,很难具有权威说服力。

    21.2K29编辑于 2023-11-22
  • 来自专栏IT从业者张某某

    模型模型的幻觉问题

    参考 模型中的涌现 OpenAI 科学家:幻觉是模型与生俱来的特性,而非缺陷 模型「幻觉」,看这一篇就够了|哈工大华为出品 模型 什么是模型 语言模型(LLM)是基于海量文本数据训练的深度学习模型 模型模型发展如下图 涌现 参考:模型中的涌现 什么是涌现?先从蚂蚁开始说起。蚂蚁是自然界中一种个体非常简单,但是群体能力非常强大的生物。 如何解决模型的「幻觉」问题? 方向一:什么是模型「幻觉」 模型出现幻觉,简而言之就是“胡说八道”。 用文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。 OpenAI 科学家 Andrej Karpathy关于模型幻觉 在 Karpathy 看来: 从某种意义上说,语言模型的全部工作恰恰就是制造幻觉,模型就是「造梦机」。 只有模型助手存在幻觉问题。 方向二:造成大模型「幻觉」的原因 那么致使模型产生幻觉的原因都有哪些?

    1.8K11编辑于 2024-01-04
领券