首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏GiantPandaCV

    星辰AI模型TeleChat-7B评测

    前言 受中电信 AI 科技有限公司的邀请,为他们近期开源的TeleChat-7B大模型做一个评测。 TeleChat-7B是由中电信 AI 科技有限公司发的第一个千亿级别大模型,基于transformer decoder架构和清洗后的1TB高质量数据训练而成,取得了相同参数量级别的SOTA性能,并且将推理代码和清洗后的训练数据都进行了开源 本篇文章主要来体验一下这个模型,测试一下笔者比较关心的文学创作以及代码生成方面的效果。 0x1. TeleChat-7B开源亮点 TeleChat-7B最大的亮点在于其开源的全面性。 用户: 从思想、工作能力、团队合作三个方面评价员工,300字以内 TeleChat-7B: 作为一名AI语言模型,我没有个人观点和情感。但是,我可以根据一些常见的指标来对员工进行评价: 1. 总结 总的来说,TeleChat-7B具有一定的文创能力和代码能力,对于本次测试的大多数prompt可以生成较为合理的答案。但模型本身也存在大模型幻觉,指令跟随能力一般以及回答有概率重复的问题。

    67320编辑于 2024-02-22
  • 来自专栏Juicedata

    如何借助 JuiceFS 为 AI 模型训练提速 7

    本文来自:JuiceFS官网博客 背景 海量且优质的数据集是一个好的 AI 模型的基石之一,如何存储、管理这些数据集,以及在模型训练时提升 I/O 效率一直都是 AI 平台工程师和算法科学家特别关注的事情 Pipeline 是很重要的一个部分,AI 任务并不只是由模型训练这一个步骤组成,还包括数据预处理、特征工程、模型验证、模型评估、模型上线等多个环节,因此 Pipeline 管理也是非常重要的。 对于 AI 模型训练场景来说,第一个 epoch 完成之后后续的计算都可以直接从缓存中获取训练数据,极大地提升了训练效率。 JuiceFS 配置选项说明 AI 模型训练场景的 I/O 模式是典型的只读模式,即只会对数据集产生读请求,不会修改数据。 总结及展望 本文介绍了在 AI 模型训练中如何充分利用 JuiceFS 的特性来为训练提速,相比直接从对象存储读取数据集,通过 JuiceFS 可以带来最多 7 倍的性能提升。

    1.1K20编辑于 2021-12-10
  • 构建可靠AI模型7大核心技术

    稳健与脆弱AI国际标准化组织将AI稳健性定义为“AI系统在任何情况下保持性能水平的能力”。在稳健模型中,训练错误率、测试错误率和操作错误率几乎相同。 模型性能是否会下降?在什么情况下模型不再可行?当环境中的微小变化导致功能和准确性发生巨大变化时,模型就被认为是非弹性或“脆弱”的。脆弱性是软件工程中的已知概念,也适用于AI。 最终,所有AI模型都在某种程度上是脆弱的。开发可靠AI可靠AI即使在遇到训练数据中未包含的输入(称为分布外输入)时也能按预期执行。这些数据点与训练集不同,可靠AI必须能够检测数据是否为分布外输入。 挑战在于,对于某些模型,分布外输入可以被高置信度分类,这意味着AI工具表面可靠实则不然。以自主配送机器人为例。其导航AI经过优化以找到最直接的路径。 为了更深入地了解AI如何运行,有一些工具允许模型在预测或输出旁边报告不确定程度。这朝着信任稳健系统迈进。如果模型报告高度不确定性,这对人类操作员或其他网络AI是有价值的洞察。

    30200编辑于 2025-08-30
  • 来自专栏猫头虎博客专区

    小米MiMo:7B模型逆袭AI模型战场的技术密码

    小米MiMo:7B模型逆袭AI模型战场的技术密码 在大模型竞争愈发激烈的2025年4月30日,小米以一款名为 MiMo-7B 的开源模型强势突围,在数学推理与代码能力评测中表现亮眼,不仅与规模更大的模型正面对抗 最终,MiMo累计训练了 25万亿 tokens,这一数据在7B模型中堪称顶级,为其强悍能力打下坚实基础。 2. 2024年底,95后AI大佬 罗福莉 加盟小米,以千万年薪领导大模型研发团队。 这将反哺模型优化,形成闭环进化的AI生态试验田。 在模型、硬件、生态数据的三位一体加持下,小米未来的AI布局,值得持续关注。 MiMo项目链接: 模型开源地址 技术报告地址

    1.3K10编辑于 2025-05-02
  • 来自专栏C++开发学习交流

    AI模型AI模型部署概述

    AI模型部署方法 在AI深度学习模型的训练中,一般会用Python语言实现,原因是其灵活、可读性强。但在AI模型实际部署中,主要会用到C++,原因在于其语言自身的高效性。 AI模型部署框架 模型部署常见的推理框架有:ONNX、NCNN、OpenVINO、 TensorRT、Mediapipe。 通过短短几年的发展,已经成为表示深度学习模型的实际标准,并且通过ONNX-ML,可以支持传统非神经网络机器学习模型,大有一统整个AI模型交换标准的趋势。 AI模型部署平台 AI 模型部署是将训练好的 AI 模型应用到实际场景中的过程。 以下是一些常见的 AI 模型部署平台: 云端部署 云端部署是最流行的 AI 模型部署方式之一,通常使用云计算平台来托管模型和处理请求。

    1.8K10编辑于 2024-07-24
  • 来自专栏帅云霓的技术小屋

    模型AI底层技术揭秘 (7) 卡车搬运的数据

    在开篇之初,我们提到了最简单的AI算法:线性回归 (Linear Regression)。 实际上,一元线性回归是最简单的AI算法。 = np.float32(np.random.rand(2, 100)) # 随机输入 y_data = np.dot([0.100, 0.200], x_data) + 0.300 # 构造一个线性模型 又调用CUDA库,将常见的机器学习算法进行封装,使得数学水平没有那么好的工程师们也可以简单快速地开发AI/ML应用。 让我们再回到《大模型AI底层技术揭秘 (2) 人妖之间的国度》中提到的“算盘打出原子弹”的故事。实际上,这是一个典型的分布式并发计算的场景。Tensorflow也提供了分布式训练的能力。

    44120编辑于 2023-10-30
  • 来自专栏学习笔记持续记录中...

    处理模型数据(7

    Spring MVC提供了以下几种途径输出模型数据: ModelAndView 控制器处理方法的返回值是ModelAndView,则其既包含视图信息,也包含模型数据信息 // success.jsp 返回的目标页面 ; return modelAndView; } } Map&Model Spring MVC 在内部使用了一个org.springframework.ui.Model接口存储模型数据 ,具体步骤: 1)SpringMVC在调用方法前会创建一个隐含的数据模型,作为模型数据的存储容器, 成为”隐含模型” 2)如果方法的入参类型为Map或Model,会将隐含模型的引用传递给这些入参。 3)在方法体内,可以通过这个入参对象访问到模型中的所有数据,也可以向模型中添加新的属性数据 Spring Web MVC 提供Model、Map或ModelMap让我们能去暴露渲染视图需要的模型数据。 @SessionAttributes 除了可以通过属性名指定需要放到会话中的属性处,还可以通过模型属性的对象类型指定哪些模型属性需要放到会话中 @SessionAttributes(types=User.class

    50400发布于 2020-03-18
  • 揭秘边缘AI性能7倍提升:模型量化与推测解码技术

    某中心的Jetson AGX Thor边缘计算平台,自2025年8月发布以来,通过持续的软件优化,其生成式AI性能已实现了7倍的增长。 例如,在Llama 3.3 70B模型上使用推测解码,可获得88.62输出令牌/秒,相比首发性能实现了7倍加速。 零日支持运行最新模型开发者可在边缘端使用Jetson Thor,并享受零日支持,运行最新、最强大的生成式AI模型。 v1Llama-3.1 Nemotron Nano 4B v1.1通过量化与推测解码实现最大性能要充分发挥Jetson Thor在边缘生成式AI方面的强大能力,需要采用正确的技术。 如果所选模型仍然不够快,则使用更小的模型重复此过程。可以通过实践教程了解如何运行这些性能基准测试。现在,开发者可以满怀信心地提升其生成式AI模型在Jetson Thor上的性能了。

    22010编辑于 2026-01-09
  • 来自专栏机器学习算法与Python学习

    Torch7模型训练

    Torch7搭建卷积神经网络详细教程已经详细的介绍啦Module模块,这里再次基础上再给出一些上Container、 Transfer Functions Layers和 Simple Layers模块的理解 并在后面给出一些简单的模型训练方法。下述程序在itorch qtconsole下运行。 上一篇博文讲到Module主要有四个函数(详细见Torch7搭建卷积神经网络详细教程),但是注意以下几点:forward函数的input必须和backward的函数的input一致,否则梯度更新会有问题 上述函数的具体使用方法可以看Torch7的官方API以及帮助文档。接下来仅介绍一些模型训练所需要的关键函数。 将image包导入当前运行环境,随机生成一张1通道32x32的彩色图像,如下 ?

    1K130发布于 2018-04-08
  • 来自专栏新智元

    7nm世界最大芯片打造AI集群,解锁120万亿「大脑级」AI模型

    今日,Cerebras 宣布世界首个「大脑级」AI 集群,能够训练120万亿参数模型,击败人脑百万亿个突触! 突触,是神经网络的「桥梁」。 人类大脑有大约 100 万亿个突触,860 亿个神经元。 而现在,Cerebras 宣布了「第一个大脑级 AI 解决方案」! 一个可以支持 120 万亿参数 AI 模型的单一系统,击败了人脑万亿个突触。 192个AI集群,解锁万亿参数模型 参数越多,人工智能模型就越复杂。 谷歌在短短2年内将模型参数的数量提高了大约1000倍。 参数的数量,所需的算力,都呈指数级增长。 优化内核,采用台积电的7nm工艺制造。 而且,正是采用了台积电的7nm工艺,电路之间的宽度仅有七十亿分之一米。 当有内核发生故障时,单独的故障内核并不影响芯片的使用。况且在台积电这样的晶圆代工厂中,很少会出现连续的内核缺陷。

    55520发布于 2021-09-17
  • 7天到4小时:DeepFig如何重构AI模型整合效率

    被低估的时间成本某金融科技公司的AI团队正在经历一场效率灾难:为上线智能投研系统,需要整合LLM、Code、CV三个模型7名工程师耗时14天,经历37次失败尝试最终GPU资源占用超预算200%,响应延迟高达 传统多模型整合正消耗企业25%的AI研发时间,成为业务创新的隐形瓶颈。DeepFig的效率革命1. 部署时间:7天→4小时timeline title 模型整合流程对比 section 传统方案 需求分析 : 1天 模型选型 : 2天 接口开发 : 人力成本:7人→1人传统方案:AI工程师×3 + 运维×2 + 产品×2DeepFig方案:仅需1名业务人员操作年节省人力成本:约120万元/年3. 自动化性能优化AI自动调整模型参数,平衡速度与精度动态资源调度,闲时资源利用率提升至90%智能缓存热门请求,重复查询响应加速80%真实效率提升案例某银行智能客服系统挑战:需整合LLM+ASR+TTS模型

    19210编辑于 2025-09-10
  • 来自专栏开源心路

    AI模型实战

    背景 通过示例梳理AI模型训练流程,示例比较简单,方便演示。 流程 机器学习实战步骤 定义问题 数据收集和预处理 选择算法并建立模型 训练模型 模型评估和优化 示例 定义问题 根据公开数据集预测加州房价分布 数据收集 import pandas as pd df_housing.drop("median_house_value",axis = 1) #构建特征集X y = df_housing.median_house_value #构建标签集y 选择算法并建立模型 #导入线性回归算法模型 model = LinearRegression() #使用线性回归算法 model.fit(X_train, y_train) #用训练集数据,训练机器,拟合函数,确定参数 211157.06335417 218581.64298574 465317.31295563 ... 201751.23969631 160873.51846958 138847.26913352] 模型评估

    33710编辑于 2023-06-30
  • 来自专栏服务端技术杂谈

    AI Agent:模型->工具->结果->模型

    Reddit上有人说,AI Agent就是:模型->工具->结果->模型。 从程序员角度来说,就是拼接参数json,调用LLM,处理返回值json。 不需要用什么复杂的框架,基本上只需要串联: 用户输入目标Prompt->将提示词传递给LLM->模型决定下一步->需要工具(API调用、爬取网页、操作API)执行->将结果反馈给模型进行下一步->直到任务完成 即:模型 → 工具 → 结果 → 模型 关于记忆,先用短期记忆,比如最近几条上下文消息。 如果需要跨会话记忆,可以从持久存储获取,比如向量数据库。

    13110编辑于 2026-03-11
  • 使用Spring AI调用AI模型

    简介Spring AI是Spring框架对人工智能和机器学习的支持模块,它提供了一套简单易用的API来集成各种AI服务和模型。 主要功能集成主流AI模型服务(如OpenAI、Azure、 Baidu千帆等)提供统一的API接口支持提示词工程内置向量存储功能支持文本嵌入和文本生成核心概念AI Client统一的客户端接口,用于调用 代码助手 代码解读复制代码spring.ai.openai.api-key=youkeyspring.ai.openai.base-url=https://api.deepseek.comspring.ai.openai.chat.options.model 对接阿里大模型Spring AI Alibaba 开源项目基于 Spring AI 构建,是阿里云通义系列模型及服务在 Java AI 应用开发领域的最佳实践,提供高层次的 AI API 抽象与云原生基础设施集成方案 ,帮助开发者快速构建 AI 应用。

    1.4K10编辑于 2025-03-27
  • 来自专栏python3

    django-7-django模型系统

    <<<常用的模型字段类型>>> https://docs.djangoproject.com/en/2.1/ref/models/fields/#field-types  InterField  CharFiled 2.1/ref/models/fields/#field-options primary_key auto_dreated unique指定是否为唯一 auto_now <<<常用查询>>>  通过模型类上的管理器来构造  模型类上的管理器(class.objects)  queryset (惰性,,没有操作数据库)表示数据库中对象的集合,等同于select 语句   query 获取mysql 语句  first()

    1.2K10发布于 2020-01-17
  • 来自专栏科技记者

    7模型评估 笔记

    7.2 k折交叉验证模型性能 这个方法可以解决过度适应的问题, library(modeldata) library(e1071) data(mlc_churn) churnTrain <- mlc_churn 7.5 caret包对变量重要程度排序 得到监督学习模型后,可以改变输入值,比较给定模型输出效果的变化敏感程度来评估不同特征对模型的重要性。 ='churn'][,-c(5,6,7)], trainset[,'churn'],sizes = c(1:18), rfeControl = ldaControl) 通常会基于曲线下面积AUC来衡量模型的分类性能。 install.packages("ROCR") library(ROCR) svmfit <- svm(churn~. 7.13 caret包比较模型性能差异 # 模型重采样 cv.values <- resamples(list(glm=glm.model, svm=svm.model, rpart = rpart.model

    99620编辑于 2022-03-04
  • 来自专栏量子位

    AI的大模型时代 ≠ 只有大模型AI时代

    从这个规律来看,大语言模型(简称LLM)出现后虽然霸占了所有与AI相关的关键词,吸引了所有人的注意力,但这并不代表“LLM之前无AI”。 所以,AI不是只有大模型AI的大模型时代也 ≠ 只有大模型AI时代。 成熟的AI,早就已经上岗了 或许你还不敢相信,现在哪怕小小的快递背后,都已经有AI技术在加持了。 对于参数量为70亿的较小模型BLOOMZ-7B,在Gaudi®️2的单设备时延约为第一代Gaudi®️ 的37.21%;而当设备数量都增加为8后,这一百分比进一步下降至约24.33%。 这便是英特尔在AI模型时代中的“加速之道”了。 还会带来怎样的变革? 纵观AI技术的发展之路,不难发现英特尔在其中履行着一条非常清晰的准则——用起来才是硬道理。 更多《英特尔平台上的行业AI实战与大模型优化》相关内容,可扫描下方海报中的二维码获取。点击原文链接,阅读英特尔《最“in”大模型》专栏的所有文章。 — 完 —

    64910编辑于 2023-09-27
  • 来自专栏黑泽君的专栏

    7层OSI网络模型概述

    7层OSI网络模型 7层OSI网络模型概述: 7.应用层: 主要是一些终端的应用,比如说FTP(各种文件下载)、WEB(IE浏览)、QQ之类的(可以把它理解成我们在电脑屏幕上可以看到的东西 网络参考模型图 ? 网络模型举例 ?

    53020发布于 2018-10-11
  • 来自专栏云云众生s

    私有 AI 模型已死,私有 AI 模型万岁

    私有 AI 模型已死,私有 AI 模型万岁 翻译自 Proprietary AI Models Are Dead. Long Live Proprietary AI Models 。 因此,私有模型已死。 然后是谷歌 I/O 2023 。 Google Bard ,一个基于自己的专有数据集的生成式 AI 搜索引擎,受到好评如潮。引用最多的功能是它能够将实时数据合并到其模型中。 生成式 AI 成功的代价 事实证明,访问实时数据来构建模型是昂贵的。谷歌花费数十亿美元来构建基础设施,以实时索引网络以构建他们的生成模型,你可以打赌这将是私有的。 基础 AI 模型的未来 那么,这是否意味着每个生成式 AI 用例都需要一个基于私有实时数据构建的基础模型?否,但还有其他原因需要私有的基础模型: 私有的第一方数据集。 希望构建生成式 AI 的企业可能需要依赖大公司的基础模型,这些公司拥有支票簿来维护自己的实时数据基础设施和其他用例的开源基础模型。 企业所依赖的专有数据集也将越来越实时。

    35210编辑于 2024-03-27
  • 来自专栏云云众生s

    AI模型组合指南

    考虑一款旨在识别和分类野生动物照片的 AI 驱动的图像识别应用程序。您上传一张远足时拍摄的照片,几分钟后,该应用程序不仅识别出照片中的动物,还提供了有关其物种、栖息地和保护状态的详细信息。 这种分层方法提供了细致入微的分析,超出了单个 AI 模型的能力。 什么是模型组合? 从本质上讲,模型组合是一种机器学习策略,它结合了多个模型来解决一个复杂的难题,而单个模型无法轻松解决。 Boosting:顺序训练模型,其中每个模型都尝试纠正前一个模型所犯的错误。 Stacking:训练多个模型,然后使用一个更好的模型,该模型利用每个基础模型的优势来提高整体性能并结合它们的预测。 容器化:使用 容器部署 AI 模型可以帮助管理每个模型的依赖项和环境。容器编排工具(如 Kubernetes)可以帮助管理容器化模型的部署、扩展和网络。 但是,如上例所示,BentoML 和 BentoCloud 等平台可以通过允许开发人员高效地打包、部署和扩展多模型服务,帮助开发人员构建多个模型AI 应用程序。

    56710编辑于 2024-05-19
领券