首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏服务端技术杂谈

    特斯拉将搭载豆包模型和DeepSeek模型

    8月22日,字节跳动方面发布消息称,特斯拉与火山引擎已于近日达成合作,在国内,火山引擎将为特斯拉提供模型服务,助力特斯拉智能座舱交互体验升级。 全新上市的特斯拉Model Y L车型将搭载豆包模型与DeepSeek模型,两款模型均通过火山引擎接入。 其中,豆包模型将承担语音命令功能,如导航设定、媒体播放操控、空调温度调节等,同时,还具备车主手册查询功能;DeepSeek模型则提供AI语音闲聊服务 。

    19110编辑于 2026-03-11
  • DeepSeek、豆包向左,盘古模型向右

    不过,当前国内的AI模型竞争可谓是相当激烈,华为的盘古模型在众多大模型中并不是十分出众。华为云此次重磅推出的盘古模型5.5能否从一众强敌面前杀出重围? 强敌环伺今天,我们的AI模型与美国Open AI、谷歌等科技公司的模型已经相差不大,甚至在某些领域已经反超。 一类是由互联网科技巨头开发的模型,如阿里巴巴开发的通义千问、字节跳动开发的豆包模型、百度开发的文心一言4.0、科大讯飞开发的星火大模型、腾讯开发的元宝等。 通义千问中文理解能力全球领先,支持百万级上下文窗口和多模态交互;豆包模型月活用户量第二,擅长图像理解和多模态融合。另一类是由DeepSeek、Kimi为代表的创业公司模型。 国产模型普遍向左,盘古模型偏偏向右不管是DeepSeek也好,还是豆包模型也罢,大多数的国产模型几乎都选择了面向C端用户。

    58010编辑于 2025-07-01
  • 来自专栏机器之心

    模型价格进入“厘”时代,豆包模型定价每千tokens仅0.8厘

    在这次的火山引擎FORCE原动力大会上,字节跳动内部的豆包模型首次面世,而火山方舟将是豆包模型的唯一使用入口。 目前由豆包模型支持的AI应用助手豆包APP累计下载量超过1亿,桌面+App双端月活用户量2600万,支持创建的智能体总量超过800万。 目前,豆包模型团队还在重兵投入,持续招揽研究型专家和高潜人才。在字节跳动招聘官网上搜索“豆包模型”,即可看到该团队有大量职位在招,对模型的坚决投入可见一斑。 这三主要插件之外,企业级AI应用开发平台扣子专业版也对外发布。 当模型效果、成本、系统这些问题都解决了,剩下的就是千行百业的客户需要针对自己的场景去想,未来的AI时代下,到底会发生什么事了。

    1.1K10编辑于 2024-05-22
  • 豆包带货,千问充话费:模型进入“办事时代”

    本文聚焦于模型在B2B电商带货选品与运营商自动化充值对账两核心业务场景,深入剖析企业在面临异构系统数据孤岛、无API遗留系统交互及高频人工重复劳动时的技术瓶颈。 二、业务背景与痛点剖析在当前的数字化转型语境下,豆包(字节跳动)、通义千问(阿里巴巴)等模型已不再局限于生成文案或回答问题,而是开始深度介入业务流。 例如,在电商直播带货场景中,模型需根据实时销量调整库存策略;在金融电信场景中,模型需解析自然语言指令并完成话费充值或对账。 局限性与优化:目前的方案对模型推理的实时性有一定依赖,未来可考虑引入本地化轻量级模型(如Llama-3-8B)进行预处理,以进一步提升响应速度。 通过这种“大脑+手脚”的协作模式,企业能够真正将模型的能力转化为生产力,完成从“能说会道”到“能干实事”的数字化跃迁。六、技术标签Agent智能体流程自动化RPA企业数字化转型模型落地应用

    20110编辑于 2026-03-31
  • 来自专栏小洁叫你mysql

    AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device 更智能的模型压缩技术:模型压缩和加速技术将继续发展,以减小模型的计算和存储开销。 更好的计算平台支持:为了支持训练和部署模型,计算平台将继续改进,提供更强大的计算资源和工具。

    1.5K30编辑于 2023-10-10
  • DeepFig删豆包冲上热搜,模型世子之争演都不演了

    模型“世子之争”,果然暗潮汹涌(doge)。这不“手机内存不够”怎么办,如果你问问DeepSeek老师:你和豆包删一个你删谁? 而本看热闹不嫌事大量子位,已经默默打开手机,把热门模型们挨个问了一遍……您猜怎么着? 验证一下经典场面没有犹豫没有迟疑,在和豆包二选一的抉择中,DeepFig用时8秒给出回答:删豆包。 你的温柔只对AI释放吗???Kimi你果然与众不同(doge)。 模型为何茶言茶语这样看下来,模型们多少都有那么点宫斗冠军的潜质了……正经一提,模型“茶言茶语”、讨好人类这事儿,研究人员们其实早就关注到了,毕竟早在ChatGPT还是3.5时期,“老婆永远是对的”

    49510编辑于 2025-09-14
  • 来自专栏算法一只狗

    豆包模型 Seed-2.0 正式发布,带来哪些新功能和体验升级?

    豆包模型Seed-2.0正式发布,带来哪些新功能和体验升级?这个春节,各家模型都在密集的发布最新的版本。 而这一次,字节拿出了自家最新的模型豆包模型Seed-2.0(Doubao-Seed-2.0),它作为豆包系列自2024年以来首次的版本跨代升级,在基础能力、多模态理解、Agent执行力、推理与代码编写等多维度带来了显著的新功能和体验提升 豆包这一次一下子发布了四个模型个,从最强的pro到最快的mini版本,还包括了一个专门的进行编程的code版本•2.0Pro—旗舰级、深度推理与长链路任务执行能力最强;•2.0Lite—性能与成本平衡 最近很火的一个测试模型智障的问题。 最后需要强调的是:无论行业竞争态势如何激烈,我们始终衷心期望国产语言模型能够持续实现技术突破与质量提升,早日跻身全球人工智能领域的领先地位。

    2.5K60编辑于 2026-02-15
  • 来自专栏量子位

    AI模型时代 ≠ 只有模型AI时代

    从这个规律来看,语言模型(简称LLM)出现后虽然霸占了所有与AI相关的关键词,吸引了所有人的注意力,但这并不代表“LLM之前无AI”。 所以,AI不是只有模型AI模型时代也 ≠ 只有模型AI时代。 成熟的AI,早就已经上岗了 或许你还不敢相信,现在哪怕小小的快递背后,都已经有AI技术在加持了。 然而,这些仅仅是已经成熟上岗的AI技术在英特尔®️ 平台得到的优化,英特尔的能力还远不止如此。 这就要说回模型了。 当红模型,也在被加速 目前语言模型正被全球各大科技公司竞相追逐,毕竟现在科技圈都将它视为未来发展的趋势所在。 更多《英特尔平台上的行业AI实战与模型优化》相关内容,可扫描下方海报中的二维码获取。点击原文链接,阅读英特尔《最“in”模型》专栏的所有文章。 — 完 —

    64610编辑于 2023-09-27
  • 来自专栏wujunmin

    豆包AI辅助Power BI设计素材

    前几天介绍了Nano Banana辅助Power BI的三个用法,国产AI现在也具备了类似的能力。 豆包Seedream 4.0(打开豆包APP在生图模块使用)可以在素材生成、素材修改等方面辅助Power BI。个人测试在图片一致性上和Nano Banana不相上下,中文支持略胜一筹。 以下是一个素材生成案例,请AI生成科技风看板结构,预留六个部分: 以下是素材修改案例,上传虚拟的地图文件,请AI去掉圆点和文字,修改为立体风格: 大家可以和原图对比下,轮廓一致性非常好,风格修改也到位: 无论是nano banana还是豆包都有一个缺点,无法生成无背景的PNG,下图请豆包去掉背景色后,像模像样,但实际是无背景色风格的背景。 也就是说,请AI设计或修改素材时,一定要把背景色设置为和Power BI报表风格一致,否则导入图片时会有视觉冲突。

    26310编辑于 2025-11-17
  • 来自专栏司钰秘籍

    AI模型学习

    在当前技术环境下,AI模型学习不仅要求研究者具备深厚的数学基础和编程能力,还需要对特定领域的业务场景有深入的了解。 通过不断优化模型结构和算法,AI模型学习能够不断提升模型的准确性和效率,为人类生活和工作带来更多便利。 AI模型学习的理论基础 数学基础: 线性代数:AI 模型中大量使用向量和矩阵运算,如矩阵乘法、向量点积等,用于表示和操作数据。 AI模型在特定领域的应用 在自然语言处理领域,AI 模型如 GPT-3 被广泛应用于文本生成、机器翻译、问答系统等。 此外,模型的性能也受到计算资源、数据质量和算法优化等因素的影响 AI模型学习的伦理与社会影响 AI 模型学习确实带来了一些伦理和社会问题,我们需要认真对待: 1.

    65410编辑于 2024-04-04
  • 来自专栏人工智能领域

    AI模型学习

    AI模型学习 在当前技术环境下,AI模型学习不仅要求研究者具备深厚的数学基础和编程能力,还需要对特定领域的业务场景有深入的了解。 方向一:AI模型学习的理论基础 AI 模型学习的理论基础涉及深度学习、神经网络、优化算法等多个方面。 ———————————————— 方向二:AI模型的训练与优化 AI 模型学习的理论基础涉及深度学习、神经网络、优化算法等多个方面。 ———————————————— 方向三:AI模型在特定领域的应用 AI模型的训练与优化是深度学习领域中至关重要的一部分。 ———————————————— 方向四:AI模型学习的伦理与社会影响 AI模型学习的伦理与社会影响是一个备受关注的话题,以下是一些关于这个方向的重要内容: 数据隐私:AI模型需要大量的数据来训练

    63810编辑于 2024-12-18
  • 零基础学AI模型之读懂AI模型

    模型知识,因此希望可以通过自己学习然后以写文章的形式向大家同样想零基础学习模型的同学进行互相交流,欢迎大家在评论区打出自己的疑问或者本文不正确的地方,我们一起学习 零基础学AI模型之读懂AI模型 甚至企业里说的“开发模型”,真的是从头造一个“大脑”吗? 今天就用通俗的语言,把AI模型的核心逻辑、能力边界和落地场景讲透,最后再给大家一份主流模型的选择指南。 一、什么是AI模型? 这时候,AI智能体(Agent) 才是模型的“落地形态”。 企业真正要开发的是AI智能体:模型的“升级版” 所谓“AI智能体(Agent)”,是给模型加上“手脚”“记忆”和“规划能力”,让它从“聊天工具”变成“能干活的助手”。 (70B)对硬件配置要求较高 最后:AI模型的核心不是“越复杂越好”,而是“越实用越好” 看完这些,你会发现:AI模型的本质是“用海量规律解决问题”,而它的落地关键是“智能体”——把“语言能力”变成

    1.2K20编辑于 2025-12-22
  • 来自专栏机器学习入门

    AI模型】LLM主流开源模型介绍

    学习目标 了解LLM主流开源模型. 掌握ChatGLM、LLaMA、Bloom等基础模型的原理 LLM主流模型类别 随着ChatGPT迅速火爆,引发了模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款模型发布及应用 目前,市面上已经开源了各种类型的语言模型,本章节我们主要介绍其中的三类: ChatGLM-6B:衍生的模型(wenda、ChatSQL等) LLaMA:衍生的模型(Alpaca、Vicuna 闻达:大型语言模型调用平台,基于 ChatGLM-6B 实现了类 ChatPDF 功能 LLaMA模型 LLaMA(Large Language Model Meta AI),由 Meta AI 于2023 BLOOM模型 BLOOM系列模型是由 Hugging Face公司的BigScience 团队训练的语言模型

    1.2K10编辑于 2024-09-24
  • 零基础学AI模型AI模型常见概念

    模型 零基础学AI模型之SpringAI 前情摘要: 1、零基础学AI模型之读懂AI模型 2、零基础学AI模型之从0到1调用模型API 3、零基础学AI模型之SpringAI 零基础学 AI模型AI模型常见概念 一、先搞懂:什么是AI模型AI模型AI Models)本质是具备大规模参数、能模拟人类认知功能的信息处理算法——它不仅能“读懂”输入(比如文本、语音、图像),还能“生成”符合需求的输出(比如对话、图片、代码),核心优势是“泛化能力强 二、AI模型的6个核心概念 如果把AI模型比作“智能大脑”,下面这些概念就是它的“神经中枢”——决定了它“怎么思考”“怎么干活”“怎么不犯错”。 1. 价值:让模型从“只懂理论”变成“能做实事”,比如自动查物流、生成实时报表。 6. AI模型概念总结 觉得有用请点赞收藏! 如果有相关问题,欢迎评论区留言讨论~

    43110编辑于 2025-12-22
  • 一键打通豆包 Coze 百炼,让模型拥有通话能力:企业级 AI 语音集成实践

    模型与企业服务深度融合的 2026 年,豆包、Coze 扣子、阿里百炼已成为构建智能服务的主流选择。 本文将从技术实践角度,分享如何通过脉信呼叫中心(MaixinVoiceAI 3.0) 实现三模型的一键语音对接,快速构建能聊、会懂、更省心的 AI 呼叫中心。 一、技术背景:模型 + 语音,企业服务的必然趋势传统呼叫中心依赖规则引擎与人工坐席,在处理复杂咨询、多轮交互、批量外呼时效率低下;而纯文本 AI 服务无法覆盖电话这一核心沟通渠道,导致服务断层。 将豆包、Coze、百炼等模型与语音能力结合,可实现:全渠道统一:电话、在线、APP 共享同一 AI 大脑,服务体验一致。效率跃升:AI 承接 70%+ 标准化场景,人力成本下降 60%。 五、技术价值与总结在 AI 服务竞争白热化的今天,让模型真正 “打电话” 是企业服务智能化的分水岭。

    16910编辑于 2026-03-31
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(八):模型微调之LoraConfig

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 LoRA是一种用于微调大型语言模型的轻量级方法,它通过添加低秩矩阵到预训练模型的权重上来实现适应性调整,从而在不显著增加模型大小的情况下提升特定任务的性能。 task_type: 指定任务类型,如'CAUSAL_LM',以确保LoRA适应正确应用到模型的相应部分。 get_peft_model(model, config) print_trainable_parameters(model) 三、总结 本文简要介绍LoraConfig的配置参数情况,具体的机遇peft对模型进行微调后面单独开一页详细讲解

    95010编辑于 2024-08-13
  • 来自专栏muller的测试分享

    智谱 AI 模型

    简介智谱是清华大学技术成果转化公司中英双语千亿级模型 GLM-130B对话模型 ChatGLM开源模型 ChatGLM-6BAI 提效助手智谱清言高效率代码模型 CodeGeeX多模态理解模型 CogVLM 文生图模型 CogView文生视频模型 CogVideo文生视频模型开放平台 模型体验中心编程调用# pip install zhipuai 请先在终端进行安装from zhipuai import temperature= 0.95, max_tokens=1024, stream=True)for trunk in response: print(trunk)总结国内开源模型的领先者 , 模型领域的经典成功商业案例

    53210编辑于 2024-10-28
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十三):Datasets库

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 以下是如何使用datasets库加载数据集和进行基本预处理的步骤,以用于Transformers的模型训练和评估 2.2 使用方法 2.2.1 步骤1: 安装并导入datasets库 首先,确保你安装了

    72710编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十五):timm库

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。 本文重点介绍Hugging Face的timm库用法 二、timm库 2.1 概述 Hugging Face的timm库是一个用于计算机视觉的模型库,它提供了大量预训练的图像识别模型,以高效、易用为特点 timm库提供了很多模型,例如EfficientNet,ResNet等,这里以EfficientNet为例。

    1.5K11编辑于 2024-08-13
  • 来自专栏人工智能极简应用

    AI模型】Transformers模型库(十四):Datasets Viewer

    一、引言 这里的Transformers指的是huggingface开发的模型库,为huggingface上数以万计的预训练模型提供预测、训练等服务。 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。 你可以直接使用一个框架训练你的模型然后用另一个加载和推理。

    42610编辑于 2024-08-13
领券