首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AIGC新知

    发布「清流」企业级智能体开发平台

    AI于今日20点发布「清流」企业级智能体开发平台。它是专为企业AI应用落地打造的AI智能体开发平台。 基于全模型矩阵叠加与之深度适配的智能体开发框架,轻松实现的企业级AI智能体。 全模型矩阵 清流提供Agents、Workflow、知识管理、批量效果调优等能力,让企业无需专业编程即可快速构建高效的AI应用,推动业务全面智能化升级。

    1.6K10编辑于 2024-11-13
  • 来自专栏muller的测试分享

    AI 大模型

    简介是清华大学技术成果转化公司中英双语千亿级大模型 GLM-130B对话模型 ChatGLM开源模型 ChatGLM-6BAI 提效助手清言高效率代码模型 CodeGeeX多模态理解模型 CogVLM

    53510编辑于 2024-10-28
  • 来自专栏AIGC新知

    Today | AI Open Day

    前不久,官微放出来了关于AI Open Day的预告。 今天,AI 在OpenDay正式开源了GLM4系列的小版本-GLM-4-9B系列。 GLM-4-9B是AI最新推出的预训练模型GLM-4系列的开源版本。 此外,AI还推出了GLM-4-9B-Chat-1M模型,支持高达1M的上下文长度,相当于约200万中文字符。 目前AI开放平台支持了GLM4系列的语言模型和多模态大模型,每一个模型的定价策略不同: 评测结果 对话模型典型任务 基座模型典型任务 由于 GLM-4-9B 在预训练过程中加入了部分数学、推理、代码相关的

    52610编辑于 2024-10-08
  • 来自专栏AIGC新知

    「清影」同源模型 CogVideoX开源

    但是AI今天将清影 同源的视频生成模型CogVideoX开源了,让对手猝不及防!

    60310编辑于 2024-10-08
  • 来自专栏AI科技评论

    独家对话:开源的大模型越来越多,但选择慢慢来

    彼时,To B的路线已经渐成共识,关于是否会开源其百亿模型的讨论也在圈内不胫而走,而一直没有公布其下一步开源路线。 随之变化的不仅有的名声,还有的估值:短短半年多时间,的估值从10亿人民币飙升到140亿,成为中国第一家估值超过百亿的大模型创业公司。 近日,AI科技评论分别跟AI CEO张鹏、AI新晋首席生态官刘江聊了聊对开源的布局和认知,以及他们对行业的一些认知。 (关于的成长,AI科技评论将推出《狂飙的365天》,欢迎添加作者微信 zzjj752254 互通有无) 以下是AI科技评论与AI CEO张鹏、AI新晋首席生态官刘江的对话: 1 开源版本与商业版本的区别 张鹏:我们会告诉大家的定位就是做基座大模型,那么对于上层应用,贴近用户侧的事情交给合作伙伴去做,如果大家愿意跟一起合作,加入到的生态中来用新的生态的方式去做,很欢迎。

    3.4K10编辑于 2023-11-22
  • Claude Code × BigModel 实战集成指南

    Claude Code × BigModel 实战集成指南本文记录一次 Claude Code + BigModel(GLM Coding 套餐) 的完整体验,从 CLI 安装、IDE 集成 核心能力包括:在本地代码仓库中直接对话式开发理解项目结构、自动生成/修改代码支持多种 IDE(VS Code / JetBrains 全家桶)支持通过 兼容 Anthropic API 的第三方模型 接入(如 四、接入 BigModel(GLM Coding 套餐)Claude Code 可以通过 Anthropic API 兼容协议 接入大模型。 4.3 使用官方自动化工具(强烈推荐)提供了 Coding Tool Helper,可自动完成:Claude Code 安装API Key 配置MCP Server 管理模型套餐加载一条命令完成配置

    8.7K10编辑于 2026-01-19
  • 来自专栏技术人生黄勇

    Glyph:把信息,压缩成图片

    昨天,DeepSeek 发了 OCR 用图片来理解信息,缩减上下文 低清无码,不影响识别《通过视觉,确实可以压缩信息》 刚刚的,发了 Glyph 把信息压缩成图片,缩减上下文 Git:https:/ 最后 在这个时间节点上 大家都开始了视觉压缩的探索 用视觉方式表达信息,效率更高 毕竟:低清无码,不影响识别 DeepSeek 从图像提取信息 针对已经是图片格式的文档 验证视觉压缩下的文字还原能力 把文本变成图像

    12710编辑于 2026-03-11
  • 来自专栏漫漫架构路

    使用AI大模型翻译视频字幕

    不久前,国内的头部大模型厂商 AI ,刚刚推出了 glm-4-0520 模型,该模型被认为是当前平台最先进的模型,具备 128k 的上下文长度,并且相较于前一代模型,指令遵从能力大幅提升 18.6% 可以看出,AI对于该模型寄予厚望。 为了验证这个大模型的性能,我们尝试用它来实现【视频字幕翻译】功能。 下面,我们就可以利用AI的 glm-4-0520 大模型,将原版的英文字幕翻译成中文: # 构造Chain,将原版的英文字幕翻译成中文 llm = ChatZhipuAI(model="glm-4- 0520", temperature=0) # 使用AIglm-4-0520大模型 chain = ( {"content": lambda x: x.page_content} 最后,我们可以利用AI刚刚推出的 embedding-3 这个 Embedding 模型,计算下两个字幕的语义相似度: # 计算原版英文字幕和翻译后的中文字幕在语义上的相似度 embeddings

    1.3K10编辑于 2024-09-06
  • 刚刚,正式发布全新 AI 编码神器!

    人在变强的路上 才会真正爱上自己 就在 2025 年冬至刚过、圣诞余温未散的 12 月 26 日,公司悄悄扔出一颗“代码核弹”: Z Code—— 一款轻量级但野心勃勃的 AI 协同编程桌面工具。 快速上手:5 分钟召唤你的 AI 编程天团 Step 1:下载安装 官网 https://zcode-ai.com/cn macOS / Windows 全支持 Step 2:登录账号 首次打开

    1K10编辑于 2026-02-27
  • 来自专栏Alter聊科技

    OpenClaw意外走红,、MiniMax、Kimi终于“得救”了

    、Kimi或能借API“水电煤”模式成功逃离巨头流量内卷。 撰文|顾青云 编辑|沈菲菲 刚过去的半个月,国内互联网圈的画风有些诡异。 与ChatGPT、千问、清言App等“对话框”不同,OpenClaw是一个采用无头架构的自动化智能体框架。 三是脆弱的护城河: 今天用户觉得Kimi的长文本好用,明天清言更新了功能,后天千万发出了十几亿红包......用户立马切换阵营,毫无忠诚度可言。 而且OpenClaw对中国的大模型企业相当友好,、Kimi、MiniMax的模型都在第一时间支持,并被官方在X上多次推荐。 美元/百万Token,GLM-5为2.55美元/百万Token,Claude Opus4.6高达25美元/百万Token。

    42510编辑于 2026-03-27
  • AI赴港IPO的生死时速

    AI与MiniMax正在展开一场赴港IPO的生死时速。2025年12月17日,AI正式通过了港交所上市聆讯。巧的是,同日晚间,MiniMax也通过了港交所上市聆讯。 AI当前正在经历从“重资本”向“轻资产”转型。当前,AI主要的收入来源还是面向政府(ToG)和大型企业(ToB)的本地化部署。 AI背后隐形的双手我们从2024年的营收来看,AI确实了不得,已经在中国独立通用大模型开发商中拿下了第一,市场份额也占到了6.6%。 最为重要的是,的GLM架构实现了全国产化适配,并在东南亚等海外市场也开始有了一席之地。但同时,AI的背后也有着一双隐形的手在牵绊着。 不过,这一次赴港上市以后,AI还将接受更为严格的“资本考验”,尤其是AI能否真正为自身找到一条通往持续盈利的道路。

    32810编辑于 2025-12-22
  • 来自专栏深度学习与python

    解码RAG: RAG 技术的探索与实践

    AI 长期专注于大模型技术的研究,从 23 年开始,大模型受到了各行各业的关注, AI 也深度的参与到各种场景的大模型应用的建设当中,积累了丰富的模型落地应用的实战经验,其中 RAG 类应用占据了较大的比重 为此, AI 组建了一支专业团队,专注于打造企业服务场景的 RAG 系统,致力于为客户提供全面的支持与服务。 那么使用 RAG,有哪些优势呢? 传统 NLP 技术缺乏对人类对话的理解能力, ChatGLM 大模型原生的就能够理解对话的上下文。 旧方法只能提供固定答案,无法针对特定情况精准回答,而 ChatGLM 大模型能够生成有效答案或者推理生成更有针对性的答案。 AI 将继续致力于 RAG 技术的探索与实践,为企业在更多的领域落地大模型应用,提供更加智能、高效的服务体验。

    1.2K22编辑于 2024-06-27
  • 来自专栏AI杂谈

    开源autoGLM:AI手机操作系统之战正式打响

    这两天AI行业最大的新闻,就是突然又开源了autoGLM,为手机端提供了一个开放式的、谁都可以利用的agent平台。开源的时间节点非常好,因为就在豆包手机被拦截后。 在这个时间节点,可谓抓住了最大的热度,为自己的产品进行推广。从行业角度而言,前两天豆包手机被App拦截,只是一个表象事件。开源autoGLM,才是真正标志AI时代权力重新洗牌的关键节点。 2为什么要开源?不是因为情怀,也不是因为想扩大模型生态。原因只有一个,开源是唯一能切入硬件系统层的合法方式。安卓当年为什么能成功? autoGLM开源,就是在抢第一批手机系统合作伙伴。第三是软件厂商将进入AI化的生死战。从这个意义上来说,App的价值会被重新定义。能否被AIagent调用?能否提供工具级API?能否被模型理解? 推动的autoGLM开源,只是第一声枪响。真正的战争,还没开始。

    78200编辑于 2025-12-10
  • 发布AutoGLM沉思智能体-Beta版本的半成品

    今天我准备简单的跟大家聊一下新发布的AutoGLM沉思这么一个具备自我思考探索能力的智能体。 在发布了这个智能体以后,我也是第一时间去做了下载和试用,感觉这个东西有点接近于Manus这么一个通用智能体的概念,它具备了深度思考推理的能力,同时它还可以联网搜索去操作网页,去爬取相关的网页信息进行整合 所以我把这个问题丢给的AutoGLM沉思以后,其实他开始对我整个问题的理解还是相当到位的,他会详细规划出我整个差旅的行程住宿的要求,然后拿到这些信息以后,他就开始搜索相关的网页,或者是搜索相关的订酒店订机票的网站 至少上层这个通用智能体框架还是一个很好的参考,获取换个底层大模型可能就有更好的结果输出。 同时在试用完以后,我一直在想我们企业以后的通用智能体,它本身的生态究竟应该什么是什么样? 我一直在强调企业内部的 AI通用智能体,它一定是大模型和整个MCP协议生态的高度融合,而不是类似于像现在这种模式,他去模拟你去搜索模拟人,去操作网页,模拟RPA,机器人的这种操作。

    45010编辑于 2025-06-24
  • 来自专栏AI科技评论

    视频生成赛道再添「猛将」,清影正式上线

    值得关注的是,是目前国内超 200 亿估值的大模型公司中、第一家发布视频生成成果的创业团队。 清影便是基于这一模型的升级版——CogVideoX 实现的。 AI CEO 张鹏说道。 1、“清影”正式上线 今日,谱在Open Day 上正式发布“清影”后,当前,在清言平台上,该功能已正式开放内测,支持PC、APP及小程序。 2、依托自研提质增效 清影主要依托于团队自研的视频生成大模型 CogVideoX。 去年年末,还推出了多模态对话模型 CogVLM,今年逐步迭代至 CogVLM2。

    77510编辑于 2024-07-29
  • 发布AutoGLM沉思版,国产DeepResearch来了,人人皆免费。

    这种事估计也就只有能干的出来了,因为你想效果好,需要自己的DeepResearch和Agent模型,刚好,都有,而且都是自己自研的。。。 这个,也没有。 从种种都可以看出,是有模型底子的,他们的模型能力,坦率的讲,是真的很强。 甚至,跟OpenAI那昂贵的价钱不一样,他,不要钱,不限量,所有人免费用。 我已经能感受到,的算力,会燃烧成什么样了。。。 回过头来,我们再说下,该怎么去用AutoGLM沉思版。 说实话,的模型,是真的很强。但是在ToC的产品这一步,也许走得还稍微有点踉踉跄跄,但这颗种子终究还是种下了。 今何在的《悟空传》中有一句我很喜欢的台词: “花果山,什么时候才能重新长出花果来? 。 以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧

    1.5K10编辑于 2025-04-14
  • 来自专栏人工智能领域

    AI大模型免费开放:开启AI创作新时代

    文章摘要:近日,国内领先的人工智能公司AI宣布旗下多款大模型服务免费开放,这一举措标志着大模型技术正式迈入普惠阶段。 AI与大模型技术 AI作为国内人工智能领域的领军企业,一直致力于认知智能大模型的研发。 此次开放的大模型:GLM-4 此次AI免费开放的大模型中,最引人注目的当属最新的GLM-4。 二、使用步骤: 想要体验AI大模型的强大能力,只需按照以下步骤操作: 1. 注册账号: 访问AI官网(https://open.bigmodel.cn/),注册并登录AI开发者平台。 2.展望未来 AI大模型的免费开放仅仅是一个开始。未来,AI将继续加大研发投入,不断提升大模型的性能和能力,并探索更多创新的应用场景。

    3K10编辑于 2025-04-19
  • 来自专栏存内计算加速大模型

    AI推出GLM-4,性能逼近ChatGPT-4

    ChatGPT、GLM-4、Claude3等大模型不断涌现,本文将详细介绍AI所推出的GLM-4大模型,分析其背景、性能、应用等。 例如,北京华章科技有限公司(简称“AI”)致力于打造新一代认知智能大模型,专注于中文认知大模型。 AI合作研发了中英双语千亿级超大规模预训练模型GLM-130B,并基于此推出对话模型ChatGLM,开源单卡版模型ChatGLM-6B。 今天,我们将聚焦于GLM-4这款由AI推出的国内大模型,详细分析其性能和应用等。 参考文献[1]AI官网(https://www.zhipuai.cn/).[2]极客公园. AI 推出新一代基座大模型 GLM-4,能力逼近 GPT-4,配备多模态、长文本和智能体(https:

    2.4K10编辑于 2024-06-14
  • 来自专栏机器学习

    聆思大模型AI套件与AI结合使用

    前段时间拿到了一个AI套件的试用,最近正好赶上智也有免费TOKEN的活动,就打算看看两者结合起来效果如何。 今天只是简单的一个流程上的POC,如果需要详细的教程欢迎大家持续关注。 1. 创建本地AI应用 安装SDK pip install zhipuai 安装好SDK我们可以写一个方法,用于检测出我需要的实例,例如我输入:你能帮我查询2024年5月1日从无锡到漠河的火车票吗? 创建聆思应用 我们先简单的编排一下,测试一下环境 点击右上角的部署后,我们可以在首页拿到我们的测试连接 接下来我们创建一个Python脚本进行测试 可以看到,环境目前没有什么问题,剩下的就是如何将聆思和合起来用了 self.ls_token = "聆思的Token" self.ls_app_key = "聆思的APP ID" self.zp_api_key = " 我们通过Django将的项目部署到腾讯云上,然后在聆思APP上,通过request的模块访问我们的API接口,从而完成需求 Django搭建的部分我这里暂时省略,需要的话后期出一个完整教程,本次的测评文章中就不再赘述了

    64600编辑于 2024-04-24
  • 来自专栏CodeGuide | 程序员编码指南

    我给清华Ai(ChatGLM),写个Java对接的SDK!

    —— Ai不是已经有了一个SDK吗?为啥还要写呢?那你写多少了? 在很早之前就关注了Ai(ChatGLM),也看到官网有一个Java对接的SDK方式。 但不影响Ai(ChatGLM)是个好东西。他的官网中有API HTTP 接口对接描述。所以,小傅哥决定跟着按照它的文档写一个能简单对接,代码有干净整洁的 SDK 让大家使用。 那么,接下来小傅哥就介绍下,如何基于Ai(ChatGLM)的开发者文档,开发一个通用的SDK组件。也让后续有想法PR贡献源码的伙伴,一起参与进来。 本文不止有Ai-SDK开发,还有如何在项目中运用SDK开发一个自己的OpenAi服务。文末有SDK链接和OpenAi应用工程。 但在对接Ai的Api时,需要把获取的ApiKey按照.号分割,并需要进行JWT-Token的创建。而这个Token才是实际传给接口的内容。

    2.8K52编辑于 2023-10-19
领券