首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏云云众生s

    5个实际开源的多模态AI模型

    译自 5 Multimodal AI Models That Are Actually Open Source,作者 Kimberley Mok。 Aria 最近推出的Aria AI模型来自Rhymes AI,被誉为世界首个开源的多模态原生专家混合 (MoE) 模型,它可以在一个架构中处理文本、代码、图像和视频。 Leopard的整体模型流程。 3. CogVLM CogVLM利用深度融合技术来获得高性能,代表认知视觉语言模型,这是一个开源的、最先进的视觉语言基础模型,可用于视觉问答 (VQA)和图像字幕。 5. xGen-MM 也被称为 BLIP-3,这是来自Salesforce 的一套最先进的开源多模态模型,它包含一系列变体,包括一个预训练基础模型,一个指令微调模型和一个旨在减少有害输出的安全微调模型。 结论 围绕开源 AI 的实际定义仍然存在持续的激烈争论,充斥着大型科技公司对其 AI 模型进行“开源洗白”以获得更广泛的信誉和声望的指控。

    2.1K10编辑于 2024-12-14
  • 来自专栏星哥的AI自留地

    OpenAI发布最新大模型GPT5、本地部署GPT开源模型

    OpenAI发布最新大模型GPT5、本地部署GPT开源模型GPT-5概述北京时间 2025年8月8日 凌晨1点 OPENAI举行了1个小时的线上发布会,正式推出了其史上最聪明、最强大的大模型GPT-5 开源模型 gpt-oss-20b 与 gpt-oss-120bOpenAI 开源 gpt-oss-20b 与 gpt-oss-120b 两款模型,Apache 2.0 许可证,水平与 o4-mini 相当 gpt-oss-20b 与 gpt-oss-120b 最低硬件要求来自ChatGPT5的回答来自本地gpt-oss-20b的回答如何在本地安装开源的GPT-oss-20b星哥的测试环境系统:Windows11 Ollama的Turbo服务Ollama 推出了名为 “Turbo” 的付费服务,旨在解决本地运行超大模型的性能瓶颈,让用户在数据中心级的硬件上运行大型开源模型,服务月费为 20 美元。 最后以上就是全部内容,GPT-5的简介和在本地搭建使用OpenAI的GPT-oss的开源模型。写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!

    1.2K10编辑于 2025-08-27
  • 来自专栏技术人生黄勇

    付了GPT-5的钱,用的是开源模型

    最近一直在用OpenClaw,由于 token 费用较高,以及对模型效果追求,想在Claude、GPT-5这类顶级模型,和国内性价比高的模型之间无缝自由切换,找到了一些专门做大模型聚合中转的服务商。 提供商按官方费率收费,但用低成本开源后端替换高级模型。 比如,某个中转平台声称按平价提供GPT-5,但通过LLMmap指纹识别,实际后端是GLM-4-9B。 提供商施加适度的附加费,但仍然悄悄地替换底层模型。 比如,某个API对GPT-5收取1.09倍官方费率,看起来只加了一点价,但实际交付的是降级的后端。 它们背后有一套成熟的开源基础设施系统。 论文的研究发现,17个Shadow API服务中,11个建立在开源AI模型聚合和再分发系统之上,主要是 OneAPI 及其衍生产品 NewAPI。 这还不算下游5,966次引用的可复现性成本,其中静默模型替换可能在没有任何可见错误信号的情况下静默地破坏相关实验结果。

    48710编辑于 2026-03-11
  • 来自专栏睡前机器学习

    开源模型到底开源什么?

    但大语言模型的“开源”完全不是这么一回事。先别管OpenAI现在名叫钮钴禄氏·CloseAI,就算哪天良心发现,真的要找回自己做一个名副其实的OpenAI,洗心革面把GPT-4给开源了。 算法的核心部分主要包括有模型结构和训练方法,这两部分都有对应的源码。哪天OpenAI公开源码,我们应该就能看到的也就是模型结构和训练方法两部分。 当然,这只是核心部分。 那么,现在很多研究者在呼吁的开源,到底是要开源什么呢?开源模型,具体来说,是开源训练好的模型参数。模型参数拿到手,基本上就能完整复现能力了。 前面说过,模型这玩意距离能力复现就一步之遥,有很多人爱开源模型,也有很多人不爱开源模型,原因和上面差不多,还有一种是大公司大机构才敢用,官方辞令很多,譬如“出于社会责任考虑”,或者“安全伦理存在巨大风险 这里为咱们的中文开源大语言模型打个Call吧,能讲中文还开源的大语言模型真的不多,清华放出来的ChatGLM-6B应该是佼佼者,而是真·单卡就能运行。这里说的是消费级显卡。

    1.6K20编辑于 2023-09-09
  • 来自专栏一些有趣的Python案例

    GitHub YOLOv5 开源代码项目系列讲解(六)------使用云端GPU训练Yolov5模型

    本专栏将从安装到实例运用全方位系列讲解 GitHub YOLOv5 开源代码。 专栏地址:GitHub YOLOv5 开源代码项目系列讲解 目录 1 登录云端 GPU 网站 2 传入文件到云端 3 解压缩文件夹 4 进入文件路径 5 安装装所需环境 6 添加 tensorboard unzip /content/yolov5-v5.0.zip -d /content/yolov5 4 进入文件路径 进入到红框所指文件夹中 %cd /content/yolov5/yolov5 -v5.0 5 安装装所需环境 ! python train.py --rect 再回到上一步运行的 tensorboard 页面中刷新 云端 GPU 训练 yolov5 模型至此讲解完成。

    1.7K21发布于 2021-09-07
  • 来自专栏机器学习与统计学

    世界上最强大的开源模型,GLM-5实测,本地部署,Ollama免费提供云端模型

    模型春晚 2.0 世界上最强大的开源模型来了 没想到最先来的是 GLM-5,师承 DeepSeek,股价大涨 40% 正如前面推测的一样,它就是 GLM-5 本文只说三件事: 简介 本地部署/压缩 Max-Thinking 阿里 Qwen3-Max-Thinking 来了,加上 TTS 更强了,依然不开源 让我吃惊的是 Ollama 云端量化后的 GLM-5,表现很稳,除了换行有点瑕疵(Ollama Claude Opus 4.5、Gemini 3 Pro、GPT-5.2 站一起了 Artificial Analysis 的测评数据,GLM-5 是目前世界上最领先的开源模型,分数逼近 Claude /glm-5 3、Ollama 免费云端模型 + 一键配置到 Claude Code、Codex、OpenCode、OpenClaw! 、配置教程 GLM-5 绝对是个值得尝试的国产大模型,我后续将在OpenCode中替换掉K2.5,深度感受一下 制作不易,如果这篇文章觉得对你有用,可否点个关注。

    5K10编辑于 2026-03-02
  • GLM-5深夜登场,这是国产开源模型首次逼平Claude Opus 4.5。

    深夜,GLM-5来了。 还是老样子,发布即开源。 而且前几天,OpenRouter平台不是有一个Pony Alpha的匿名模型很火吗。 说实话,一个国产模型,还开源出去,能到这个水平,已经非常非常让人自豪了。 同时在我看好的系统工程能力、长任务能力,在跑分上也能得到印证。 而且还有个场景,GLM-5做的也很好,就是构建Skills。 这个其实也挺考验模型的理解和执行能力的。 我很喜欢用咱们的老演员yt-dlp测试GLM-5打包Skills的能力。 而且更重要的是,GLM-5开源的,价格更是Claude的N分之1。 能力接近,开源免费,价格便宜。 而开源,更是意味着,B端能用上,企业能用上。 AI编程这件事,在国内,门槛真的,正在急剧降低。 我非常非常推荐大家,去试试GLM-5吧,真的还不错。 站在今天这个节点,我其实很想说跟冯骥一样的话: 我真的很庆幸,这个开源模型。 来自智谱,来自中国。

    3.8K10编辑于 2026-02-28
  • 来自专栏后端云

    5分钟本地部署史上最强开源模型Llama3

    几天前meta发布了史上最强开源模型Llama3,要想免费使用Llama3,除了去官网 https://llama.meta.com/llama3/ 在线使用外,还可以本地部署。 LM-studio 3. ollama 其中以ollama部署最为便捷和友好,部署时间可在5分钟内完成。本篇就介绍ollama本地部署llama3模型。 step2:命令行执行ollama run llama3 (默认是下载8b的模型,若要下载70b的,执行 ollama run llama3:70b) Llama3的最小版本8B和70B已经全面领先其他竞争对手的开源模型 其中70B的模型相当于GPT-4的水平,其中8B和70B都可以在个人PC上跑起来,8B就是80亿参数的模型只需要8G+的显存就可以流畅跑起来,70B就是700亿参数的模型虽然宣称需要40G+的显存,经测试在个人电脑的 目前市面上的界面多如牛毛,这里以开源软件chatbox为例,https://github.com/Bin-Huang/chatbox/releases 下载安装后,进入设置,配置使用本地ollama的llama3

    9.6K10编辑于 2024-05-06
  • 来自专栏学习

    开源模型与闭源大模型

    在人工智能(AI)和机器学习(ML)的快速发展过程中,大模型(Large Models)已经成为推动技术进步的重要力量。当前,业界存在两种主要的大模型开发模式:开源模型和闭源大模型。 一、开源模型 开源模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。 优点: 1.透明性和可验证性: 开源模型的代码和数据完全公开,任何人都可以检查模型的构建和训练过程,确保其行为的透明性。 三、开源模型与闭源大模型的对比 1.透明性与可控性: 开源模型的透明性更高,任何人都可以查看和验证其代码和数据,确保模型的行为符合预期。这对于学术研究和技术验证非常重要。 3.资源共享与独占优势: 开源模型在资源共享方面表现突出,任何人都可以利用这些开源资源进行学习和研究,促进技术的普及和应用。

    1.7K10编辑于 2024-10-09
  • 来自专栏DevOps

    AI模型开源大语言模型bloom学习

    作为一名开源爱好者,我非常不喜欢知识付费或者服务收费的理念,所以便有决心写下此系列,让一般大众们可以不付费的玩转当下比较新的开源大语言模型bloom及其问答系列模型bloomz。 一、模型介绍 bloom是一个开源的支持最多59种语言和176B参数的大语言模型。 bigscience在hugging face上发布的bloom模型包含多个参数多个版本,本文中出于让大家都能动手实践的考虑,选择最小号的bloom-1b1版本,其他模型请自行尝试。 (checkpoint) #下载模型 网速足够快的情况下等一会就下载好了,但通常情况下我们得ctrl+c打断代码运行,手动下载模型存放到对应位置,即.cache\huggingface\hub\models–bigscience–bloom 下载模型地址: https://huggingface.co/bigscience/bloom-1b1/tree/main 把如上图所示链接中的五个文件(不包含这个flax_model.msgpack)

    90810编辑于 2024-03-29
  • 来自专栏技术趋势

    google开源模型-gemini

    官网:https://deepmind.google/technologies/gemini/#introduction 简介 Gemini是谷歌公司发布的人工智能大模型,能够在从数据中心到移动设备等不同平台上运行 “双子座”Ultra版本是首个在“大规模多任务语言理解”(MMLU)领域超越人类专家的模型。---百度百科 https://baike.baidu.com/item/Gemini/63729669? Whisper v3 文本能力 能力 标准 介绍 Gemini ultra GPT-4 总体 MMLU 57个学科(包括数学、物理、历史、法律、医学和伦理学等) 90.0%CoT@32* 86.4%5- HellaSwag 日常情景下的常识推理 87.8%10-shot* 95.3%10-shot*(reported) 数学 Gsm8K 基础算术操作(包括小学数学题) 94.4%maj1@32 92%5- 随着未来大模型的普及我们的工作肯定有一部分会通过AI来提高效率,所以可以提升了解并实践

    2.4K10编辑于 2024-01-15
  • 来自专栏xiaosen

    LLM主流开源代表模型

    LLM主流开源模型介绍 1 LLM主流大模型类别 随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。 目前,市面上已经开源了各种类型的大语言模型,本章节我们主要介绍其中的三大类: ChatGLM-6B:衍生的大模型(wenda、ChatSQL等) LLaMA:衍生的大模型(Alpaca、Vicuna 、BELLE、Phoenix、Chimera等) Bloom:衍生的大模型(Bloomz、BELLE、Phoenix等) 2 ChatGLM-6B模型 ChatGLM-6B 是清华大学提出的一个开源 因此, x_3 的二维位置编码是[3, 0], x_5 的二维位置编码是[5, 0], x_6​ 的二维编码是[5, 1]。 小结 主要介绍了LLM主流的开源模型,对不同模型架构、训练目标、优缺点进行了分析和总结。

    63810编辑于 2024-06-04
  • 来自专栏自然语言处理

    5开源RAG框架对比

    别急,今天给大家推荐五款完全开源免费的RAG框架,覆盖自动优化、多模态处理、本地部署、生产环境支持等多种场景,助你轻松搞定RAG开发! 1. ✨ 技术亮点: 使用@ollama运行本地LLM模型 采用@qdrant_engine作为本地向量数据库 适用场景:适合注重数据隐私、需要本地化部署的团队。 https://github.com/truefoundry/cognita 5. LLMWare:轻量专业,企业必备 核心优势:小型专业模型,轻量又高效! ✨ 特色功能: 提供50+针对企业任务优化的小型模型 支持完整的RAG生命周期 适用场景:适合企业环境中需要专业化、轻量级解决方案的场景。

    3.7K11编辑于 2024-12-31
  • 来自专栏毛利学Python

    yolov5模型转换NCNN模型部署

    写作原因:最近看了下nihui大佬的ncnn,练习着将yolov5训练的模型转换成ncnn模型并部署,同时借鉴了网上优秀的博文,记录一下,如有不对的地方,请多多指教。 说明:pytorch模型转换成onnx模型,及onnx模型简化和转ncnn模型在引用的文章中都有详细的说明,可移步至引用文章中查看。 图1 其实yolov5 v1-v5版本在训练完后,使用onnx2ncnn.exe将简化后的onnx模型转换成ncnn模型时主要出现这个问题。 V6版本在输出上和前5个版本有一点不同,这里针对1-5版本。 下面说下修改的是什么,这样就可以知道自己的模型应该修改哪里了。

    3.1K20编辑于 2022-09-22
  • 来自专栏机器学习入门

    【AI大模型】LLM主流开源模型介绍

    学习目标 了解LLM主流开源模型. 目前,市面上已经开源了各种类型的大语言模型,本章节我们主要介绍其中的三大类: ChatGLM-6B:衍生的大模型(wenda、ChatSQL等) LLaMA:衍生的大模型(Alpaca、Vicuna 、BELLE、Phoenix、Chimera等) Bloom:衍生的大模型(Bloomz、BELLE、Phoenix等) ChatGLM-6B模型 ChatGLM-6B 是清华大学提出的一个开源 因此, x_3的二维位置编码是[3, 0], x_5的二维位置编码是[5, 0],x_6​ 的二维编码是[5, 1]。 小结 本小节主要介绍了LLM主流的开源模型,对不同模型架构、训练目标、优缺点进行了分析和总结。

    1.2K10编辑于 2024-09-24
  • 来自专栏DeepHub IMBA

    开源大型语言模型(llm)总结

    研究人员努力解决模型在生成结果时可能存在的性别、种族、文化等偏见问题,以确保模型的输出更加公正和中立。 本文将总结目前能见到的所有开源的大语言模型。 位于阿布扎比的技术创新研究所(TII)宣布了其开源大型语言模型(LLM)——Falcon-40B。 TII还将模型的权重包含在开源包中,这将增强模型的功能并允许更有效的微调。 自2023年3月亮相以来,Falcon-40B的表现令人印象深刻。 Vicuna Vicuna是一个开源聊天机器人,通过从ShareGPT收集的用户共享对话进行训练。 除了以上6个比较好的开源大语言模型外,还有各种不同版本,所以HuggingFace创建了一个排行榜(leaderboard) 有兴趣的可以看看: https://huggingface.co/spaces

    76542编辑于 2023-08-30
  • 来自专栏科技云报道

    开源才是大模型的未来?

    目前,国内也有近一半的大模型选择了开源的方式: 今年7月,智谱AI宣布开源模型ChatGLM-6B和ChatGLM2-6B,这两个模型的下载量已经先后超过300万和120万。 8月,阿里宣布开源通义千问70亿参数模型Qwen-7B,一个多月下载量破100万;12月,阿里持续开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio 有业内人士认为,未来90%的企业会倾向基于开源模型发展。那么,开源是否真的是大模型的未来? 开源模型快速赶超 开源模型的核心理念是开放源代码,允许公众访问、使用、修改和分发模型的源代码。 “开源人工智能模型正走在超越专有模型的路上”,他感概道。 有网友甚至表示,我们正在接近一个临界点。以目前开源社区项目的发展速度,开源模型将在未来12个月内达到GPT-4的水平。 开源模型的商业化挑战 尽管开源已成为现阶段大模型发展的一种主流趋势,开源模型的发展速度也远快于封闭生态系统,但并非所有的厂商都选择开源路线,也并不代表厂商会一直开源所有的大模型

    46310编辑于 2023-12-26
  • 来自专栏AI工程落地

    大语言模型--开源数据集

    Huggingface排行榜默认数据集 Huggingface开源模型排行榜: Open LLM Leaderboard - a Hugging Face Space by HuggingFaceH4 本文主要介绍Huggingface开源模型排行榜上默认使用的数据集以及如何搭建自己的大模型评估工具 搭建大模型评估工具 1.下载数据集到本地 from datasets import load_dataset human-eval: Code for the paper "Evaluating Large Language Models Trained on Code" (github.com) 对比自己的实现和开源分数差异 为了在这个测试中获得高精度,模型必须具有广泛的世界知识和解决问题的能力。 模型需要根据prompt生成对应的代码,并且执行模型生成的代码,看是否能跑通。

    1.9K20编辑于 2024-09-18
  • 来自专栏Python进阶之路

    开源教育对话大模型 EduChat

    EduChat 是华东师范大学计算机科学与技术学院的 EduNLP 团队开发的开源教育对话大模型5.《心理学导论》(David G. Myers):这本书是一本广泛使用的心理学教材,它涵盖了各种主题,包括感知、记忆、思维、情感和人格。 希望这些书籍能够帮助你更深入地了解心理学。 模型回复可能存在偏见,有可能生成危险性言论。 在某些场景中,比如推理、代码、多轮对话等方面,模型的能力仍有待提高。 鉴于上述模型的局限性,我们要求开发者仅将开源的代码、数据、模型以及由该项目生成的衍生物仅用于研究目的,禁止用于商业用途,以及其他可能对社会带来危害的用途。 EduChat 数据 - 混合多个开源中英指令、对话数据,并去重后得到,约 400W

    1.9K30编辑于 2023-07-10
  • 来自专栏机器学习AI算法工程

    开源大语言模型LLMs汇总

    开源大语言模型 本文列举了截止到 2023 年 6 月 8 日开源的大语言模型 1、LLaMA 简介 meta 开源的 LLaMA LLaMA完全是在公共开源预训练数据上训练。 llama 2、ChatGLM - 6B 简介 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。 我们的 Panda 模型以及训练涉及的中文数据集将以开源形式发布,任何人都可以免费使用并参与开发。我们欢迎来自全球的开发者一起参与到该项目中,共同推动中文自然语言处理技术的发展。 本项目开源了经过中文金融知识指令精调/指令微调(Instruct-tuning) 的LLaMA-7B模型。 骆驼(Luotuo)项目是由冷子昂 @ 商汤科技, 陈启源 @ 华中师范大学 以及 李鲁鲁 @ 商汤科技 发起的中文大语言模型开源项目,包含了一系列语言模型

    2.9K10编辑于 2023-09-04
领券