首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏软件安装

    GitHub项目FLUX.2开源了,支持 10 张图片同时参考的开源模型

    作为此前在Hugging Face上仅次于DeepSeek-R1的第二受欢迎开源模型FLUX.1的继任者,FLUX.2不仅在技术上实现了多项突破,更将目标锁定在解决真实生产环境中的需求上。 核心特性:从单图生成到多模态协同 多图参考能力:前所未有的一致性控制 FLUX.2最令人瞩目的创新在于其同时参考多达10张图片的能力,并能在生成过程中保持字符、产品和风格的高度一致性。 例如,一张看似真实的模特照片,实际上可能融合了10张不同图片的元素——来自图A的服装、图B的姿势、图C的场景背景、图D的光照效果等等。 FLUX.2多图参考示例:由10张不同图片元素组合生成的逼真模特图 这种能力对于产品拍摄、广告制作、电商视觉设计等商业场景具有革命性意义,大幅降低了多次拍摄和后期合成的成本。 更多详细信息和故障排查,请参考: 官方文档 GitHub Issues Diffusers 量化指南 相关链接: FLUX.2 体验地址:http://bfl.ai/play FLUX.2 [dev] 开源地址

    55210编辑于 2026-03-26
  • 来自专栏机器之心

    10亿参数、多项SOTA,智源开源视觉基础模型EVA

    机器之心专栏 机器之心编辑部 智源开源了简单又强大、具有 10 亿参数的视觉基础模型 EVA,将最强语义学习与最强几何结构学习相结合,在 ImageNet 分类、COCO 检测分割、Kinetics 视频分类等广泛的视觉感知任务中取得当前最强性能 智源曹越团队最新开源的视觉预训练模型 EVA,将最强语义学习(CLIP)与最强几何结构学习(MIM)结合,仅需使用标准的 ViT 模型,并将其规模扩大到十亿参数(1-Billion)进行训练,即可得到当前最强大的十亿级视觉基础模型 参数量变引发性能质变:在 LVIS 上性能极强;可以稳定并加速 CLIP 训练,产生当前最强的开源 CLIP 模型。 圈重点:EVA 全家桶开源! 十亿参数的预训练模型,下游 ImageNet 图像分类、Kinetics 视频动作识别、COCO 和 LVIS 目标检测和分割、ADE20K 语义分割、以及最强 CLIP 模型,全部开源

    1.2K10编辑于 2022-12-16
  • 来自专栏五分钟学算法

    10开源项目

    作者 | SevDot 来源 | http://1t.click/VE8 Web 开发中几乎的平台都需要一个后台管理,但是从零开发一套后台控制面板并不容易,幸运的是有很多开源免费的后台控制面板可以给开发者使用 ,那么有哪些优秀的开源免费的控制面板呢? 我在 Github 上收集了一些优秀的后台控制面板,并总结得出 Top 10。 1. ---- 10. material-dashboard Github Star 数 7111,Github 地址: https://github.com/creativetimofficial/material-dashboard

    83130发布于 2019-09-12
  • 来自专栏睡前机器学习

    开源模型到底开源什么?

    算法的核心部分主要包括有模型结构和训练方法,这两部分都有对应的源码。哪天OpenAI公开源码,我们应该就能看到的也就是模型结构和训练方法两部分。 当然,这只是核心部分。 搞一个大模型已经十分不易,搞一个能喂饱大模型的数据集更为困难。OpenAI这种光启动资金就10亿刀的富二代企业,标数据照样也得想办法省钱,后来还出了一条新闻。 那么,现在很多研究者在呼吁的开源,到底是要开源什么呢?开源模型,具体来说,是开源训练好的模型参数。模型参数拿到手,基本上就能完整复现能力了。 前面说过,模型这玩意距离能力复现就一步之遥,有很多人爱开源模型,也有很多人不爱开源模型,原因和上面差不多,还有一种是大公司大机构才敢用,官方辞令很多,譬如“出于社会责任考虑”,或者“安全伦理存在巨大风险 这里为咱们的中文开源大语言模型打个Call吧,能讲中文还开源的大语言模型真的不多,清华放出来的ChatGLM-6B应该是佼佼者,而是真·单卡就能运行。这里说的是消费级显卡。

    1.6K20编辑于 2023-09-09
  • 来自专栏机器之心

    微软教小模型推理进阶版:Orca 2性能媲美10倍参数模型,已开源

    这样的能力在较小的语言模型中并不明显,因此现在的挑战就是如何利用对大型语言模型不断增长的知识,进而提升较小模型的能力。 在 Zero-shot 环境中对高级推理能力进行评估的复杂任务中,Orca 2 明显超越了相似规模的模型,并达到了与 5-10 倍大型模型相似或更好的性能水平。 Orca 2 已经开源,以鼓励人们在较小语言模型的开发、评估和对齐方面进行更深入的研究。 Orca 2 模型的表现不逊于或超越包括 5-10 倍更大的模型在内的所有其他模型。这里所有模型都使用相同尺寸的 LLaMA 2 基础模型。 媲美 5-10 倍更大的模型。Orca-2-13B 超越了 LLaMA-2-Chat-70B 的性能,并且在表现上与 WizardLM-70B 和 ChatGPT 相当。

    54610编辑于 2023-12-05
  • 来自专栏Reck Zhang

    Java 10 - 内存模型

    内存模型 主存储器与工作存储器 主存储器 方法区(Method Area) 方法区用于存储类的信息, 常量, 静态变量, 即时编译器编译后的代码. 栈(Java Virtual Machine Stacks) 代表着Java方法执行的内存模型, 每个方法执行时都会创建一个栈帧来存储方法的变量表, 操作数栈, 动态链接方法, 返回值, 返回地址等信息

    37720发布于 2021-08-11
  • 来自专栏Python与算法之美

    10模型的优化

    搜索超参数空间以优化超参数需要明确以下方面: 估计器 超参数空间 交叉验证方案 打分函数 搜寻或采样方法(网格搜索法或随机搜索法) 优化模型的常见方法包括 网格搜索法,随机搜索法,模型特定交叉验证, 三, 模型特定交叉验证 一些特定的模型,sklearn构建了一些内部含有交叉验证优化机制的估计器。 它们主要是在linear_model模块。 四, 信息准则优化 模型选择主要由两个思路。 解释性框架:好的模型应该是最能解释现有数据的模型。可以用似然函数来度量模型对数据集描述能力。 预测性框架:好的模型应该是最能预测结果的模型。 通常模型参数越多越复杂,越容易出现过拟合。 所以,模型选择问题在模型复杂度与模型对数据集描述能力(即似然函数)之间寻求最佳平衡。 AIC(赤池信息准则)和BIC(贝叶斯信息准则)对模型的选择提供了一种判据。 AIC信息准则选择AIC最大的模型。 BIC信息准则选择BIC最大的模型

    77421发布于 2020-07-17
  • 来自专栏CDA数据分析师

    10月精选Python开源项目Top10

    作者 | MyBridge 译者 | Linstancy 整理 | Jane 本文转自 AI科技大本营 【导读】过去一个月里,我们对近 250 个 Python 开源项目进行了排名,并挑选出热度前 10 的项目。 ▌开源项目一:Py-spy Py-spy 是一种由 Python 程序驱动的采样分析器,它允许可视化 Python 程序内容,而无需重新启动程序或以任何方式修改代码。 utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌开源项目二:Camelot Camelot 是一款用于从 PDF 文件中提取表格的 python 的金融投资组合优化的开源项目,其中包括经典有效的前沿和实验方法。

    85710发布于 2018-12-12
  • 来自专栏机器学习算法与Python学习

    10月机器学习开源项目Top10

    作者 | Mybridge 译者 | 林春眄 整理 | Jane 出品 | AI科技大本营 过去一个月里,我们对近 250 个机器学习开源项目进行了排名,并挑选出热度前 10 的项目。 它可直接从 Apache Parquet格式的数据集中进行单机或分布式训练,以及深度学习模型的评估。 它将 pix2pix (使用 cGAN 的图像到图像转换)作为 ad-hoc 的下一帧预测模型,使用从视频剪辑中提取的成对连续帧数据进行反复地训练,以便模型能够生成无限持续时间的图像序列。 此外,它还能够混合(交叉淡化) 两个 pix2pix 模型,这些模型会产生变化,并转换为生成的视频。 ? Gituhub 地址: https://github.com/keijiro/Ngx? utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌Top 10:Tencent-ml-images Tencent-ml-images

    50730发布于 2018-12-05
  • 来自专栏量子位

    阿里「杀手锏」级语音识别模型来了!推理效率较传统模型提升10倍,已开源

    ——不仅识别准确率“屠榜”几大权威数据集,一路SOTA,推理效率上相比传统模型,也最高可提升10倍。 值得一提的是,Paraformer刚宣布就已经开源了。 另外一方面,通过对比自回归模型与单轮非自回归模型在工业大数据上的错误类型(如下图所示,AR与vanilla NAR),大家发现相比于自回归模型,非自回归模型在预测目标文字个数(插入错误+删除错误)方面差距较小 效果SOTA,推理效率最高提10倍 最终,在学术界常用的中文识别评测任务AISHELL-1、AISHELL-2及WenetSpeech等测试集上, Paraformer-large模型均获得了最优效果。 配合GPU推理,不同版本的Paraformer可将推理效率提升5~10倍。 同时,Paraformer使用了6倍下采样的低帧率建模方案,可将计算量降低近6倍,支持大模型的高效推理。 最后的最后,欢迎各位开发者下载Paraformer并留言反馈模型使用感受~ 量子位将赠送3张阿里研发的会议纪要产品“听悟”特邀用户年度权益卡,每天可使用离线语音/视频转写10小时+实时转写8小时,最高价值超万元

    1.1K20编辑于 2023-02-28
  • 来自专栏AI科技大本营的专栏

    10月机器学习开源项目Top10

    作者 | Mybridge 译者 | 林春眄 整理 | Jane 出品 | AI科技大本营 【导读】过去一个月里,我们对近 250 个机器学习开源项目进行了排名,并挑选出热度前 10 的项目。 它可直接从 Apache Parquet格式的数据集中进行单机或分布式训练,以及深度学习模型的评估。 它将 pix2pix (使用 cGAN 的图像到图像转换)作为 ad-hoc 的下一帧预测模型,使用从视频剪辑中提取的成对连续帧数据进行反复地训练,以便模型能够生成无限持续时间的图像序列。 此外,它还能够混合(交叉淡化) 两个 pix2pix 模型,这些模型会产生变化,并转换为生成的视频。 ? Gituhub 地址: https://github.com/keijiro/Ngx? utm_source=mybridge&utm_medium=blog&utm_campaign=read_more ▌Top 10:Tencent-ml-images Tencent-ml-images

    58830发布于 2018-12-05
  • 来自专栏量子位

    谷歌开源缩放模型EfficientNets:ImageNet准确率创纪录,效率提高10

    虽然准确率只比之前最好的Gpipe提高了0.1%,但是模型更小更快,参数的数量和FLOPS都大大减少,效率提升了10倍! 他们的文章《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》已经被ICML 2019收录,并在GitHub上开源模型 然后将这些系数将应用于基线网络,扩展到所需的目标模型大小或计算力。 模型缩放的有效性也在很大程度上依赖于基线网络。 性能表现 EfficientNet模型实现了比现有CNN更高的精度和更高的效率,将参数数量和FLOPS降低了一个数量级。 传送门 博客地址: https://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html 开源地址: https://arxiv.org

    81320发布于 2019-06-03
  • 来自专栏机器之心

    Mistral的首个强推理模型:拥抱开源,推理速度快10

    此次发布包含两个版本:面向企业客户的大型专有模型 Magistral Medium,以及一个 24B 参数的开源版本 Magistral Small。 其中开源版本使用 Apache 2.0 许可,可以自由使用、商用化;Magistral Medium 则可通过 Mistral 的 Le Chat 界面和 La Plateforme API 访问。 直接使用:https://chat.mistral.ai/chat 模型开源:https://huggingface.co/mistralai/Magistral-Small-2506 论文:https 借助 Le Chat 中的 Flash Answers,Magistral Medium 还能实现比大多数竞争对手多达 10 倍的 token 吞吐量。 看起来,推理速度比竞品快 10 倍的竞争优势确实很大。 Magistral API 与其他领先 LLM 的推理成本对比。

    28010编辑于 2025-06-12
  • 来自专栏linux、Python学习

    10大Python开源项目推荐

    本文是 Mybridge 挑选的 10 个 Python 开源项目,Github 平均star 2135,希望你能够喜欢~~ ▌Rank 1:Requests-HTML v0.9(7385 stars  项目地址: https://github.com/kennethreitz/twitter-scraper ▌Rank 10:Fast-Pandas(667 stars on Github,来自M. 

    1.7K21发布于 2019-04-12
  • 来自专栏Python数据科学

    安利 10开源推荐系统

    本次给大家安利 10开源的推荐系统,GitHub链接如下。然后再给大家介绍下推荐系统框架下各个环节及作用。 /lightfm https://github.com/lyst/lightfm 9、python-recsys/crab https://github.com/python-recsys/crab 10 召回:根据用户的兴趣和历史行为,从海量的物品库里,快速找回一小部分用户潜在感兴趣的物品,然后交给排序环节,排序环节可以融入较多特征,使用复杂模型,来精准地做个性化推荐。 粗排:有时候因为每个用户召回环节返回的物品数量还是太多,怕排序环节速度跟不上,所以可以在召回和精排之间加入一个粗排环节,通过少量用户和物品特征,简单模型,来对召回的结果进行粗略的排序,在保证一定精准的前提下 精排:使用你能想到的任何特征,可以上你能承受速度极限的复杂模型,尽量精准地对物品进行个性化排序。

    3.1K10编辑于 2022-04-12
  • 来自专栏汪宇杰博客

    Windows 10《描图》应用现已开源

    《描图》是我最早的Windows 10应用,发布至今已3年多,积累了全球数百万用户,广受好评。现已开源。 ? 这款应用为不少小朋友带去了欢乐,体验绘画的乐趣,也帮助过专业用户复刻数百幅古代绘画。 可以说是 Windows 10 电子墨迹平台实力的证明。 然而我自身繁忙的工作与新的规划,无法在 Windows 应用上保持投入,因此我决定将它开源,贡献给社区,共同为 Windows 10 创造一个更好的明天。 针对Windows 10创意者更新拥有大量新特性及易用性改进,如全新的画笔工具、标尺及量角器工具,并支持Surface Dial等轮盘设备! ? 功能 ? 多种画笔及辅助标尺等工具 ? /tracing-windows-10-great-app-beginner-artists ?

    1.1K20发布于 2019-07-09
  • 来自专栏全栈程序员必看

    Django(10)ORM模型介绍

    所以我们采用ORM模型 ORM模型介绍 orm全称Object Relational Mapping,中文叫做对象关系映射,通过ORM我们可以通过类的方式去操作数据库,而不用再写原生的SQL语句。 通过把表映射成类,把行作实例,把字段作为属性,ORM在执行对象操作的时候最终还是会把对应的操作转换为数据库原生语句 ORM的优点 易用性:使用ORM做数据库的开发可以有效的减少重复SQL语句的概率,写出来的模型也更加直观 ORM的实现过程 (1)配置目标数据库,在setting.py中设置配置属性 (2)构建虚拟对象数据库,在App的model.py文件中以类的形式定义模型 (3)通过模型在目标数据库中创建对象的数据表 (4)在视图函数中使用模型来实现目标数据库的读写操作 发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/166174.html原文链接:https://javaforall.cn

    36620编辑于 2022-09-20
  • 来自专栏学习

    开源模型与闭源大模型

    在人工智能(AI)和机器学习(ML)的快速发展过程中,大模型(Large Models)已经成为推动技术进步的重要力量。当前,业界存在两种主要的大模型开发模式:开源模型和闭源大模型。 一、开源模型 开源模型是指开发者将模型的代码和训练数据公开,使得任何人都可以访问、修改和使用这些资源。 优点: 1.透明性和可验证性: 开源模型的代码和数据完全公开,任何人都可以检查模型的构建和训练过程,确保其行为的透明性。 三、开源模型与闭源大模型的对比 1.透明性与可控性: 开源模型的透明性更高,任何人都可以查看和验证其代码和数据,确保模型的行为符合预期。这对于学术研究和技术验证非常重要。 3.资源共享与独占优势: 开源模型在资源共享方面表现突出,任何人都可以利用这些开源资源进行学习和研究,促进技术的普及和应用。

    1.7K10编辑于 2024-10-09
  • 来自专栏DevOps

    AI模型开源大语言模型bloom学习

    作为一名开源爱好者,我非常不喜欢知识付费或者服务收费的理念,所以便有决心写下此系列,让一般大众们可以不付费的玩转当下比较新的开源大语言模型bloom及其问答系列模型bloomz。 一、模型介绍 bloom是一个开源的支持最多59种语言和176B参数的大语言模型。 bigscience在hugging face上发布的bloom模型包含多个参数多个版本,本文中出于让大家都能动手实践的考虑,选择最小号的bloom-1b1版本,其他模型请自行尝试。 (checkpoint) #下载模型 网速足够快的情况下等一会就下载好了,但通常情况下我们得ctrl+c打断代码运行,手动下载模型存放到对应位置,即.cache\huggingface\hub\models–bigscience–bloom 下载模型地址: https://huggingface.co/bigscience/bloom-1b1/tree/main 把如上图所示链接中的五个文件(不包含这个flax_model.msgpack)

    90810编辑于 2024-03-29
  • 来自专栏技术趋势

    google开源模型-gemini

    官网:https://deepmind.google/technologies/gemini/#introduction 简介 Gemini是谷歌公司发布的人工智能大模型,能够在从数据中心到移动设备等不同平台上运行 “双子座”Ultra版本是首个在“大规模多任务语言理解”(MMLU)领域超越人类专家的模型。---百度百科 https://baike.baidu.com/item/Gemini/63729669? 83.1%3-shot(API) DROP 阅读理解力(F1分数) 82.4%Variable shots 80.9%3-shot(reported) HellaSwag 日常情景下的常识推理 87.8%10 -shot* 95.3%10-shot*(reported) 数学 Gsm8K 基础算术操作(包括小学数学题) 94.4%maj1@32 92%5-shot CoT(reported) MATH 有挑战性的数学题 随着未来大模型的普及我们的工作肯定有一部分会通过AI来提高效率,所以可以提升了解并实践

    2.4K10编辑于 2024-01-15
领券