首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏技术人生黄勇

    LLama2详细解读 | Meta开源之光LLama2是如何追上ChatGPT的?

    今天分享Meta的Llama 2: Open Foundation and Fine-Tuned Chat Models:LLAMA2:开源的基础和微调后的聊天大语言模型。 2.2 发布LLAMA2和LLAMA2-CHAT 总结1:本次同时发布了基座模型LLAMA2和Chat模型LLAMA2-CHAT,参数在7B、13B、70B都有。 2.3 LLAMA2和LLMA1训练情况对比 说明:Llama 2系列模型。所有模型都使用4M token进行训练。 总结1: 相对于llama1,llama2的窗口长度翻倍,训练tokens翻倍。 总结2: 使用分组查询注意(GQA)来提高推理可扩展性。 总结:多轮问答的有害性比单轮问答的有害性对别,增加比较多,但是LLAMA2系列模型都比其他模型好,34b的模型有点奇怪,本文也没有开源。

    42510编辑于 2024-07-19
  • 来自专栏个人博客

    cloudlflare推理llama2 - plus studio

    cloudlflare推理llama2 最近,cloudlfare悄悄上线了一项新功能,全球网络上的gpu加速推理,显然的,我们可以用它推理llama2,cloudflare也提供了一个库进行推理。

    16110编辑于 2024-02-29
  • 来自专栏CSDN社区搬运

    Llama2及法律判决分类实战

    本文概述 本文首先会介绍一下Llama2大模型,然后会使用一个公开的中文法律判决数据集(部分)进行Llama2提示学习的分类实战。 Llama2技术细节 预训练 为了创建新的Llama 2模型家族,文章使用了优化的自回归变压器,但进行了一些更改以提高性能。 总词汇大小为32k个标记 因此,Llama 1和Llama 2的一些区别如下: Llama2预训练模型的评估结果 微调 指令微调 Quality Is All You Need. 然而,由于应用了迭代模型更新,两种强化学习算法之间的根本差异就不那么明显了 文章还有很多关于模型结果、安全性等方面的详细分析,这里就不再赘述了 中文LLaMA2模型Atom-7B-Chat实战 从Llama2 因此,我们需要使用Llama2在大量中文数据集预训练微调后的模型上使用才会有比较好的中文效果 Atom就是在Llama2的基础上,采用大规模的中文数据进行持续预训练,包含百科、书籍、博客、新闻、公告、小说

    27610编辑于 2024-12-17
  • 来自专栏量子位

    700亿参数LLaMA2训练加速195%,开箱即用的8到512卡LLaMA2全流程方案来了!

    LLaMA2训练微调推理,大提速了! 针对700亿版本,训练加速195%。 而且还能基于云平台实现无代码训练个性私有化模型,并一键部署。 可提供开箱即用的8到512卡LLaMA2训练、微调、推理方案,并提供一站式云平台解决方案。 最新的7B~70B LLaMA2大模型,进一步提高了语言模型的基础能力。 但由于LLaMA2的预训练预料大部分来自英文通用知识,而仅用微调能够提升和注入的领域知识和多语言能力也相对有限。 因此,以低成本预训练/继续预训练/微调LLaMA2系列大模型,结合高质量私有化业务数据积累,帮助业务降本增效是众多行业与企业的迫切需求与瓶颈。 但LLaMA2大模型仅发布了原始模型权重与推理脚本,不支持训练/微调,也未提供数据集。

    77120编辑于 2023-09-08
  • 来自专栏机器之心

    多模态版Llama2上线,Meta发布AnyMAL

    一个统一的模型,可以对不同模态输入内容(文本、图像、视频、音频、IMU 运动传感器数据)实现理解,并生成文本响应,技术基于 Llama 2,来自 Meta。

    62220编辑于 2023-10-04
  • 来自专栏MavenTalk

    开源版ChatGPT:Llama2免费商用开源,王者归来

    社区试用版 Llama2 在Huggingface AI社区部署了一个线上试用版,可以登陆来看看Llama2的效果,远比LLaMa强大,响应时间很快,关键是可以商用。

    50950编辑于 2023-09-06
  • 来自专栏数据库与编程

    科学家一天创造:婴儿 Llama2

    这个故事是一个科学家,用一天的时间,就像一天中的一个小冒险,创造了一个叫做 "婴儿 Llama2" 的小绵羊。现在,我们将快速地体验一下他的成果,看看这个 "llama2.c" 到底是什么样子。 这些宝物会帮助 "婴儿llama2" 创造出美妙的故事。我们有三种大小的宝物可供选择:15M、42M 和 110M。你可以想象它们就像是不同大小的魔法石,它们会影响故事的流畅程度和速度。 这就是今天的小冒险,通过一个科学家的魔法创造,我们一起体验了 "llama2" 带来的奇妙世界。如果你愿意,你还可以尝试一些魔法咒语,让故事按照你的想法发展。

    30220编辑于 2023-09-01
  • 来自专栏机器之心

    Llama2开源后,国产大模型在卷什么?

    Llama2 还是 GPT-4 选择 Llama2 的原因有很多,成本是最直接的一个。 另外,相比于往常的披露,此次 Llama2 开源并没有对外披露数据层的具体信息,因此复现 Llama2 成为一件受限制的事情。 傅盛认为,「Llama2 将开源的水平提升到了接近 GPT-3.5 的水平。如果说此时你的自研水平远远不如 Llama2,那么意味着可能你之前的工作都白做了。」 以 Llama2 本身所欠缺的中文语料为例,仅在 Meta 开源 Llama2 次日,开源社区首个能下载、能运行的开源中文 Llama2 模型「Chinese Llama 2 7B」就出现了。 虽然目前 Llama2 仅仅可能是大模型开源生态系统的开端,「大家对 Llama2 的能力边界不是非常清晰,生态系统的形成同样需要一些时间」。

    61860编辑于 2023-09-08
  • 来自专栏AIGC

    【LLM】基于LLama2构建智能助理帮你阅读PDF文件

    本文将演示如何利用 LLM 从 PDF 发票中提取数据。我将构建一个 FastAPI 服务器,该服务器将接受 PDF 文件并以 JSON 格式返回提取的数据。

    1.1K20编辑于 2024-04-27
  • 来自专栏数据库与编程

    在 Mac 上运行 llama2 大模型:GPT体验攻略

    首先,您需要一个命令行工具(CLI 工具)—— LLM,用于与语言模型进行交互,包括安装在您自己机器上的OpenAI、PaLM和本地模型。

    2.2K20编辑于 2023-09-01
  • 来自专栏为了不折腾而去折腾的那些事

    使用 Transformers 量化 Meta AI LLaMA2 中文版大模型

    写在前面在前两篇文章《使用 Docker 快速上手官方版 LLaMA2 开源大模型》和《使用 Docker 快速上手中文版 LLaMA2 开源大模型》中,我们聊过了如何快速上手和使用新鲜出炉的 Meta AI LLaMA2 大模型。 为了简单省事,可以参考前两篇文章,可以快速的搞定原版或者中文版的 LLaMA2 模型运行环境和 Docker 镜像。 接下来,我们以使用 LLaMA2 中文模型镜像为例,进行模型的量化操作。 类似 LLaMA2 官方版本和中文版本全部兼容,这里的量化版的模型和量化前的模型,也是全部兼容的。

    1.4K30编辑于 2023-07-22
  • 来自专栏为了不折腾而去折腾的那些事

    使用 Transformers 量化 Meta AI LLaMA2 中文版大模型

    写在前面 在前两篇文章《使用 Docker 快速上手官方版 LLaMA2 开源大模型[1]》和《使用 Docker 快速上手中文版 LLaMA2 开源大模型[2]》中,我们聊过了如何快速上手和使用新鲜出炉的 Meta AI LLaMA2 大模型。 为了简单省事,可以参考前两篇文章,可以快速的搞定原版或者中文版的 LLaMA2 模型运行环境和 Docker 镜像。 接下来,我们以使用 LLaMA2 中文模型镜像为例,进行模型的量化操作。 类似 LLaMA2 官方版本和中文版本全部兼容,这里的量化版的模型和量化前的模型,也是全部兼容的。

    1.3K30编辑于 2023-09-04
  • 来自专栏数据库与编程

    手把手教你部署开源可商用GPT - Llama2

    下面将带你使用 Google 提供的免费的 Colab 服务,快速部署一个带有图形化聊天界面的 Llama2 ,体验一下开源 GPT 的魅力! 7、点击上图中提示信息中的链接地址,即可打开图形聊天界面,如下图: 至此,全部安装完成,可以愉快的使用 llama2 大模型聊天了。

    1.1K20编辑于 2023-09-01
  • 来自专栏DeepHub IMBA

    使用GGML和LangChain在CPU上运行量化的llama2

    作者:Kenneth Leung 相关资源 本文代码:https://github.com/kennethleungty/Llama-2-Open-Source-LLM-CPU-Inference llama2

    2K20编辑于 2023-08-30
  • 来自专栏为了不折腾而去折腾的那些事

    使用 Docker 快速上手官方版 LLaMA2 开源大模型

    本篇文章,我们聊聊如何使用 Docker 容器快速上手 Meta AI 出品的 LLaMA2 开源大模型。 写在前面昨天特别忙,早晨申请完 LLaMA2 模型下载权限后,直到晚上才顾上折腾了一个 Docker 容器运行方案,都没来得及写文章来聊聊这个容器怎么回事,以及怎么使用。 封装这个 LLaMA2 Docker 镜像其实特别简单,和之前的模型相关的文章没有差别,我们基于 Nvidia 基础镜像,做一个简单的多阶段构建即可。 编写模型应用程序镜像文件:FROM soulteary/llama2:baseCOPY llama2-7b/* . :7b最后本篇文章是 LLaMA2 相关的第一篇文章,短短几个月的时间,开源项目就能够取得这么快速的进步,还是挺令人欣慰和令人期待的。

    1.8K290编辑于 2023-07-21
  • 来自专栏为了不折腾而去折腾的那些事

    构建能够使用 CPU 运行的 MetaAI LLaMA2 中文大模型

    本篇文章聊聊如何使用 GGML 机器学习张量库,构建让我们能够使用 CPU 来运行 Meta 新推出的 LLaMA2 大模型。 准备工作,以及重要的模型下载部分操作,可以参考《使用 Docker 快速上手中文版 LLaMA2 开源大模型[5]》或《使用 Docker 快速上手官方版 LLaMA2 开源大模型[6]》文章中的部分, GGML LLaMA2 模型转换工具镜像 使用下面的命令,先下载能够转换模型为 GGML 格式的工具镜像: docker pull soulteary/llama2:converter 接着,使用下面的命令 GGML LLaMA2 模型运行环境 你可以通过下面的命令下载它: docker pull soulteary/llama2:runtime 下载完毕之后,我们可以通过下面的命令,来运行它: docker User: 接下来,你就可以和 LLaMA2 一起玩了,你可以随便和它聊点什么: 和 CPU 运行的 LLaMA2 中文模型对话 Transcript of a dialog, where the

    1.2K20编辑于 2023-09-04
  • 来自专栏为了不折腾而去折腾的那些事

    构建能够使用 CPU 运行的 MetaAI LLaMA2 中文大模型

    本篇文章聊聊如何使用 GGML 机器学习张量库,构建让我们能够使用 CPU 来运行 Meta 新推出的 LLaMA2 大模型。 当然,如果你还是喜欢在 GPU 环境下运行,可以参考这几天分享的关于 LLaMA2 模型相关的文章。接下来,我们和以往一样,进行准备工作。 准备工作,以及重要的模型下载部分操作,可以参考《使用 Docker 快速上手中文版 LLaMA2 开源大模型》或《使用 Docker 快速上手官方版 LLaMA2 开源大模型》文章中的部分,完成准备工作和模型下载工作 LLaMA2 官方镜像或中文镜像为 GGML 格式,我做了一个工具镜像,镜像不大,只有 93MB。 使用 GGML / LLaMA.CPP 镜像运行 LLaMA2 模型考虑到日常使用“轻装上阵”好一些,我制作了一个更小巧一些的运行镜像,只有 45MB。

    1.4K100编辑于 2023-07-24
  • 来自专栏为了不折腾而去折腾的那些事

    使用 Docker 快速上手官方版 LLaMA2 开源大模型

    本篇文章,我们聊聊如何使用 Docker 容器快速上手 Meta AI 出品的 LLaMA2 开源大模型。 所以,现在就来聊聊如何快速上手 LLaMA2 官方版本的大模型。 LLaMA2 模型列表 如果你也使用 HuggingFace 全家桶,我强烈推荐后一种格式:面向未来,方便可靠,加载性能也更强(快)。 .7b 后,我买使用命令 docker build -t soulteary/llama2:7b . :7b 最后 本篇文章是 LLaMA2 相关的第一篇文章,短短几个月的时间,开源项目就能够取得这么快速的进步,还是挺令人欣慰和令人期待的。

    87020编辑于 2023-09-04
  • 来自专栏自然语言处理(NLP)论文速递

    用这个开源项目,我的GPU 竟然也能运行Llama2

    对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 1000,需要 1GB 的额外内存。不仅如此,模型在训练期间,KV 缓存、激活和量化都会占用大量内存。

    77230编辑于 2023-10-24
  • 来自专栏自然语言处理

    【LLM系列之LLaMA2】LLaMA 2技术细节详细介绍!

    另外词表也是Llama 1同样大小(32k),所以基于Llama2还需要做中文增强训练。

    2.6K20编辑于 2023-08-26
领券