首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏量子位

    媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强

    这两天,这个名叫“Miqu”的神秘模型在大模型社区里炸了锅,不少人还怀疑这是LIama的微调版本。 Miqu应该是LIama 2的微调版本。 但另外的网友发现,它并不是MoE模型,并且同LIama 2架构相同、参数相同、层数相同,。

    24810编辑于 2024-02-22
  • 来自专栏自然语言处理(NLP)论文速递

    硬挑70B模型!上海AI Lab发布:InternLM-20B,将对 大模型生态 带来哪些影响?

    但是不按常理出牌的Meta在今年7月份发布了首个开源的、可商用的大模型LIama2,秒杀许多开源语言模型,在推理、编码、能力和知识测试上取得了SOTA。对于AI大模型圈来说,可谓是一夜之间就变了天。 在OpenCompass提出的语言、知识、理解、推理、学科等5方面,都要高于LIama、Baichuan,甚至远远超过了65B、70B的模型。 与此同时,作者还在典型数据集上,与当前主流开源模型(LIama、Baichuan、LIama2)进行了对比。具体如下图所示,可以发现其在大部分测试集上都是相对领先的。

    1.3K30编辑于 2023-09-23
  • 来自专栏量子位

    小扎All in 开源AGI:正训练Llama 3,年底将有35万块H100

    此举受到不少好评,一如此前LIama系列大模型开源之时。 不过此次又一波All in,不禁让网友想起上一波All in了:元宇宙去哪里了??? LIama 3即将到来。 最后他还打了个小广告。他们正在打造以AI为中心的新型计算设备,比如Ray Ban Meta 智能眼镜。 看来元宇宙还在继续。

    23610编辑于 2024-01-23
  • 来自专栏若城技术专栏

    基于Amazon Bedrock_构建生成式 AI 应用

    文章目录 前言 登录Amazon Bedrock Meta Liama2 模型快速体验 效果演示 名词解释 项目工程介绍 效果演示 Meta Llama 2 API的调用 打开 Amazon Cloud9 Meta Liama2 模型快速体验 模型这里我们选择 Meta => LIama2 Chat 70B 吞吐量 按需即可 选择完成之后 点击应用 效果演示 当我们点击应用之后 效果如下 名词解释

    59610编辑于 2024-04-25
  • 来自专栏开源项目搭建

    Ollama模型导入指南,从HuggingFace下载模型轻松上手

    3.导入模型需要编写一个配置文件,随便起个名字,如ollama_Liama3_config.txt文件放到D盘下的ollama目录中配置文件内容如下:FROM "D:\ollama\Llama3-8B-Chinese-Chat.q6 /ollama_Liama3_config.txtgathering model componentscopying file sha256:e0e83a7967c61e38d6a3fd8b093754117944b405d35afe95f129fbfb143929f2

    23.2K11编辑于 2025-02-07
  • 来自专栏CSDN社区搬运

    试试号称最好的7B模型

    其性能甚至优于13万亿参数的 Liama2。

    78510编辑于 2024-12-07
  • 来自专栏量子位

    开源论文神器DocsGPT登顶GitHub热榜!多类型文档查询,支持中文可本地部署 | 狂揽8000+星

    其中DocsGPT-7b是他们专门针对DocsGPT优化的开源模型,基础模型包括Falcon、LIama2。 话不多说,来试试实际体验(默认GPT-3.5)效果。

    43520编辑于 2023-10-08
  • 来自专栏量子位

    国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上

    在多项中英文测评中,性能超过了同尺寸(130亿参数)的LIama2、Baichuan等。 目前,哈尔滨工业大学已经率先用上。

    50010编辑于 2023-09-08
  • 来自专栏软件工程师Michael

    腾讯云开发工具Cloud Studio初体验

    特别是AI模板,真的非常方便,比如Pytorch,Tensorflow,LIama3,ChatGLM.写个Python简单例子,运行一下,看看print("Welcome to Cloud Studio

    91020编辑于 2024-08-29
  • 来自专栏登神长阶

    【论文复现】试试号称最好的7B模型

    概述 Mistral 7B 是一款新型大语言模型,拥有惊人的7.3万亿参数,其性能甚至超越了拥有13万亿参数的Liama2。

    63110编辑于 2024-11-30
  • 来自专栏码的一手好代码

    Impala 详解

    用于配置及用于在池中运行的yarn或impala查询之间安排资源的策略 Impala2.3之前使用的是yarn作为资源调度,2.3之后自身的资源调度策略Long-Lived Application Master,即LIAMA

    3.3K50发布于 2019-07-24
  • 来自专栏专知

    基于信息理论的机器学习-中科院自动化所胡包钢研究员教程分享02(附pdf下载)

    2000-2005年任中法信息、自动化、应用数学联合实验室(LIAMA)中方主任。 ▌PPT ---- ---- ? 第3章:二值信道的理论进展 ?

    1K90发布于 2018-04-11
  • AI程序员还是代替不了程序员,震撼硅谷的Devin-ai程序员,再度震撼硅谷——但这次是被打假

    他自己也经常使用GitHub Copilot、ChatGPT、LIama2、Stable Diffusion。此次则主要针对的是一些更为具体的说法。

    27210编辑于 2024-07-03
  • 来自专栏NewBeeNLP

    分水岭时刻!Llama3.1发布,405B超越闭源GPT-4o

    LIama 3.1正式发布,登上大模型王座! 在150多个基准测试集中,405B版本的表现追平甚至超越了现有SOTA模型GPT-4o和Claude 3.5 Sonnet。 各大云厂商也在第一时间上线了的Llama 3.1的支持,价格是酱婶的: LIama 3.1官方正式发布 首先来看模型能力。 Llama 3.1将上下文长度扩展到 128K、增加了对八种语言的支持。

    62610编辑于 2024-07-31
  • 来自专栏钱塘大数据

    数据挖掘的数据集资源

    收集的机器学习数据集 ftp://pami.sjtu.edu.cn/ http://www.ics.uci.edu/~mlearn//MLRepository.htm statlib http://liama.ia.ac.cn

    2.9K60发布于 2018-03-01
  • 来自专栏专知

    基于信息理论的机器学习

    2000-2005年任中法信息、自动化、应用数学联合实验室(LIAMA)中方主任。

    1.2K80发布于 2018-04-11
  • 来自专栏专知

    深度学习理论在哪里?再思考- 中科院自动化所胡包钢研究员参加2017年NIPS会议感想

    2000-2005年任中法信息、自动化、应用数学联合实验室(LIAMA)中方主任。

    1.1K40发布于 2018-04-11
  • 来自专栏自然语言处理(NLP)论文速递

    新能源时代!看大模型(LLMs)如何助力汽车自动驾驶!

    下图展示的是Encode-Decode架构的模型,不过现在大多数大模型都是Decode架构,例如GPT、LIaMA、ChatGLM等。

    1.2K10编辑于 2024-04-12
  • 来自专栏量子位

    中国AIGC数据标注全景报告:百亿市场规模,百万就业缺口

    第四象限:场景壁垒更为深厚的行业玩家 该象限着更为深厚的行业数据壁垒,可为下游用戶提供高质量数据集或拥有大模型数据标注团队, 以海天瑞声为例,不仅是LIama2的唯一中国伙伴,还发布超大规模中文多轮对话数据集

    1.2K30编辑于 2023-11-15
  • 来自专栏机器之心

    首款生成式AI移动芯片天玑9300:能跑330亿参数大模型

    联发科表示,其 AI 开发平台 NeuroPilot 已经对安卓、LIama 2、文心一言、百川大模型等前沿主流 AI 大模型进行了深度适配和优化,更多应用也在路上。

    89850编辑于 2023-11-13
领券