4月18日,Meta正式发布Llama3,开源了包括8B和70B,在多个关键的基准测试中性能优于业界先进同类模型,其在代码生成等任务上实现了全面领先,能够进行复杂的推理,可以更遵循指令。
下载链接:https://llama.meta.com/llama-downloads/ Github:https://github.com/meta-llama/

开源地址
体验地址:
(1)https://llama3.replicate.dev/
(2)https://build.nvidia.com/explore/discover#llama3-70b,英伟达在这个平台上提供各种模型,其中包括现在流行的模型,建议收藏
(3)https://huggingface.co/meta-llama/Meta-Llama-3-8B,huggingface地址
如果有GPU可以尝试自己跑起来:
// 1、clone git代码
// 2、运行llama-3-8b-chat
torchrun --nproc_per_node 1 example_chat_completion.py \
--ckpt_dir Meta-Llama-3-8B-Instruct/ \
--tokenizer_path Meta-Llama-3-8B-Instruct/tokenizer.model \
--max_seq_len 512 --max_batch_size 6
对比各个闭源大模型,Llama3在代码生成、文本摘要、对话、代码搜索等任务中均取得了显著的性能提升:

用国内可以用的地址:https://llama3.replicate.dev/,体验效果如下:


最后致敬开源社区,如同Llama3生成的诗一样:
开源精神激发创新,
人工智能的民主化,
让所有人参与其中
.....