开源大模型重击OpenAI!小扎放出LLaMA2炸裂科技圈,联手微软高通冲击市场格局

人工智能
小扎和GPT-4介绍,此次LLaMA2共发布了从70亿、130亿、340亿以及700亿参数的预训练和微调模型,将免费提供用于研究和商业用途。

一纸公告,“大模型市场格局变了”。

图片图片

Meta与微软联手发布免费、可直接商用的LLaMA2。而作为首选合作伙伴,微软Windows可本地运行这一版本。

此外在AWS、Hugging Face上也可以获取,高通也官宣成为其合作伙伴。

这种背刺OpenAI的操作,让不少网友直呼刺激。

图片图片

还有人对这种开放程度表示惊叹,毕竟上个开源版本就已被产学研界广泛使用——LLaMA访问需求已超10万次,已经有小伙伴开发应用程序供大家免费测试了。

图片图片

但与此同时,质疑声随之而来:

  • 核心作者已离开Meta,论文正文查无此人;
  • 如此注重安全,以至于最终可能毫无用处;
  • 虽说可商用,实际上有附加限制。

……

有人调侃小扎be Like:

图片

核心作者已离开

此次LLaMA2的发布,从作者列表开始就已经透露不少玄机。

图片图片

首先,规模更大,团队集成到了GenAI部门。这是小扎专门应时而设的生成式AI产品部门。

图片图片

第二,昔日一些核心作者已经不见踪影。比如Armand Joulin, Edouard Grave, Guillaume Lample,Timothee Lacroix等。

其中一位在网上吐槽:

因为核心作者离开公司就将其从论文中删除,这是我很庆幸离开Meta的原因之一。

图片图片

事实上,在论文的附录上,还能看到他们的名字。不过正文部分已经查无此人。

图片图片

据小扎和GPT-4介绍,此次LLaMA2共发布了从70亿、130亿、340亿以及700亿参数的预训练和微调模型,将免费提供用于研究和商业用途。

预训练过程,相较于上一代数据增长40%,上下文长度也增加了一倍,并采用分组查询注意力机制(GQA)来提升性能。

图片图片

微调阶段,其版本称为Llama 2-Chat,共收集了超100万条人工标注用于SFT(监督微调)和RLHF。

图片图片

值得一提的是,此次还曝光了每个预训练模型GPU所需总时长。

图片图片

热心的网友测算了下总成本,如果以1.5美元/A100计算,那么700亿参数模型成本将为260万美元。

图片图片

感兴趣的朋友可进一步前往论文查看哦~(文末附上链接)

微软成LLaMA2首选伙伴

不过除了LLaMA2本身值得关注之外,其开放合作机制也引发了不少的热议。

公告中虽然强调“免费用于研究和商业用途”,但仍有不少限制。

因此有人直言:我不明白LLaMA2这次炒作!

图片图片

比如,可商用协议实际暗含附加限制。

有网友发现在GitHub许可证文件上发现,如果使用者利用LLaMA2提供产品或服务,月活跃用户超过7亿,那么必须向Meta申请许可。

而Meta可自行决定向其授予许可。

图片图片

还有就是可接受使用政策限制很多。这样一来,就可能导致“回答得很无聊,最终可能导致毫无用处”。

图片图片

在政策中可以看到,主要分为四个部分:违反法律或侵犯他人权利;参与、促进、煽动、促进或协助规划或开展对个人造成死亡或身体伤害风险的活动;故意欺骗或误导他人;未能适当向最终用户披露人工智能系统的任何已知危险。

因此有人认为相较ChatGPT而言,LLaMA2少了些灵活性。这可能就是开源与闭源之间的区别。

但不可否认的是,Meta坚定选择开放开源这条路径。

甚至于此次,还邀请了产学研界的伙伴高调地发表了一篇支持声明。

图片图片

包括英伟达、AMD、HuggingFace、YC、GitHub、 Databricks、Shopify、Zoom等公司的企业高管,还有UC伯克利、MIT等教授,比如CMU教授、MBZUAI大学校长邢波。

以及更多伙伴也顺势官宣与Meta合作,把LLaMA2集成到自己的产品中去,比如高通。

图片图片

对此此番LLaMA2炸场,你怎么看?

而开源与闭源,在大模型时代,究竟谁才是更优解?

论文链接:
https://scontent-sjc3-1.xx.fbcdn.net/v/t39.2365-6/10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX_QM_ym&_nc_ht=scontent-sjc3-1.xx&oh=00_AfAjtvFkEIu8MPpfQykAZosxwZrew4g_n0D_DKkTOuyIVA&oe=64BBB691
参考链接:
[1]https://about.fb.com/news/2023/07/llama-2-statement-of-support/
[2]https://about.fb.com/news/2023/07/llama-2/
[3]https://twitter.com/ylecun/status/1681336284453781505
[4]https://github.com/facebookresearch/llama/blob/main/LICENSE
[5]https://arxiv.org/abs/2302.13971
[6]https://twitter.com/moinnadeem/status/1681393075367841792
[7]https://twitter.com/GuillaumeLample/status/1681346701766934543?s=20
[8]https://chat.openai.com/share/c9868736-934f-40ce-a470-c0bb4359c260
[9]https://www.facebook.com/zuck/posts/pfbid02j7TCKZHRe1X4K3DA7EdA96q6Cx7DS3ZixKyrqsyx7NvUwx9X88V18nnqLF3BAsXjl

责任编辑:武晓燕 来源: 量子位
相关推荐

2023-08-21 10:36:23

2024-02-22 17:19:26

谷歌模型PC

2023-06-20 09:24:20

AI开源

2023-09-17 00:09:35

微软新模型参数

2024-02-29 11:56:25

模型数据

2023-07-19 12:09:36

大模型Llama 2扎克伯格

2023-08-02 11:56:58

2023-07-19 09:00:00

模型AI

2023-09-04 12:58:05

2024-02-27 13:38:16

微软OpenAI模型

2023-12-04 09:11:00

AI模型

2024-01-10 09:00:00

OpenAILocalGPT开源大模型

2024-02-19 14:47:47

2023-07-25 11:17:32

阿里云Llama2大模型

2024-01-19 12:34:39

2024-01-30 13:02:05

AI训练

2023-09-04 19:09:00

训练模型数据

2013-12-31 09:58:30

点赞
收藏

51CTO技术栈公众号