突发:马斯克grok开源! -九游会国际

 

突发:马斯克grok开源!

 邮箱网  0条评论  812次浏览  2024年03月18日 星期一 09:53

分享到:

智东西
作者 | 云鹏

编辑 | 心缘

6个月掏出3410亿参数自研大模型,马斯克说到做到!

智东西3月18日消息,就在刚刚,马斯克的ai创企xai正式发布了此前备受期待大模型grok-1,其参数量达到了3140亿,远超openai gpt-3.5的1750亿。

这是迄今参数量最大的开源大语言模型,遵照apache 2.0协议开放模型权重和架构。


grok-1是一个混合专家(mixture-of-experts,moe)大模型,这种moe架构重点在于提高大模型的训练和推理效率,形象地理解,moe就像把各个领域的“专家”集合到了一起,遇到任务派发给不同领域的专家,最后汇总结论,提升效率。决定每个专家做什么的是被称为“门控网络”的机制。

xai已经将grok-1的权重和架构在github上开源。



github地址:

https://github.com/xai-org/grok-1?tab=readme-ov-file

目前grok-1的源权重数据大小大约为300gb。

截至北京时间3月18日上午7时许,grok-1项目收获了3400颗星。



grok-1是马斯克xai自2023年7月12日成立以来发布的首个自研大模型。xai特别强调说这是他们自己从头训练的大模型。grok-1没有针对特定应用进行微调。

xai是马斯克去年刚刚成立的明星ai创企,其目的之一就是与openai、谷歌、微软等对手在大模型领域进行竞争,其团队来自openai、谷歌deepmind、谷歌研究院、微软研究院等诸多知名企业和研究机构。

此前马斯克刚刚“怒喷”openai不够“open”,后脚这就开源了自家的顶级3410亿参数自研大模型grok-1。虽然马斯克在预热到发布的过程中也“放了几次鸽子”,但最终他并没有食言。


今天,xai还公布了grok-1的更多细节:

基础模型基于大量文本数据训练,未针对特定任务进行微调。

3140亿参数的mixture-of-experts模型,其对于每个token,活跃权重比例为25%。

xai从2023年10月开始使用自定义训练堆栈在jax和rust之上从头开始训练。

但此次xai并没有放出grok-1的具体测试成绩,其与openai即将发布的gpt-5的大模型王者之战,必将成为业内关注的焦点。

当然,马斯克发大模型,怎么会少的了大佬隔空对线“互怼”?

xai官方消息刚刚发布,chatgpt的官方账号马上就跟马斯克在x平台上进行了互动,在grok官方账号评论下回复道:“偷了我的笑话。”

马斯克自然不会示弱,马上说请告诉我openai“open”之处在哪里。

马斯克高仿号也马上跑过来添油加醋,说我们都知道是sam在运营chatgpt的账号。

值得一提的是,此次xai发布grok-1消息的封面图片,是由midjourney生成,grok给出了提示文本:一个神经网络的3d插图,具有透明节点和发光连接,展示不同粗细和颜色的连接线的不同权重(a 3d illustration of a neural network, with transparent nodes and glowing connections, showcasing the varying weights as different thicknesses and colors of the connecting lines)。

原图:







标签:马斯克grok

我的评论:

请  后发表评论。
网站地图