
Aofeisi量子位的Jin Lei |就在Qbitai的官方帐户今天,马斯克的开放资源引起了所有人的注意 - XAI正式开源Grok 2.5,Grok 3将在半年内成为公开资源。实际上,马斯克早在本月就对公众说:是时候开放下周的Grok来源了。尽管开放资源的时间超过了他提到的节点,但要迟到比没有更好。 42个文件,目前为500 g,可以将grok下载到链接的huggingface(在链接的末尾):XAI官员建议使用sglang运行grok 2,具体步骤如下。第一步是下载权重文件。您可以将/local/grok-2更改为所需的任何文件夹名称:HFDownload xai-org/grok-2- opisial local/local/local/grok-2正式说明您可以在此下载过程中找到一些错误。如果出现问题,您可以尝试几次,直到下载成功为止。下载成功后,应该有42 fi文件夹中的LE,尺寸约为500GB。第二步是启动服务器。 XAI正式建议安装SGLANG推理引擎的最新版本(版本号= V0.5.1,地址:https://github.com/sgl-project/sglang/)。 Then use the following command to start the Inference Server: Python3-M Sglang.launch_Server —Model/Local/Grok-2-Titenizer-Dath /Local/grok-2/tokenizer.Tok.json —Tp8-quantization FP8 —attention-cockend triton that it is worth mentioning that this model needs 8 gpu at 40GB of video memory) in running.最后一步是发送请求。这是一个主体的模型,因此您知道我们使用正确的聊天模板:Python3 -M sglang.test.send_one-prompt“人:human:Grok。grok。 此时,LMSS等级,总体ELO Mark超过了Claude和GPT-4。在一系列的学术基准中,Gang Rok 2系列已经达到了与研究生水平科学知识(GPQA),常识(MMLU,MMLU-PRO)和数学竞争问题(Mattematics)等领域的其他切割模型竞争的性能水平。但是老实说,尽管网民认为马斯克资源的开放态度很美,但也有许多批评的评论。例如,在HuggingFace中,我们看不到XAI清楚地指出了开放资源模型参数的权重。因此,只能基于先前的信息来预测网民,即这是具有2690亿参数的MOE模型。其次,这是开源协议的问题,因为Xai在拥抱面上的陈述如下:用网民的话说,这通常是非商业许可证:Mistral,Mistral,Qwen,DeepSeek,Microsoft,Microsoft,甚至OpenAAI,甚至使用MIT或Apache 2.0许可证来打开ModEls。而且,最重要的一点是运行此开放资源的条件:谢谢,我只需要8个GPU,其中超过40GB的视频记忆...还有两件事:除了开放资源动作外,Musk还在Grok App中发布了一些新功能。此更新(v1.1.58)主要专用于AI视频生成,具体效果如下:感兴趣的朋友可以在应用程序中体验它。马斯克还发表了一个有趣的说法:XAI即将超越Google,但中国公司是最大的竞争对手。参考链接:[1] https://x.com/elonmusk/status/1959379349349349322313920 [2] https://x./x.com/huggingpapers/status/195934565658361475 564 [3] https://x.com/elonmusk/status/1959384678768447976 [4] https://x.com/elonmusk/status/195938888888888888363
特别声明:上面的内容(包括照片或视频(如果有))已由“ NetEase”自助媒体平台的用户上传和发布。只有平台Providesthis是INF信息服务。
注意:上面的内容(包括照片和视频(如果有))已由NetEase Hao用户上传和发布,该用户是社交媒体平台,仅提供信息存储服务。