目前,马斯克Grok 2.5的开源:中国公司是XAI的最大竞争对手

Jin Lei de aofeisi量子位|现在的官方帐户Qbitai,面具的开源动作引起了所有人的注意:Xai现在正式开放了Grok 2.5,Grok 3将在六个月内成为开源。实际上,本月初,马斯克公开说。本周是Grok开源。这是下周。开源时间超出了您提到的节点,但是迟到总比没有更好。目前,可以使用hagling脸(在链接的末尾)下载42个文件,500 g,XAI官员建议使用Sglang执行Grok 2。具体步骤是:第一步是下载权重文件。您可以更改 /本地 /Grok-2。如果出现问题,您可以再尝试几次,直到下载成功为止。下载成功后,该文件夹中必须有42个文件,约为500 GB的大小。第二步是启动服务器。 XAI建议办公室安装最新版本的Sglang推理引擎(版本号= V0.5.1,AD着装:https://github.com/sgl-project/sglang/)。然后值得一提的是python3-m sglanch.launch_server -model/local/local/grok-2-takeizer-path/local/grok-2/tokenizer.tok.tok.tok.json – tp8-triton for-tp8-triton for-backend fp8-trite f fp8-trite frestent fp8-使用以下命令:最后一步是提交请求。由于这是一个先前训练的模型,因此您必须确保使用正确的聊天模板:python3 -m sglang.test.send_one -dexis -dexis“人:名称是什么?那么XAI的最后一个开源级别Grok 2是什么?它的特征当然不如当前的主要模型那样好,但是您可以从与技术博客相关的Grok 2模型中学到一点,去年由XAI发布。当时,他在LMSYS排名中,他的Elo -Score将超过Claudeand GPT -4。在一系列的学术参考点中,Grok 2系列达到了与科学知识等领域的其他前卫模型竞争的表现水平研究生级别(GPQA),常识(MMU,MMLU-PRO)和数学能力问题(数学)的优势。但是,老实说,互联网用户认为蒙版开源动作相当不错,但也有许多批评的评论。例如,在HuggingFace中,我看不到XAI明确指示开源模型的参数权重。因此,Internet用户只能基于先前的信息,该信息是具有2690亿参数的MOE模型。其次,这是一个开源协议问题。因为Xai的拥抱陈述是:就网络而言,这本质上是非商业许可证:Mistral,Qwen,DeepSeek,Microsoft,Microsoft甚至Openai,所有Orsan许可证MIT或APACHE 2.0用于其开源模型。最重要的一点是执行此开源模型的条件。谢谢,我只需要8个GPU,带有40多个视频记忆…还有两件事:除了开源操作外,Musk还有在Grok应用程序中启动了一些新功能。此更新(v1.1.58)主要集中于AI视频的生成,具有以下特定效果:感兴趣的朋友可能会在应用程序中遇到它。马斯克也发表了有趣的评论。 XAI很快将超过不是Google(也是Google和Google)的公司,但中国公司是他们最大的竞争对手。参考链接:[1] https://x.com/elonmusk/status/195937934934932313920 [2] https://x.com/elonmusk/status/195938478444447976 [4] https://x.com/elonmusk/status/1959388879888888836363636363636363630636336330
特殊声明:先前的内容(包括照片和视频(如果有),如有)已由网络自我媒体平台的用户收费和发布。该平台仅提供信息存储服务。
注意:以前的内容(如果您有照片或视频)将由社交媒体NetEase Hao的用户收取和发布平台,仅提供信息存储服务。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注