Grok-1
加拿大

Grok-1翻译站点

Grok-1 是一个由 xAI 训练的 3140 亿参数专家混合模型 (8 个专家),给定输入上有 25% 的活跃权重。该权重为2023年10月预训练结束时的原始权重,这意味着此时没有针对任何特定对话...

标签:
备注: 🧙
其他站点:项目页面

Grok-1

我们正在发布我们的大型语言模型 Grok-1 的基本模型权重和网络架构。Grok-1 是一个 3140 亿参数的专家混合模型,由 xAI 从头开始训练。

这是 2023 年 10 月结束的 Grok-1 预训练阶段的原始基础模型检查点。这意味着该模型不会针对任何特定应用(例如对话)进行微调。

我们将在 Apache 2.0 许可下发布权重和架构。

要开始使用该模型,请按照github.com中的说明进行操作。

 型号详细信息

  • 基础模型在大量文本数据上训练,未针对任何特定任务进行微调。
  • 314B 参数 Mixture-of-Experts 模型,其中 25% 的权重在给定令牌上处于活动状态。
  • 2023 年 10 月,xAI 使用 JAX 和 Rust 之上的自定义训练堆栈从头开始训练。

数据评估

Grok-1浏览人数已经达到 789,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如: Grok-1的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找 Grok-1的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于 Grok-1 特别声明

本站 自媒体维基提供的 Grok-1都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由 自媒体维基实际控制,在 2024年3月18日 下午9:24收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除, 自媒体维基不承担任何责任。

相关导航

司马阅(SmartRead),是一款AI文档阅读分析工具

暂无评论

暂无评论...

网址设置

网址样式切换

详细

网址卡片按钮

显示

布局设置

左侧边栏菜单

展开

搜索框设置

自定义搜索框背景

  • 4K壁纸

自定义搜索框高度

  • 聚焦
  • 信息
  • 默认
自定义设置
TAB栏自定义颜色

背景颜色

文字颜色