我们正在发布我们的大型语言模型 Grok-1 的基本模型权重和网络架构。Grok-1 是一个 3140 亿参数的专家混合模型,由 xAI 从头开始训练。
这是 2023 年 10 月结束的 Grok-1 预训练阶段的原始基础模型检查点。这意味着该模型不会针对任何特定应用(例如对话)进行微调。
我们将在 Apache 2.0 许可下发布权重和架构。
要开始使用该模型,请按照github.com中的说明进行操作。
型号详细信息
- 基础模型在大量文本数据上训练,未针对任何特定任务进行微调。
- 314B 参数 Mixture-of-Experts 模型,其中 25% 的权重在给定令牌上处于活动状态。
- 2023 年 10 月,xAI 使用 JAX 和 Rust 之上的自定义训练堆栈从头开始训练。
相关标签
数据评估
关于
Grok-1 特别声明
本站 自媒体维基提供的 Grok-1都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由 自媒体维基实际控制,在 2024年3月18日 下午9:24收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除, 自媒体维基不承担任何责任。
相关导航
暂无评论...
网址设置
网址样式切换
详细
网址卡片按钮
显示
布局设置
左侧边栏菜单
展开
搜索框设置
自定义搜索框背景
自定义搜索框高度
- 聚焦
- 信息
- 默认
自定义设置