Skip to content
毫河风报
菜单
  • 首页
  • 关于我们
  • 联系我们
  • 播记
 
** 英伟达 Minitron 模型在 Huggingface 开源,训练速度提升 40 倍!**

英伟达 Minitron 模型在 Huggingface 开源,训练速度提升 40 倍!

2024-07-262024-07-26

英伟达近日推出了全新的小语言模型 Minitron,包含 4B 和 8B 两个参数版本。这个模型通过采用修剪和蒸馏技术,缩小了模型大小并降低了训练成本。具体来看,Minitron 8B 和 4B 模型是从 15B 模型衍生而来,所需的训练 token 比从零开始训练少了 40 倍,计算成本节省了 1.8 倍。

在性能方面,Minitron 模型在 MMLU 分数上比从头开始训练的模型提升了多达 16%,并且性能与其他社区模型如 Mistral 7B、Gemma 7B 和 Llama-3 8B 相当。此外,Minitron 在先进压缩技术上也表现得尤为出色。训练速度的提升达到 40 倍。

这个模型系列已经在 Huggingface 上开源,大家都可以免费使用。Minitron 模型能处理文本生成、翻译和情感分析等多种自然语言处理任务。社区反馈方面,Minitron 模型在 Huggingface 平台上开源后,迅速吸引了大量用户的关注和使用。

AI 日报

查看全部日报

  • AI 技术在医疗领域的突破性应用:从诊断到治疗的全新变革
  • AI 代理战场新核武!OpenAI 发布 o3 模型:比肩人类决策,媲美专业审核
  • 软银 5000 亿美元 AI「星门」陷融资困境,孙正义:短期波动不足为惧
  • 贝索斯加持 AI 搜索新星估值 140 亿!3 年超谷歌 7 年成绩
  • 苹果重磅爆料:秘密研发两大“杀手锏”芯片,剑指智能眼镜与 AI 服务器!

©2025 毫河风报 沪ICP备18012441号-5