Skip to content
毫河风报
菜单
  • 首页
  • 关于我们
  • 联系我们
  • 播记
 
仅需 25 美元,BRAG 模型性能媲美 GPT-4-Turbo

仅需 25 美元,BRAG 模型性能媲美 GPT-4-Turbo

2024-08-06

2024 年 8 月 5 日,国外网友 Ravi Theja 发布了一组名为 BRAG 的高性能 RAG(检索增强生成)模型,每个模型的训练成本不到 25 美元(人民币 178.7 元)。这一消息迅速引起了广泛关注。

Theja 在 Modal Labs 平台上使用四个 H100 GPU 在一小时内完成了单个 epoch 的训练,成本为每小时 5.92 美元。这样,仅花费 25 美元就训练出了 7B/8B 模型,而训练 1.5B 模型则只需约 10 美元(人民币 71.5 元)。这些小型语言模型(SLM)的性能在 ChatRAG-Bench 评估基准上的表现超过了 Cohere’s Command R+,接近 GPT-4-Turbo 和 Nvidia’s ChatQA-1.5-8B。

BRAG 模型的低成本训练方法是其关键之一。Ravi Theja 采用了一种训练方法,结合了 LoRA(低秩适应)和 QLoRA 技术,使得在保持高性能的同时,大幅降低了训练成本。

LoRA(低秩适应)是一种通过调节超参数 r 来定义低秩矩阵的秩值的方法。r 值越小,训练所需参数越少,从而加快训练速度并降低计算需求。这种方法不仅提高了训练效率,还减少了对高性能硬件的依赖,使得在消费级 GPU 上进行训练成为可能。

QLoRA 是 LoRA 的变体,将预训练大语言模型的权重参数量化到 4 位精度,显著减少了内存占用。通过这种量化技术,BRAG 模型能够在保持高精度的同时,进一步降低计算资源的需求。这种技术的应用,使得 BRAG 模型在性能和成本之间找到了平衡点。

BRAG 模型的发布还引发了关于 AI 模型训练成本的广泛讨论。许多用户认为,BRAG 模型的低成本训练方法,为 AI 领域提供了一种更具成本效益的解决方案。

AI 日报

查看全部日报

  • AI 技术在医疗领域的突破性应用:从诊断到治疗的全新变革
  • AI 代理战场新核武!OpenAI 发布 o3 模型:比肩人类决策,媲美专业审核
  • 软银 5000 亿美元 AI「星门」陷融资困境,孙正义:短期波动不足为惧
  • 贝索斯加持 AI 搜索新星估值 140 亿!3 年超谷歌 7 年成绩
  • 苹果重磅爆料:秘密研发两大“杀手锏”芯片,剑指智能眼镜与 AI 服务器!

©2025 毫河风报 沪ICP备18012441号-5