2024 年 7 月 18 日,Hugging Face 宣布他们已经实现盈利,团队规模也达到了 220 人。CEO 强调盈利并不是公司的主要目标,因为他们依然有充足的资金储备。从成立之初,Hugging Face 就致力于提供便捷的接口和丰富的预训练模型,通过不断的创新和产品线扩展,Hugging Face 吸引了众多开发者和科研工作者,并在实际项目和研究中找到了广泛应用。
随着业务的扩展,Hugging Face 的团队也迅速壮大,目前已经扩展至 220 人。团队的壮大使得公司能够更好地支持其不断扩展的产品线和服务。Hugging Face 最近推出了 SmoLLM 系列小型语言模型,这些模型在性能和紧凑性之间找到了平衡。SmoLLM 模型在多个基准测试中的表现,从常识推理到世界知识任务,都展现了效率。其紧凑的设计使得这些模型能够在本地设备上运行,既保护了数据隐私,又降低了成本。
Hugging Face 还对其 Open LLM Leaderboard 进行了一次重大升级。新的排行榜采用了更具挑战性的统一标准,来测试最佳语言模型的性能。阿里巴巴的 Qwen 72B [Instruct] 模型在排行榜上名列前茅。
Hugging Face 与苹果公司联手,将 Core ML 模型发布在 Hugging Face 平台上。通过与苹果的合作,Hugging Face 进一步推动了 AI 技术的普及和应用,为开发者提供了更多的工具和资源。Hugging Face 在开源社区的成功有目共睹,Transformers 库就是一个典范。凭借易用的接口和大量的预训练模型,Hugging Face 迅速获得了 AI 社区的广泛认可。这个平台不仅提供了发布、分享和协作的渠道,还开创了一种新的协作模式,大大降低了深度学习模型的使用门槛。
通过不断扩展合作伙伴关系和提升技术标准,Hugging Face 在数据隐私和成本效益方面展现了优势。最新发布的 SmolLM 模型系列,展示了小型语言模型在特定任务中的潜力,证明了开源模型在实际应用中的可行性和高效性。这种开放和协作的模式,促进了全球技术交流,为中小型企业和个人开发者提供了更多机会。