瑞士初创公司 Lakera 近日在由欧洲风投公司 Atomico 领投的 A 轮融资中筹集了 2000 万美元。这家总部位于苏黎世的公司,专注于保护生成式 AI 应用免受恶意提示和其他威胁。生成式 AI 技术在企业界安全性和可靠性方面仍存在不少担忧。Lakera 通过其安全解决方案,确保生成式 AI 在企业环境中的安全应用。
Lakera 成立于 2021 年,总部设在瑞士苏黎世。这家初创公司汇聚了来自全球 15 个以上国家的 AI 安全专家,成立以来已经在解决生成式 AI 安全问题方面取得了一些成就。Lakera 的产品之一是 Lakera Guard,这是一款专为生成式 AI 应用设计的低延迟防火墙。它能实时检测并防御恶意提示注入攻击,确保 AI 系统的安全运行。
另外,Lakera 还推出了 Gandalf 游戏,这款全球数百万人参与的 AI 安全游戏。通过 Gandalf,Lakera 收集了大量的 AI 威胁数据,建立了一个实时更新的 AI 威胁数据库。
除了领投方 Atomico,参与本轮融资的还有 Citi Ventures、Dropbox Ventures 和现有投资者 Redalpine。Lakera 打算利用这笔资金扩大全球业务,特别是在美国市场。公司已经在北美拥有一些客户,包括美国的 AI 初创公司 Respell 和加拿大的公司 Cohere。
Lakera 的平台能实时检测和防护提示注入攻击。这类攻击是黑客常用的手段,通过操纵生成式 AI 模型的输入,试图访问公司的系统或窃取机密数据。Lakera 的技术能识别并阻止这些恶意提示,保障 AI 应用的安全。
他们还提供一款内容审核工具,可以通过一行代码集成到企业系统中,配有一个集中化的策略控制仪表盘。企业可以根据内容类型微调审核阈值,确保生成的内容符合安全和合规要求。这些工具不仅能检测仇恨言论、性内容、暴力和粗俗语言,还能防止生成有害内容。
Lakera 的平台基于他们自家的内部 AI 模型,能实时检测和防护恶意攻击。通过不断更新的威胁情报,Lakera 的系统能够持续学习和适应新兴的安全威胁,确保生成式 AI 应用的安全和可靠。