在 2024 年 9 月 17 日的年度 Snap Partner Summit 上,Snapchat 宣布了一系列新的 AI 功能,其中包括 My AI 聊天机器人新增了类似 Google Lens 的功能。这些新功能将使用户能够通过相机识别和搜索物体,例如翻译菜单、识别植物和停车标志等。
Snapchat 的 My AI 聊天机器人此次更新不仅仅是增加了类似 Google Lens 的功能,还包括了一系列其他实用功能。例如,用户可以通过拍摄菜单照片并发送给 My AI 来获取翻译结果,或者拍摄植物照片以识别其名称。此外,用户还可以拍摄停车标志并发送给 My AI,以快速了解是否可以在特定位置停车。
Snapchat 还推出了 “我的自拍” 功能,允许 AI 对存储在 “回忆” 中的 Snap 进行编辑。例如,如果用户在 “回忆” 中保存了一张自己的照片,Snapchat 可能会在上面添加一个镜头,将用户重新想象成文艺复兴时期的画作。此外,用户还可以选择出现在 AI 生成的图像中,例如与朋友一起被生成成律师或奥运游泳选手的形象。
Snapchat 还推出了一款 AI 驱动的镜头,允许用户看到自己未来的样子。用户可以通过拍摄自己的照片并应用这一镜头,看到自己在未来的样子。
除了这些新功能,Snapchat 还改进了高清(HD)视频通话和 Snap Mail 功能。如果用户的朋友没有接听电话,他们可以给朋友留下一个 Snap。此外,应用还将在聊天中显示当地时区,使用户更容易知道何时与世界各地的朋友联系。
Snapchat 的 My AI 聊天机器人此次更新背后依赖于先进的 AI 技术,特别是计算机视觉和自然语言处理技术。类似 Google Lens 的功能使得 My AI 能够通过相机识别和搜索物体,这需要强大的图像识别算法和大规模的训练数据支持。
My AI 的图像识别功能主要依赖于深度学习模型,这些模型通过大量的图像数据进行训练,能够准确识别各种物体。例如,当用户拍摄一张植物的照片并发送给 My AI 时,后台的深度学习模型会分析图像中的特征,并与数据库中的已知植物进行匹配,从而识别出植物的名称和相关信息。
自然语言处理技术也是 My AI 功能的重要组成部分。当用户发送一张照片并请求翻译菜单时,My AI 不仅需要识别图像中的文字,还需要将其翻译成用户所需的语言。这一过程涉及光学字符识别(OCR)技术和机器翻译技术。OCR 技术能够从图像中提取文字信息,而机器翻译技术则能够将提取的文字翻译成目标语言。
Snapchat 在此次更新中还引入了生成式 AI 技术,用于 “我的自拍” 功能和 AI 驱动的镜头。生成式 AI 技术能够根据输入的描述生成相应的图像或效果,例如将用户的照片重新想象成文艺复兴时期的画作,或者生成用户未来的样子。这些技术的实现依赖于生成对抗网络(GAN)和变分自编码器(VAE)等先进的生成模型。
Snapchat 的技术团队在开发这些功能时面临许多挑战。例如,如何确保图像识别的准确性和实时性,如何处理不同语言和文化背景下的翻译需求,以及如何生成高质量的图像效果。这些挑战需要通过不断优化算法和模型来解决,同时也需要大量的计算资源和数据支持。