TwelveLabs于2025年12月1日发布了Marengo 3.0视频基础模型,具备视频理解、物体追踪和时空推理功能,存储成本降低50%,索引速度提升2倍。该模型支持多模态查询,适用于体育、媒体和公共安全等领域,现可通过Amazon Bedrock访问。
本文介绍了如何利用AI辅助开发多模态搜索应用,展示了Amazon Bedrock上TwelveLabs Marengo Embed 2.7模型的能力。该系统支持文本、图像、视频和音频的跨模态搜索,开发者无需手动编码,从而提高创意效率,降低人力成本,适用于游戏和广告等行业。
TwelveLabs 视频理解模型已在 Amazon Bedrock 上线,支持视频搜索、分类和总结。用户可通过自然语言查找视频特定时刻并生成描述性文本,提升视频分析能力,适用于各行业的视频工作流。
完成下面两步后,将自动完成登录并继续当前操作。