💡
原文英文,约400词,阅读约需2分钟。
📝
内容提要
苹果研究人员发布了一种新模型,允许用户用简单的语言描述他们想要在照片中改变的内容,而无需触碰照片编辑软件。该模型名为MGIE,由苹果与加州大学圣塔芭芭拉分校合作开发。它可以通过文本提示对图像进行裁剪、调整大小、翻转和添加滤镜。MGIE结合了两种多模态语言模型的用途,学习如何解释用户的提示并“想象”编辑后的效果。苹果已在GitHub上提供了MGIE的下载,并在Hugging Face Spaces上发布了一个网络演示。
🎯
关键要点
- 苹果研究人员发布了MGIE模型,允许用户用简单语言描述照片编辑内容。
- MGIE模型与加州大学圣塔芭芭拉分校合作开发,可以通过文本提示进行裁剪、调整大小、翻转和添加滤镜。
- MGIE结合了多模态语言模型的两种用途,学习解释用户提示并“想象”编辑效果。
- 用户只需输入想要改变的内容,例如“让它更健康”会添加蔬菜配料。
- 研究表明,MGIE能够有效提高性能,同时保持竞争效率。
- 苹果在GitHub上提供MGIE下载,并在Hugging Face Spaces上发布了网络演示。
- 一些图像生成平台如OpenAI的DALL-E 3也能进行简单的照片编辑,Adobe的Firefly AI模型也提供生成填充功能。
➡️