Apple hat in Zusammenarbeit mit der University of California ein MGIE-Modell (MLLM-Guided Image Editing) vorgestellt, wie "The Verge"
berichtet. Die Software ist in der Lage, bereits existierende Bilder zu bearbeiten, indem der Benutzer den Änderungswunsch als Textanweisung eingibt. MGIE interpretiert dann den Text und editiert das Bild dahingehend, sodass die Vorstellungen des Benutzers möglichst gut getroffen werden. Ein Beispielkommando wäre beispielsweise "helle den Himmel auf" oder "entferne die Person hinter unserem Selfie".
Die Software steht via Github zum Download
bereit, eine Webdemo ist überdies auf Hugging Face
verfügbar.
Apple hat nicht gesagt, welche Pläne es für das Modell über die Forschung hinaus hat. Mit der Idee wäre Apple jedenfalls nicht alleine. Zwar versucht sich die Mehrheit der Akteure in diesem Bereich in der generativen KI, aber Adobe bietet mit Firefly in Photoshop beispielsweise ebenfalls ein Tool an, womit sich Bilder per Textkommandos editieren lassen.
(dok)