Wie kann man mit Fooocus AI reale Produkte oder Gegenstände in einem KI generierten Bild platzieren?
Wenn Bild-KI-Programme wirklich in den Alltag und den Workflow von professionellen Gestaltern in Agenturen einziehen wollen, dann ist das Platzieren von fotografierten Produktbildern in KI generierte Szenarien eine Aufgabenstellung, die sie beherrschen müssen. Und zwar so, dass der Kreative die maximale Kontrolle über die Bildgestaltung hat.
Wenn es um Bildqualität oder Funktionsvielfalt geht, empfehlen wir in den allermeisten Fällen Midjourney. Bei der Kombination von realen mit KI-generierten Bildern hat aber ein anderes Tool die Nase vorn – nämlich Fooocus, eine GUI für Stable Diffusion.
Inhalte
In dieser entsprechenden Schritt für Schritt Anleitung zeige ich euch
- wie man die Fotos für die weitere Bearbeitung in Fooocus vorbereiten muss,
- welche Einstellungen in Fooocus vorgenommen werden können und müssen und
- wie man dann schließlich die Bilder generiert.
Grundsätzliches Vorgehen
Das prinzipielle Vorgehen sieht dabei so aus, dass wir eine Variante des sogenannten Inpaintings nutzen werden. Inpainting bedeutet, dass nur Teilbereiche eines bereits existierenden Bildes neu generiert werden. In der Regel markiert man dafür den gewünschten Bereich mit einem Pinsel und lässt diesen dann durch die KI mit einem Prompt erneut generieren. Genau das machen wir auch, allerdings mit zwei Kniffen:
- Wir maskieren den Bereich, der neu generiert werden soll, nicht mit einem Pinsel in Fooocus, sondern mit Hilfe einer hochgeladenen Maske, die wir vorher angelegt haben.
- Damit markieren wir dann alles AUSSER dem Produkt, denn wir wollen ja die Umgebung und nicht das Produkt an sich verändern.
Als Beispielprodukt nutzen wir an dieser Stelle ein Promotion-Bilder der neuen Fujifilm X100 VI. Die entsprechende Maske habe ich mit Photoshop angelegt, aber man kann auch beliebige andere Programme nutzen.
Start in Fooocus AI
Nachdem wir die Maske angelegt haben starten wir mit der gewohnten, reduzierten Fooocus Oberfläche. Diesmal nutzen wir die maximale Konfigurationstiefe, sowohl im „Input Image“ Bereich als auch in der „Advanced“ Konfiguration.
- Im „Input Image“ Bereich laden wir gleich die Bilder hoch, die wir als Vorlage brauchen.
- Im „Advanced“ Bereich müssen wir die Option aktivieren, dass wir die Maske hochladen können.
Konfiguration Fooocus AI für Upload der Maske
Wir starten mit „Input Image“:
- Einmal die Checkbox aktivieren,
- dann gehen wir auf den Reiter Inpaint or Outpaint
- Hier werden wir nachher das Produktbild hochladen, das wir platzieren wollen.
- Aber noch fehlt uns noch die Option, die Maske hochzuladen.
Dafür müssen wir die Advanced Ansicht aufrufen:
- Checkbox Advanced aktivieren,
- und dann oben rechts den Reiter Advanced wählen.
- Dort aktivieren wir den Developer Debug Modus (Keine Angst!),
- und wählen nun dort den Reiter Inpaint
Im Reiter Inpaint müssen wir ganz nach unten scrollen und schließlich die vorletzte Option „Enable Upload Mask“ aktivieren.
Dies öffnet bei der Bildeingabe ein weiteres Fenster, über das wir gleich die Maske hochladen werden.
Upload von Produktbild und Maske
Jetzt können wir schließlich die Bildvorlagen auswählen und per Drag & Drop in die beiden Fenster ziehen:
- Links das Produktbild, das integriert werden soll,
- Rechts die entsprechende Maske.
Die weiteren Schritte sind Business As Usual in Fooocus:
- Prompt eingeben, welcher natürlich das vorgegebene Produkt beinhalten muss
- Performance und Abmessungen wählen – ich nehme hier 1024 x 1024 entsprechend der Vorlage
- Festlegen, wieviele Bilder generiert werden sollen
- Style auswählen
… und los geht’s mit Klick auf „Generate“.
Produktplatzierung mit Fooocus AI: Die Ergebnisse
Hier sind einige Bildergebnisse, die ich mit verschiedenen Prompts bekommen habe.
Wenn wir uns die Bilder in dieser Übersicht anschauen, sehen wir wie sauber Fooocus AI gearbeitet hat: Das Produkt ist immer identisch positioniert und gut in den KI-generierten Hintergrund integriert.
Mit etwas mehr Experimenten an den Parametern, verfeinerten Prompts und anderen Modellen lassen sich garantiert noch organischere Bilder erzeugen. Für diesen Artikel haben wir nur mit einer harten Schwarzweiß-Maske gearbeitet, mit Graustufen lassen sich ggf. die Realbilder noch organischer in den Hintergrund einbeziehen.
Dieses Anwendungsbeispiel zeigt, dass es nicht immer Midjourney sein muss: Für komplexere Workflows und die Integration von Realbildern lohnt sich auf jeden Fall immer wieder der Blick auf Stable Diffusion und die verschiedenen GUIs wie Fooocus und ComfyUI.