Was lässt sich mit AI realisieren und was nicht?
Durch die Vielfalt an verfügbaren Algorithmen, Referenzmaterial und Modellen können künstlich generierte Bilder verschiedene visuelle Stile und Szenarien leicht erzeugen, um bestimmte Emotionen oder Konzepte zu vermitteln. Dies ermöglicht es, schnell visuelle Inhalte zu erstellen, die eine gewünschte Stimmung transportieren sollen - zum Beispiel für Moodboards, die ein zukünftiges Shooting simulieren. Diese Möglichkeit nutze ich bereits aktiv für meine Corporate und Industrie Kunden.
Allerdings gestaltet sich die Umsetzung eines detaillierten Briefings mit spezifischen Bestandteilen im Bild als nahezu unmöglich, da dies den Einsatz einer Vielzahl von zusätzlichen Tools erfordern würde und die damit verbundenen Aufwände die eines tatsächlichen realen Bildproduktionsprozesses deutlich übersteigen würden.
Einfach gesagt, reale Produkte, Maschinen, Räume und echte Mitarbeiter des Unternehmens sind nur sehr kompliziert ins Bild zu integrieren.
Integration von Personen via des Charakter-Referenz-Features in ein vordefiniertes Setting. Hier werden verschiedene Quellbilder überlagert. Theoretisch ist auch Fotografie von Mitarbeitern nutzbar, dies klappt aber nicht in jedem Fall. Sobald Brillen, Mützen oder Hüte im Spiel sind wird es schwierig. Proportionen des Körpers verändert sich. Aber auch hier ist diese Technik ein geniales Hilfsmittel um z.B. Lichtsituationen zu simulieren.
Wie ist der AI/KI Workflow in der Bildproduktion?
Nach der Konzeption des Bildes findet die eigentliche Bildentwicklung/das Prompting über Midjourney oder Stable Diffusion statt. Dabei wird in der Regel bereits existierendes Bildmaterial als Quelle für den Stil und den Aufbau des Bildes referenziert. Über den Prompt lassen sich Elemente im Bild hinzufügen oder entfernen. Die Qualität der Eingabe beschreibt hier den zu sehenden Output.
Prompting hat sehr viel mit Trial and Error zu tun, häufig lässt man dieselbe Eingabe immer wieder generieren, da der Output jedes mal ein anderer ist, bis man ein Ergebnis bekommt, mit dem man arbeiten möchte. Dieser Prozess kostet Zeit.
Da Outputs der Bildgeneratoren sehr klinisch aussehen oder zu glatt sind, benutzt man eine weitere Software, um wieder Lebendigkeit ins Bild zu bekommen. Ich nutzte dazu die Magnific AI, ein kostenpflichtiges Tool. Magnific ist zugleich ein Upscaler, der die Auflösung erhöht.
Wie in der klassischen Bildproduktion geht es weiter in Richtung Photoshop, wo Fehler entfernt werden und das Bild weiter bearbeitet wird. Midjourning/Stable gibt kaum ein Bild aus, an dem nichts zu korrigieren ist. Augen, Hände, Arme oder ungereimtheiten im Hintergrund.
Fragen zu AI/KI Themen? Dann lassen Sie uns dazu gerne einmal sprechen.