Zum Inhalt springen

adrianrohnfelder

Moderators
  • Gesamte Inhalte

    286
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    35

Alle Inhalte von adrianrohnfelder

  1. Hihi, das kenne ich. Der Tag bräuchte 80 Stunden und mehr um alle KI Generatoren zu testen bzw. zu lernen 🤪
  2. Ich habe die Erfahrung gemacht, dass die Parameter --s und --c zwar unterschiedliche Ergebnisse bringen, aber nicht sehr konsistent. Insofern sind sie für mich nicht gezielt einsetzbar und ich nutze sie gar nicht. Bei --q habe ich auch noch nie einen Unterschied festgestellt in der Detaillierung. In v5 wird meines Wissens sowieso nur noch maximal mit --q 1 gerendert, dazu ist der Parameter auch aus den /settings verschwunden. Nutzt bzw. wie nutzt Ihr diese Parameter?
  3. Danke für den Input. Ich muss gestehen, dass ich mich bisher i.w. auf Midjourney konzentriere, u.a. auch weil es recht einfach zu bedienen ist. Stable Diffusion ist ja schon etwas komplizierter mit aber dem Vorteil, dass es deutlich mehr Möglichkeiten bietet, insbesondere im Hinblick auf konsistente Bilder. Nutzt Du SD 1.5 am Mac oder PC?
  4. Ich mag die konsistenten Farben und Bilder. Überhaupt finde ich KI-Bilder hauptsächlich als Serien und nicht als Einzelbilder interessant. Sehr gerne mehr davon! Und vielleicht hier und da auch einmal den Prompt dazu 😉
  5. Klar, hatte ich vielleicht nicht deutlich genug ausgedrückt. Hier sind die Bilder definitiv selbsterklärend und das war auch null Kritik an Dir. Nur gerade "historische" Bilder werden wahrscheinlich noch schwieriger als Fake zu entlarven sein als aktuelle Bilder. Da könnte man (ich weiß, macht niemand) ja nach aktuellen Infos rund um das Bild/ Nachricht surfen, für historische Themen ist das aufwendiger.
  6. Das werde ich mir definitiv als Alternative zu Runway einmal anschauen.
  7. Habe ich die Tage auch mal wieder ausprobiert. Die Ergebnisse sind in der Tat nicht verkehrt. Ich bevorzuge immer noch Midjourney, aber die Bing/ Dall-E Ergebnisse sind durchaus brauchbar.
  8. Ich bin ja auch ein sehr großer KI Fan 🙂 aber bei diesem Thema hier könnte ich mir vorstellen, dass es da schnell problematisch wird und lädt natürlich auch dazu ein, Dokumentarisches zu fälschen. Dies ist aus meiner Sicht einer der wenigen Bereich, bei der definitiv gesetzliche Regelungen für eine eindeutige Kennzeichnungspflicht wie auch immer geschaffen werden müssen.
  9. Das müssten an dieser Stelle @Mattes oder auch @aicatcher machen, mit Leonardo habe ich mich in der Tat noch nicht beschäftigt. Geht es Dir allerdings vordergründig um die Ergebnisse und nicht expliziert um Leonardo dann schaue doch mal hier im Forum in den Midjourney Part. Da hat es bereits so einige Tutorials bzw. wird das in der nächsten Woche noch ausgebaut - der Bereich hier natürlich später auch 😉
  10. Bilder mit KI zu generieren macht mächtig Spaß, ja fast schon süchtig 🙂 Aber ganz ehrlich, wohin mit den ganzen Bildern? Zudem befürchte ich, dass das Web eines Tages damit geflutet wird. Damit wird es zudem immer schwieriger, aus der Masse herauszustechen und mit seinen Bildern sichtbar zu werden. Aus diesem Grund arbeite ich weniger mit Einzelbildern, denn mit Serien wie z.B. meine Midjourney Funko Pop Serie. Noch spannender finde ich es aber, mit generierten Bildern eine Geschichte zu erzählen. Evtl. sogar eine mit der Hilfe von Chat GPT generierte Geschichte. Und ganz besonders spannend 🙂 wird es dann, wenn diese Geschichte am Ende einen kurzen Film ergibt. Daher kann ich es kaum noch erwarten, dass Runway endlich die Gen-2 seiner Text-to-Video bzw. Image-to-Video KI öffentlich macht. Was ich da bereits von Beta-Testern an Ergebnissen gesehen habe, wow! Einen Großteil meiner Bilder für meinen ersten Runway Film habe ich bereits generieren lassen. Sobald Gen-2 für mich verfügbar ist werde ich hier also bewegte Ergebnisse zeigen.
  11. Noch nicht im direkten Vergleich, kann ich aber die Tage gerne mal machen.
  12. Es müssen nicht immer komplizierte Midjourney Prompts, Befehle oder Parameter sein, manchmal lassen sich auch mit einfachen Begriffen spannende Bilder generieren: active volcano in a glass box, white background active volcano active volcano cloud with thunderbolts tsunami
  13. Ja, Remix ist doof 🙂 Coole Idee btw und Bilder, es bleibt aber am Ende bei Hand- und detaillierter Promptarbeit in Kombination mit dem Seed. Und je komplizierter das Motiv bzw. desto weiter weg von realen Motiven/Vorlagen, desto schwieriger. Bei einfachen Motiven geht es ganz gut wie von Dir beschrieben, ich spiele gerade mit einem Raumschiff in "black metallic alien egg shape" herum, da werden die Ergebnisse aufgrund der simplen Eiform konsistenter. Apropos Prompt, kennst Du schon den CLIP-Interrogator? Da kannst Du Dir wie bei /describe einen Prompt zu einem Bild ausgeben lassen.
  14. Bist Du schon weiter? Ich habe am Wochenende noch mal mit Bildern als Vorlage und /remix gearbeitet, ohne wirklichen Erfolg. Habe dafür sogar extra das gewünschte Raumschiff freigestellt und als Vorlage mitgegeben, sieht trotzdem immer ziemlich anders aus. Klar, schon ähnlich, aber nicht konsistent ähnlich. Langsam gehen mir die Ideen aus...
  15. Oh, ist ja nicht die schlechteste Karte, hat mein Sohn glaube ich auch in seinem Gaming PC. Muss mich auch mal mit SD beschäftigen wenn ich das neue MacBook Pro mit M2 Max aufgesetzt habe, also wenn das Probleme bekommt wüsste ich auch nicht weiter 🙂
  16. In Midjourney könnt Ihr anstatt von Text auch Emojis als Prompts verwenden. Gibt dann natürlich eher zufällige Ergebnisse als mit gezielten Beschreibungen, macht aber auch viel Spaß 🙂 Und mit einer Gewichtung der Prompts (Prompt gefolgt von :: und einem Wert) könnt Ihr zumindest ein bisschen das Ergebnis verfeinert steuern. Prompt: 🐉::2 🌪️ 🔥 🌋::2 Prompt: 🚀::2 💫 Prompt: ☄️⚡️🌎🌖
      • 1
      • Like
  17. Midjourney Spaß zum Mitmachen am Wochenende: /imagine create a 3d funko pop of a FIGURNAME/PERSON, high-octane render --v 5.1 mechagozilla hot glowing volcano astronaut on a fire planet stormtrooper astronaut with closed helmet in a black and golden suit on a lava planet alien by hr giger darth vader mandalorian shai-hulud Und Ihr so 🙂
  18. Mit SD habe ich leider noch nicht wirklich gearbeitet, ich meine aber @aicatcher bereits? Ansonsten habe ich ohne Ahnung zu haben 🙂 quick&dirty dieses Video gefunden, ist es das was Du suchst? https://www.youtube.com/watch?v=YSqQ67Z0U5U
  19. In Discord habe ich meine Bilder (einigermaßen) in Channels organisiert. Allerdings würde ich sie darüber hinaus noch nach Themen bzw. Einsatzzweck (Post hier im Forum, Webinar...) sortieren und hatte dafür an die Midjourney Collections gedacht. Nur kann ich diese dort nicht finden, gibt es diese Möglichkeit gar nicht mehr? Auch auf Discord finde ich keine Möglichkeit Sammlungen anzulegen.
  20. Du meinst /relax? Ja, das ist richtig. Diese Permutationen kosten aber richtig Rechnerzeit, sollten also je kleiner das Abo ist, desto weniger eingesetzt werden.
  21. Das wäre sehr cool, danke! Bin gespannt.
  22. Spätestens mit den Versionen 5.1 bzw. 5.1 --style raw müsste man eigentlich jedes Motiv mit mehreren Versionen generieren lassen, da mal die eine und mal die andere Version ein passenderes Ergebnis liefert. Mit Permutationen kann man das in einen einzigen Prompt packen und automatisieren: Prompt: small cute futuristic robot in the look of Darth Vader. Robot is on a mustafar planet, cinematic --ar 3:2 --v {5{a, b, .1, .1 --style raw}} Midjourney fragt Euch dann ob Ihr wirklich vier Versionen rechnen lassen möchtet. Mit "Yes" bestätigen und los geht es. Grundsätzlich sehr praktisch, allerdings mit dem Wermutstropfen, dass das nur im /fast Modus funktioniert und daher zu Lasten Eurer Rechnerzeit geht.
  23. Wobei das mit dem seed aus meiner Erfahrung auch nur bei ähnlichen Motiven hilft. Ich habe gestern mal mit seed probiert, ein identisches Raumschiff (Urpsrungsfrage hier war ja ein U-Boot) in eine völlig andere Szenerie zu setzen. Mal in eine Wüste, mal in eine Vulkanlandschaft. Das Raumschiff sieht trotz identischer "Raumschiff Prompts" und --seed komplett anders aus.
  24. Letzter Test für heute: Drachen. Dieses Motiv ist für mich eine der größten Herausforderungen, die Physiognomie hat bisher so gut wie nie funktioniert. Prompt: dangerous malevolent fire breathing dragon, full body, with glowing eyes and large leathery wings and sharp talons fights against an large army of heavily-armored dwarves in the region of Mordor, flames, debris, scene of desctruction, dramatic light, cinematic lighting v5 v5.1 v5.1 --style raw Also hier hat v5.1 eindeutige Fortschritte gemacht! Auch die Zwergenarmee hat in v5.1 immerhin einmal funktioniert. Wenn jetzt auch noch das Feuer spucken klappen würde 🤪, aber gut, v5.2 und v6 dürfen ja auch noch Raum für Verbesserungen haben 🙂
  25. adrianrohnfelder

    Mandalorian Roboter

    Kleiner Roboter im Mandalorian Look 🙂
×
×
  • Neu erstellen...