Zum Inhalt springen

Andreas J.

Administrators
  • Gesamte Inhalte

    167
  • Benutzer seit

  • Letzter Besuch

  • Tagessiege

    11

Alle Inhalte von Andreas J.

  1. Was kann Google Imagen 3? Konkurrenz für Midjourney und Flux? Wir haben uns angeschaut, wie Imagen 3 mit ImageFX oder Gemini funktioniert. Der Beitrag Google Imagen 3: Konkurrenz für Midjourney und Flux? erschien zuerst auf AI Imagelab. Den ganzen Artikel lesen
  2. Vor einiger Zeit hat uns der renommierte People- und Modefotograf Martin Dürr in einem Gastbeitrag verraten, woher er die Inspiration für seine KI-Portraits nimmt und wie er diese in Midjourney möglichst fotorealistisch generiert. Zusätzlich dazu stellen wir Euch heute noch ein paar kurze und knackige Tipps vor, wie Ihr selbst einzigartige Midjourney Portraits generieren könnt: […] Der Beitrag 10 Tipps für magische Midjourney Portraits erschien zuerst auf AI Imagelab. Den ganzen Artikel lesen
  3. Wie war unser Live Talk? Wir freuen uns über euer Feedback! Gerne Anregungen für neue Live Talks, Artikel oder allgemein Themen, die wir besprechen sollen! Andreas & Adrian
  4. Midjourney V5.2 ist heute Nacht vorgestellt worden! Hier die neuen Funktionen und Befehle: Was ist neu in V5.2? Neues Ästhetik-System Verbesserte Ästhetik und schärfere Bilder Etwas verbesserte Kohärenz und Textverständnis Größere Bandbreite der Ergebnisse (manchmal muss man mehr als einmal testen, um das gewünschte Ergebnis zu bekommen, sorry!) Der Befehl --stylize wurde so angepasst, dass er einen starken Einfluss auf die angewendete Stilisierung hat (mehr wie in V3). Dieser Befehl reicht von --stylize 0 bis --stylize 1000 , der Standardwert ist --stylize 100 Neuer Modus "High Variation" Ist standardmäßig aktiviert und macht alle Variationsaufträge deutlich abwechslungsreicher. Um dies zu deaktivieren oder wieder zu aktivieren, auf /settings klicken und dann einen anderen Variationsmodus wählen. Unter allen Upscales können Sie auch auswählen, welche Stärke der Variation du willst. Neuer Befehl /shorten Damit lässt sich ein Prompt „analysieren“ : Du bekommst Vorschläge, welche Wörter möglicherweise nichts bewirken und welche wichtig sein könnten. Neue „Zoom Out“-Funktion Alle Upscales haben jetzt "Zoom Out"-Schaltflächen, mit denen man das Bild verkleinern kann [Zoom Out 1.5x] [Zoom Out 2x] zoomt die Kamera raus und füllt Details auf allen Seiten aus [Make Square] fügt Details an zwei Seiten hinzu, um ein nicht quadratisches Bild in ein quadratisches zu verwandeln [Custom Zoom] (erweitert) bietet ein Popup-Textfeld, mit sich der Prompt beim Herauszoomen, das Seitenverhältnis oder den genauen Zoom ändern lassen. Um das Seitenverhältnis zu ändern, --zoom 1 einstellen und --ar auf den gewünschten Wert setzen. Mit dieser Option wird versucht, die schwarzen Balken zu entfernen. Wichtig: In den kommenden Wochen können sich die Dinge ohne Vorankündigung ändern. Wir schalten V5.2 standardmäßig ein, um eine möglichst viele Teilnehmer und Testfälle zu erreichen. Man kann jederzeit einfach auf die alte Version umschalten, indem man /settings eingibt und auf V5.1` klicken. Der Modus "High Variation" ist auf V5.2 beschränkt. /shorten funktioniert nicht mit Multi-Prompts Wir hoffen, dass euch die neuen experimentellen Funktionen gefallen. Bitte gebt uns Feedback unter ideas-and-features oder zeigt uns eure neuen Ergebnisse in show-and-tell Wir wünschen euch viel Spaß! Originalmeldung auf englisch: What's new in V5.2? New Aesthetic System Improved aesthetics and sharper Images Slightly improved coherence and text understanding Increased diversity (sometimes you may need to roll more than once to get what you want sorry!) The --stylize command has been fixed to have a strong effect on the amount of the stylization applied to your image (more like in V3). This command goes from --stylize 0 to --stylize 1000and the default value is --stylize 100 New "High Variation Mode" Turned on by default and makes all variation jobs much more varied. To toggle this type / settings and click a different variation mode. Underneath all upscales you can also chose which strength of variation you want. New /shorten command This lets you 'analyze' a prompt and get suggestions on what words might not be doing anything and which ones might be key New "Zoom Out" Feature All upscales now have 'zoom out' buttons underneath you can use to reframe the image [Zoom Out 1.5x] [Zoom Out 2x] pulls the camera out and fills in details on all sides [Make Square] adds details on two sides to make a non-square image into a square one [Custom Zoom] (advanced) gives you a popup text box that allows you to change the prompt as you zoom out as well as the aspect ratio or precise zoom. To change aspect ratio set --zoom 1 then change the --ar to your target. This option will try to remove black bars on your previous images. PLEASE NOTE: Things may change in the coming weeks with no notice. We are turning V5.2 on by default for maximum eyeballs/testing. You can easily switch back at any time by typing /settings and clicking V5.1. High variation mode is limited to V5.2 /Shorten does not work with multi-prompts
  5. Super coole Bilder. Mich würde generell der Ablauf und die Hintergründe mit Leonardo.ai interessieren, ich hatte die noch nicht richtig auf dem Schirm. Gruß Andreas
  6. Sehr cool! Und herzlich willkommen im Forum! Gruß Andreas
  7. Man sieht das nicht im Bild, ich habe aber für das Wombat extra Öffnungen für die Ohren reinbohren lassen. Wegen Tierschutz und so…
  8. Interessante Fragestellung… Ich vermute, dass das nicht mit Midjourney Bordsmitteln geht. Grobe Idee: Einzelne Elemente mit Midjourney generieren lassen (Hintergrund & Elemente), die Elemente dann nach deinem Gusto (Größe und Orientierung) in Photoshop verteilen. Gruß Andreas PS.: Willkommen im Forum!
  9. Andrea Pizzini erklärt in einem Video (englisch) die neuen „Generative Fill“ / Firefly Funktionen in Adobe Photoshop. In Realtime zeigt er, wie einfach es ist, Elemente auszutauschen (z.B. dunkle gegen blonde Haare) Hintergrund zu wechseln Elemente zu entfernen Bilder zu erweitern Andrea hat auch einen klaren Blick darauf, was das für Fotografen und den Umgang mit Bildern bedeutet.
  10. Diese Pressemitteilung ist mir gerade von Adobe zugegangen – jetzt wird es richtig spannend… Adobe integriert generative KI Firefly in Photoshop Adobe hat heute die Funktion „Generative Fill" in Photoshop vorgestellt und damit die generativen KI-Funktionen von Adobe Firefly direkt in Design-Workflows integriert. Die neue Firefly-basierte Anwendung ist der weltweit erste Co-Pilot in Kreativ- und Design-Workflows, der Nutzer*innen eine faszinierende neue Arbeitsweise ermöglicht. In Sekundenschnelle und mithilfe von einfachen Textanweisungen können Inhalte in Bilder eingefügt, erweitert oder entfernt werden. Diese Beta-Version von Photoshop ist die erste Creative Cloud-Applikation von Adobe, in die Firefly tiefgreifend integriert ist. Kreativität und Design auf höchstem Niveau Generative Fill konfiguriert Perspektive, Beleuchtung und Stil von Bildern automatisch, damit die Anwender*innen eindrucksvolle Ergebnisse erzielen und mühsame Aufgaben reduzieren können. Die Integration erweitert den kreativen Ausdruck und die Produktivität durch die Verwendung von natürlicher Sprache und Konzepten zur Generierung digitaler Inhalte in Sekunden: Powered by Firefly: Firefly wurde entwickelt, um Bilder zu generieren, die für die kommerzielle Nutzung sicher sind. Die KI wurde auf Millionen lizenzierte, hochauflösende Bilder von Adobe Stock trainiert, um sicherzustellen, dass Firefly keine Inhalte generiert, die auf dem geistigen Eigentum anderer Personen oder Marken basieren. Mit einfachen Textanweisungen von der Idee zum Bild: Fügen Sie Inhalte zu Bildern hinzu, erweitern oder entfernen Sie diese, um eindrucksvolle Ergebnisse zu erzielen. Verlustfrei bearbeiten: Erstellen Sie neu generierte Inhalte in generativen Ebenen, die es ermöglichen, schnell durch eine Vielzahl kreativer Möglichkeiten zu iterieren und die Effekte bei Bedarf rückgängig zu machen, ohne das Originalbild zu verändern. Designen in transformativer Geschwindigkeit: Experimentieren Sie mit ausgefallenen Ideen, entwickeln Sie verschiedene Konzepte und produzieren Sie grenzenlose Variationen hochwertiger Inhalte so schnell wie Sie tippen können. Als Webtool verfügbar: Generative Fill ist auch als neues Modul in der Firefly-Betaversion für Nutzer*innen verfügbar, die die neuen Funktionen im Web testen möchten. Als vertrauenswürdiger Partner für Privatpersonen und Unternehmen jeder Größe entwickelt und implementiert Adobe alle KI-Funktionen mit einem kund*innenorientierten Ansatz und gemäß den KI-Ethik-Grundsätzen, um die Transparenz von Inhalten und Daten zu gewährleisten. Generative Fill unterstützt auch Content Credentials, eine wertvolle Entwicklung, um zu erkennen, ob ein Inhalt von einem Menschen erstellt, von KI generiert oder von KI bearbeitet wurde. Content Credentials sind wie „Nährwertkennzeichnungen" für digitale Inhalte und bleiben mit diesen verknüpft, wo immer sie verwendet, veröffentlicht oder gespeichert werden. Sie ermöglichen eine korrekte Zuordnung und helfen Nutzer*innen, fundierte Entscheidungen über digitale Inhalte zu treffen. Die Technologie wurde von Adobes Content Authenticity Initiative entwickelt, die mittlerweile über 1.000 Mitglieder zählt. Weitere Innovationen in Photoshop Darüber hinaus hat Adobe Photoshop mit neuen Funktionen ausgestattet, die kreative Arbeitsabläufe verbessern und beschleunigen. Die neuen Presets für Anpassungen, die kontextbezogene Werkzeugleiste, das Entfernen-Werkzeug sowie die verbesserten Farbverläufe ermöglichen es Nutzer*innen, komplexe Bearbeitungen vorzunehmen und einzigartige Designs zu erstellen, während sie zugleich Zeit sparen. Hier erfahren Sie mehr. Adobe kann auf eine mehr als zehnjährige Geschichte der KI-Innovation zurückblicken und hat mit Adobe Sensei zahlreiche intelligente Funktionen in Anwendungen integriert, auf die sich heute Millionen Menschen verlassen. Funktionen wie Neuronale Filter in Photoshop, inhaltsbasierte Füllung in After Effects, Attribution AI in Adobe Experience Platform und Liquid Mode in Acrobat ermöglichen Adobe-Kund*innen die Erstellung, Bearbeitung, Messung, Optimierung und Überprüfung von Milliarden von Inhalten. Firefly, Adobes Familie kreativer generativer KI-Modelle, bringt jetzt noch mehr Präzision, Leistung, Geschwindigkeit und Leichtigkeit in die Workflows, in denen Inhalte erstellt oder verändert werden. Firefly wurde vor sechs Wochen eingeführt und konzentrierte sich zunächst auf die Erzeugung von Bildern und Texteffekten. Es wurde schnell zu einer der erfolgreichsten Beta-Einführungen in der Geschichte von Adobe mit über 100 Millionen generierten Assets. Seit dem Start wurde Firefly um die Unterstützung der Funktionen Vektor-Neueinfärbung und generative Füllung erweitert. Firefly ist der einzige KI-Dienst, der kommerziell nutzbare Inhalte in professioneller Qualität erzeugt und so konzipiert ist, dass er direkt in die Workflows von Kreativen integriert werden kann. Die erste Version der KI wurde auf Adobe Stock-Bildern, frei lizenzierten Inhalten und anderen Public Domain-Inhalten ohne Copyright-Einschränkungen trainiert. Unternehmen können Firefly mit ihrem eigenen kreativen Material erweitern, um Inhalte zu erstellen, die die Bilder, Vektoren und die Markensprache des Unternehmens enthalten. Durch die Integration in die Anwendungen der Adobe Experience Cloud können Marketing-Organisationen die KI nutzen, um ihre Content-Supply-Chain-Produktion zu beschleunigen. Verfügbarkeit Photoshops Generative Fill ist ab heute in der Beta-Version für den Desktop verfügbar und wird in der zweiten Hälfte des Jahres 2023 allgemein zugänglich sein. Zudem ist Generative Fill ab heute auch als Modul in der Firefly-Beta-Anwendung verfügbar.
  11. Ich benutze sie garnicht – ich kämpfe mehr mit den Prompts selber…
  12. Mich würde auch interessieren, wie du die konsistente Farbigkeit hinbekommen hast!
  13. Ich habe – auch mit Stable Diffusion – kurz experimentiert. Dafür gibt es eine Mac Oberfläche (DiffusionBee), mit der es so mittelprächtig funktioniert. Ich konzentriere mich aber gerade auf Midjourney, ich habe sonst Angst mich zu verzetteln (Kind-im-Süßigkeitladen-Syndrom) Andreas
  14. Stability AI, das Unternehmen u.a. hinter Stable Diffusion hat mit dem Stable Animation SDK ein KI-Tool vorgestellt, mit dem sich Animationen erstellen lassen. Es stehen drei verschiedene Wege zur Verfügung: Via Text-Prompt: Aus einer Texteingabe mit verschiedenen Parametern erstellt Stable Animation eine Animation. Bild und Text-Prompt: Aus einem Ausgangsbild und einer Texteingabe wird die Animation generiert Video und Text-Prompt: Aus einem Video, das z.B. Bewegungsabläufe vorgibt und einer Texteingabe entsteht das Video. Um das SDK zu nutzen, muss auf dem eigenen Rechner das SDK installiert werden, eine ausführliche Dokumentation findet sich in der Dokumentation. Das parallel veröffentlichte Video zeigt anhand von Beispielen, welche Ergebnisse man erzielen kann: Die Kosten für die Nutzung der API werden auf einer eigenen Seite dokumentiert, sie hängen von Auflösung, Länge und Bildfrequenz der Animation ab. Die Pressemitteiung auf deutsch: Stability AI veröffentlicht Stable Animation SDK, ein leistungsstarkes Text-zu-Animationstool für Entwickler 11. Mai – Stability AI, das weltweit führende Open-Source-Unternehmen für künstliche Intelligenz, veröffentlicht heute das Stable Animation SDK, ein Tool für Künstler und Entwickler, mit dem sie die fortschrittlichsten Stable Diffusion-Modelle implementieren können, um beeindruckende Animationen zu erstellen. Benutzer können Animationen auf verschiedene Arten erstellen: durch Eingabeaufforderungen (ohne Bilder), ein Quellbild oder ein Quellvideo. Mit dem Stability AI-Animationsendpunkt können Künstler alle Stable Diffusion-Modelle, einschließlich Stable Diffusion 2.0 und Stable Diffusion XL, zur Erstellung von Animationen verwenden. Wir bieten drei Möglichkeiten zur Erstellung von Animationen: Text zu Animation: Die Benutzer geben eine Texteingabe ein (wie bei Stable Diffusion) und ändern verschiedene Parameter, um eine Animation zu erstellen. Texteingabe + Eingabe eines Ausgangsbildes: Die Benutzer geben ein Ausgangsbild ein, das als Startpunkt ihrer Animation dient. Eine Texteingabe wird in Verbindung mit dem Bild verwendet, um die endgültige Animation zu erzeugen. Videoeingabe + Texteingabe: Die Benutzer stellen ein Ausgangsvideo zur Verfügung, das als Grundlage für ihre Animation dient. Durch Anpassung verschiedener Parameter wird eine endgültige Animation erstellt, die zusätzlich durch eine Texteingabe gesteuert wird.
  15. Sehr, sehr cool. Musste sehr lachen! Bitte mehr davon! Und natürlich gerne mehr Erfahrungen mit Stable Diffusion… Nutzt du SD lokal oder auf einem Online Dienst? Gruß Andreas
  16. Midjourney hat heute im Discord Channel Midjourney 5.1 angekündigt. Die wichtigsten Änderungen in Midjourney 5.1 Midjourney 5.1 ist „meinungsstärker“ (englisch „opinionated“), der sich wie Version 4 verhalten soll Midjourney funktioniert einfacher mit kurzen Prompts Es gibt einen unvoreingenommen RAW Modus („unopinionated“) Version 5 ist nachwievor verfügbar Weitere Änderungen Midjourney 5.1 Bessere Kohärenz, also Stimmigkeit der Bilder Prompts werden genauer befolgt Weniger unerwünschte Ränder oder Textartefakte Verbesserte Schärfe Wie kann ich Midjourney 5.1 und den neuen RAW Modus nutzen? Du kannst entweder über /settings dauerhaft auf Version 5.1 wechseln oder an deine Prompts --v 5.1 anhängen Gleiches Prinzip für den RAW Modus: In /settings aktivieren oder --style raw an deine Prompts anhängen Weitere Infos aus der Ankündigung: Der Test zur KI-Moderation in Midjourney wird fortgesetzt Die zweite Version des Midjourney Mags kommt in den nächsten Tagen raus So – viel Spaß mit Midjourney 5.1! Postet gerne eure Erfahrungen, speziell, ob ihr Unterschiede zu den Vorgängerversionen feststellt! Hier das vollständige Statement: Hey @everyone we've got a few announcements tonight: 1) We're testing a version 5.1 image system - V5.1 is more opinionated (like V4) and is MUCH easier to use with short prompts - There is a 'unopinionated' mode for V5.1 (similar to V5.0 default) called "RAW Mode" - Don't worry V5 is still available (as before) Other changes in V5.1 vs V5.0 - Higher coherence - More accuracy to text prompts - Fewer unwanted borders or text artifacts - Improved sharpness How to enable V5.1: - Go to /settings and click "V5.1" (on the second row) or type--v 5.1 after your prompt - For RAW mode click the RAW Mode button under /settings (after clicking V5.1) or type --style raw We'd love to hear your thoughts in ⁠ideas-and-features and see your new creations in ⁠v5-showcase 2) We're re-enabling the AI moderation (on V5 and newer models) - We've taken your feedback from the previous test run and things should be improved now - We've changed the AI appeal system to be limited to 25 rejections per day - If the AI appeal goes through it doesn't count against your limits - To learn more about how it works please read our original message here: ⁠announcements⁠ There may still be weird edge cases! please press the appeal buttons if you think there's an error and feel free to give more feedback at ⁠ai-mod-bugs We are still collecting data over the next few days and improving this system. 3) Subscribe by Friday for Issue #2 of Midjourney Magazine - If you want Issue #2 you need to make sure you have a subscription by Friday - To get it go to https://mag.midjourney.com/ - The next edition is dedicated to V5 Our plans atm to make the V5.1 and AI moderation default modes (over V4) by the end of the week (if everything looks good). - There may be further tunings of V5.1 styles and possibly a V5.2 after that. Hope you enjoy!
  17. Danke – sehr aufschlussreich! Eine Verständnisfrage: Was ist POD? Point of Delivery? Product Of the Day?
  18. Ich habe hier einen neuen Thread gestartet: Freue mich über Beiträge!
  19. @aicatcher hat ein interessantes Thema angestoßen – er stellte im Forum die Frage, ob man mit Midjourney-generierten Kacheln (Parameter --tile) Geld verdienen könne. Daraus entstand die Idee, einen eigene Diskussion zum allgemeinen Thema zu starten: Wie kann man mit KI-generierten Bildern Geld verdienen? Für viele Fotografen, Illustratoren, Designer, Architekten ist das nicht nur eine abstrakte Frage: Es geht um das Business Modell ganzer Berufsgruppen. Was für Ideen habt ihr? Liegt die Zukunft im Verkauf von Bildern? Oder Prompts? Oder Knowhow?
  20. Update: Der Test ist für heute (26. April 2023) abgeschlossen, nächste Woche soll der Test fortgesetzt werden
  21. Midjourney hat heute morgen angekündigt, für einen kurzen Zeitraum das System der „gesperrten Begriffe“ durch einen KI Moderator zu ersetzen. Das neue System soll mehr Kontext verstehen und dadurch auch unverfängliche Prompts durchlassen, die das alte System durch stumpfes Anwenden der Blockliste aussortiert hätte. Das Verfahren sieht jetzt so aus: Ein auf Schnelligkeit optimierter AI Prozess scannt den Prompt. Wenn er einen Prompt sperrt, gibt es jetzt die Option „[I would like to appeal]“ („Ich erhebe Einspruch“) Dann springt eine mächtigere (und ressourcenfressende) KI ein und überprüft die Entscheidung. Midjourney verspricht sich von dem System weniger Fehlentscheidungen. » Ankündigung im Midjourney Discord Channel: Deutsche Übersetzung: Hallo wir werden einen kurzen (4 bis 24 Stunden) Test eines neuen KI Moderator Systems (nur für V5) machen. Was bringt das? Dieser neue KI-Moderator ersetzt unser altes System, das auf "gesperrten Begriffen" basiert. Das neue System versteht Prompts im Kontext und sollte viel intelligenter und differenziert sein. Es sollte (hoffentlich) alle unverfänglichen Prompts durchlassen, die das alte System verworfen hat. Wie funktioniert es? Im ersten Schritt verwenden wir eine schnelle KI, um alle Prompts zu scannen. Wenn sie "nein" sagt, haben Sie die Möglichkeit, auf ein [I would like to appeal] („Ich möchte Widerspruch einlegen“) Schaltfläche zu klicken, und die Anfrage wird an eine größere, intelligentere und leistungsfähigere KI weitergeleitet. Die große KI ist ziemlich teuer, daher beschränken wir die Anzahl der Einsprüche vorerst auf 5 pro 24 Stunden. Wir werden diese Zahl dynamisch anpassen, je nachdem, wie viel Traffic entsteht (hoffentlich auf das höchstmögliche Maß). Wir hoffen, dass dieses zweistufige System den Leuten eine fast 100%ige Chance gibt, unschuldige Aufforderungen durchzubekommen. Wozu wir Ihre Hilfe brauchen Unser Hauptaugenmerk bei diesem Test liegt darauf, sicherzustellen, dass unser KI-Moderator keine obskuren Grenzfälle bearbeitet, die große Bereiche des Prompt-Raums blockieren, die nicht blockiert werden sollten. Dieser Test ist keine Ausrede, um unangemessene Bilder zu erzeugen. Das Ziel ist, dass dieses Update für jeden einfach "unsichtbar" sein sollte. Wenn Sie feststellen, dass das System etwas Schlechtes macht, lassen Sie es uns bitte wissen, indem Sie auf [Notify the developers of a incorrect decision] („Benachrichtigen Sie die Entwickler über eine falsche Entscheidung“) nach einem gescheiterten Einspruchsverfahren, oder sprecht uns an über ai-moderation.
  22. Um den Thread anzuwärmen, mache ich den Anfang: Hi – mein Name ist Andreas! Baujahr 1966, eigentlich Fischkopf, aber nach 35 Jahren im Rheinland erfolgreich assimiliert. Lebe mit meiner Familie in Bonn und betreibe hauptberuflich Diskussionsforen über Fotografie... Bei KI-Bildern habe ich Blut geleckt – was bei mir automatisch den Impuls auslöst: Dafür braucht die Welt auch ein Forum! So – jetzt haben wir den Salat 😉 Freue mich darauf, euch kennenzulernen! Andreas
  23. Neu im Forum? Sind wir zur Zeit alle noch! Mein Vorschlag: Jeder stellt sich einmal kurz vor, damit wir uns kennenlernen!
  24. Mein Instinkt sagt mir, dass die Preise für nahezu alles, was sich mit Midjourney & Co. machen lässt, ziemlich schnell gegen Null gehen werden. Es wird immer jemanden geben, der es versucht, noch billiger zu machen. Potential sehe ich bei Fortbildung & Tutorials und allem, was Profis die Arbeit dauerhaft leichter macht. Aber da kann ich mich auch komplett irren… Gruß Andreas PS.: Vielleicht sollten wir generell einen Thread oder ein Unterforum einrichten „Geld verdienen mit KI Bildern“…
×
×
  • Neu erstellen...