Zum Inhalt springen

Rangliste

Beliebte Inhalte

Inhalte mit der höchsten Reputation seit 12.04.2023 in allen Bereichen anzeigen

  1. Ich habe mal wieder mit etwas ganz einfachem experimentiert und zwar mit dem Prompt MOTIV in the bottle, black background. Hat was 🙂
    3 Punkte
  2. Spannend finde ich auch, was herauskommt, wenn man Firefly einfach mal "machen lässt", also keine Vorgabe in den Prompt schreibt. Original: Drei "Vorschläge" aus Firefly:
    3 Punkte
  3. Top! Sieht sehr gut aus. Autos gehen auch mit SD. Aber bei den Umgebungsvariablen braucht es oft etliche Versuche. Ich suche mir meist einen passenden Promt bei civitai und verändere dann die mir wichtigen Variablen, wie (hier) Autotyp, Tageszeit, Gebäude, Umgebung allgemein... Die letzten beiden sollten Plymouth Fury werden, zu Mittag in einer Staubwüste...
    3 Punkte
  4. Natürlich musste ich die Integration von Adobe Firefly in Adobe Photoshop gleich einmal ausprobieren 🙂 Aktuell funktioniert das nur in der Desktop Beta-Version von Photoshop. Die findet Ihr in der Creative Cloud unter den Beta-Applikationen und könnt sie von dort aus parallel zu der 'normalen' Photoshop Version zusätzlich installieren. In der Photoshop Beta öffnet Ihr Euer Bild und markiert mit einem Auswahlwerkzeug den Bereich, dem Ihr etwas hinzufügen möchtet. Es erscheint automatisch ein Kontextmenü in welches Ihr (auf Englisch) eingeben könnt, was dem Bereich hinzugefügt werden soll wie z.B. "add a dinosaur". Anschließend drückt Ihr auf 'Generieren', wartet kurz (oder länger je nach Rechner) und erhaltet dann drei alternative Motive vorgeschlagen. Ihr müsst dabei mit dem Internet verbunden sein, da die Funktion 'Generative Füllung' eine Cloud-Verarbeitung erfordert. Das geht super einfach und macht richtig Spaß. Allerdings sind die Ergebnisse sehr durchwachsen. Manchmal funktioniert es super, manche Motive sind einfach nur gruselig (da ist Midjourney in der Qualität noch um Welten besser als Adobe Firefly). Manchmal passen die Schatten und das Licht, manchmal gar nicht. Auch die Größenverhältnisse und Perspektiven machen nicht immer Sinn. Grundsätzlich zeigt die Beta-Version jedoch das enorme Potential und könnte in der Tat ein echter Gamechanger werden.
    2 Punkte
  5. Hallo. Gestern hat Leonardo.AI im Rahmen eines größeres Updates SDXL 0.9 und Prompt Magic 3.0 ergänzt. Nach meiner Einschätzung ist das nochmals ein deutlicher Sprung nach vorn. Hier mal ein paar Beispiele:
    2 Punkte
  6. Ich bin immer noch beeindruckt. Und immer noch ein wenig erschrocken…
    2 Punkte
  7. Wenn du mit der Gallerie die MJ-App meinst, wo man alle seine Bilder ohne Discord sieht: Stimmt, die ist großer Mist. Noch! Sie soll wohl recht mächtig werden, sodass man sogar dort ohne Discord seine Bilder generieren kann. Allerdings ist das Ding wohl noch lange nicht so weit und die zu Verfügung stehenden Funktionen wie das Verwalten der Bilder sind mau. Aber es gibt die Möglichkeit, die alte Gallerie wieder aus der Gruft zu holen: https://legacy.midjourney.com/app/ Da isse. ☺️ Hat mich auch geärgert. Auf dem MJ-Discord-Server kann im Kanal # web-feedback munter darüber diskutiert werden. Hier wirst du jede Menge Gleichgesinnte finden. 😉
    2 Punkte
  8. Hallo Zusammen, ich bin Hobbyfotograf und bisher ein absoluter Rookie in Sachen AI Art. Gestern habe ich Leonardo AI für mich entdeckt und seitdem viel ausprobiert. Gerade habe ich dieses Forum entdeckt und mich sofort angemeldet. 🙂 Hier mal einige Beispiele meiner bisherigen Bilder. Allesamt Photo real. Bin mit den Ergebnissen bis auf ein paar Details sehr zufrieden für den Anfang. Was sagt ihr?
    2 Punkte
  9. Licht und Farbe lagen an meinem Prompt, ich wollte auf eine "Cyberpunk"-Atmosphäre hinaus. Es geht aber auch ganz anders:
    2 Punkte
  10. Hallo, ich habe mich heute erst hier registriert und hier sind einige Sachen aus meinen ersten Tagen bei Leo A.I. von vor Monaten bis heute. Nicht alles ist gut, vieles nicht geupscaled, aber so in etwa sieht meine Scifi Welt aus. Dies ist nur ein kleiner Ausschnitt. Vieles ist brauchbar und dient eher als Motivation/Inspiration.
    2 Punkte
  11. Ist vielleicht Eulen nach Athen getragen. Aber ich habe zwei ganz interessante Tutorials in deutscher Sprache auf Youtube gefunden. Midjourney-Tutorial auf Deutsch für Anfänger (Youtube) Dieses Tutorial startet tatsächlich bei Null (Anmeldung bei Discord, Midjourney usw.). Allerdings finde ich am Ende viele Infos sehr cool, die ich selbst noch nicht wusste. Zum Beispiel wurde auf zwei interessante Webseiten verwiesen, womit man das Prompting besser gestalten kann. Ohne die beiden Links jetzt selbst schon getestet zu haben sind das: Midlibrary.IO (Webeseiten-Link) Das scheint eine Art Bibliothek zu sein, wo man sich schlau machen kann, welcher Prompt welchen Stil hervorbringt. Mit über 3000 Beispielbildern. (noch ungetestet) Prompt.Noonshot.com (Webseiten-Link) Ist zwar für Version 4, fest eingestellt, man kann aber seinen Prompt damit erstellen und nach dem Kopieren auf Discord gerade das "--v 4" dahinter löschen, wenn man das nicht will. Ansonsten scheint es ganz gut zu sein, sich einen Prompt mit entsprechendem Licht usw. zusammenzuklickern. (wie gesagt, noch ungetestet) Dann habe ich mir noch für alle Anime- und Manga-Fans dieses Youtube-Tutorial gegönnt: Anime AI Art Guide (Youtube) Ist eine schnelle Zusammenfassung, was mit dem --niji - Parameter bei Midjourney alles möglich ist. Bin zwar jetzt nicht so im Niji-Umfeld zuhause, fand das aber recht interessant. Vielleicht ist für den ein oder anderen was Brauchbares dabei. Ich wollte es hier nicht unerwähnt lassen. 😊 Viele Grüße von der Zauberfrau
    2 Punkte
  12. Die Kombination aus "Prompt Magic v3.0" und "Photoreal" kann was:
    2 Punkte
  13. Hallo, ich bin der Spanksen (Murat) - freut mich ein Teil der AI Community sein zu dürfen. Im Moment reizt es mich gerade mit Generative Fill alten Bildern von mir neues Leben einzuhauchen und eine Story zu erzählen die vorher nicht da war oder die ich im Kopf hatte aber nicht umsetzten konnte. Die alten Bilder inspirieren mich grade dadurch komplett neu. Hier mal ein paar Beispiele Hier zum Beispiel das große Problem des Drogen- und Tablettenmissbrauchs (Oxys, Benzos etc.) was wir auf Sylt mit sehr vielen Jugendlichen auf Sylt (und nicht nur hier natürlich) haben sowie die Perspektivlosigkeit im starken Kontrast zur Schönheit der Insel.
    2 Punkte
  14. Die Stimmung in einem verschneiten Wald ist gut getroffen, finde ich:
    2 Punkte
  15. Sehr sehr cool, also Bilder und Geschichte. Du kennst doch sicher die Bücher "His Dark Materials" wo die Personen einen Dämonen in Form eines Tieres haben. Daran musste ich sofort bei dem Waschbär denken.
    2 Punkte
  16. Kleine Spielerei zwischendurch mit dem Prompt [FILMTITEL] isometric cube micro world underground cut away Wer kann die Filme zuordnen: Alien, Westworld, Mad Max, Ready Player One, Pirates of the Carribean, Blade Runner, Interstellar, Harry Potter, Star Wars Mustafar, Star Wars Tatooine, Indiana Jones, Mordor Herr der Ringe? Jetzt dürft Ihr 😉
    2 Punkte
  17. Ja, genau hier ist der Ansatz. Wir müssen damit umgehen lernen, wie mit dem Telefon (war vor gut 100 Jahren angeblich eine riesige Diskussion, ob das Telefon nicht entmenschlicht), dem Handy oder dem Internet.
    2 Punkte
  18. Darum habe ich ja auch "lasse ich mich von Chat GPT unterstützen" geschrieben. Es ist super, um mal eine Idee zu bekommen oder etwas auszuschmücken, mit Sparringspartner beschreibst Du das sehr gut. Ähnlich würde ich auch die Bilder von Storybird sehen, als eine Idee oder Alternative, die man selbst so nicht im Kopf hatte. Wie geschrieben, ich schaue mir das zumindest einmal an.
    2 Punkte
  19. Eine neue "Story" ist in Arbeit...
    2 Punkte
  20. Yep, das ist echt unglaublich wie gut insbesondere das Erweitern von Fotos funktioniert, der rote Rahmen zeigt das originale Bild.
    2 Punkte
  21. Aber die Herr der Ringe Bücher hat es gelesen 🙂
    2 Punkte
  22. Eine Möglichkeit wäre es zudem, dass Du Dir jeweils ein Graffiti für jeden einzelnen Buchstaben generieren lässt, das sollte funktionieren. Und dann alle Buchstaben in z.B. Photoshop zu einem Graffiti zusammenbaust. Dazu nutzt Du am besten bei jedem Bild den gleichen --seed. Aber klar, ist deutlich aufwendiger.
    2 Punkte
  23. Hier mal noch zwei Ergebnisse von heute. Bis auf die Augen schon sehr ansehnlich finde ich. Und Supergirl darf nicht fehlen 😄
    2 Punkte
  24. Hallo. Meine ersten Gehversuche habe ich mit Leonardo.AI gemacht. Hier möchte ich Euch einige meiner Portraits zeigen und lade jeden herzlich ein, sich mit seinen Bildern zu beteiligen... Viele Grüße Mattes
    2 Punkte
  25. Hallo. Midjourney bekommt nach meinen Tests Fahrzeuge besser hin, aber Leonardo ist auch nicht so schlecht: Grüße Matthias
    2 Punkte
  26. Midjourney habe ich schon getestet bevor es dann kostenpflichtig wurde. Aktuell habe ich außer "rumspielen" noch keine Verwendung für die Bilder und daher auch keinen kostenpflichtigen Account. Prompt von der Dame mit Katze war: Und die sitzende Dame: Zusammenfassend kann man sagen bei 10 Bildern kommt 2-3 mal was richtig übles raus, 1 mal was richtig gutes und der Rest ist brauchbar. Meine besten Bilder kann ich hier nicht zeigen, da ich auch ein wenig mit NSFW Content herumgespielt habe wenn das ganze schon unzensiert ist 😄 Was ich interessant finde ist, dass die freien Varianten so schnell aufholen. Und das kann fast jeder mit nem halbwegs guten Rechner erstellen (Bei meinem betagten Ryzen 7 2700X mit Geforce 1080ti dauert ein Bild hochskaliert auf 1024*1024 ca 30-40s). Auf meinem M1 Macbook gehts etwas langsamer aber auch problemlos. Das Modell ist grade mal 2GB groß und das Programm an sich 6GB. Also Peanuts. Da steckt echt ne pfiffige Community dahinter. Wenn das so weitergeht können sich die etablierten kostenpflichtigen bald warm anziehen.
    2 Punkte
  27. Ich habe nun einiges mit Stable Diffusion aus meinem Link oben experimentiert. Wichtig ist das Model das man dazu nutzt. Ich habe viel mit dem "analog Madness" von civitai.com herumprobiert nun. Da kommen teils schon sehr gute Ergebnisse raus, teils auch ziemlicher Mist vor allem wenn man etwas komplexere Dinge haben will wie hier z.B. Die Dame sollte doch nur eine Katze auf der Schulter haben aber stattdessen hat sie noch einen Katzenpelz und Katzenohren bekommen sowie eine verunstaltete Katze im Hintergrund 😄 Wenns dann nur eine Frau sein soll geht das schon besser:
    2 Punkte
  28. Ich habe im Prompt "faded Kodachrome colors" angegeben, das funktioniert ziemlich gut. Ohne das "faded" (also etwa: "verblasst") sind mir die Farben zu kräftig. Das geht dann auch, sieht aber mehr nach Eggleston aus, als ich es hier haben wollte.
    2 Punkte
  29. Habe ich die Tage auch mal wieder ausprobiert. Die Ergebnisse sind in der Tat nicht verkehrt. Ich bevorzuge immer noch Midjourney, aber die Bing/ Dall-E Ergebnisse sind durchaus brauchbar.
    2 Punkte
  30. Mit SD habe ich leider noch nicht wirklich gearbeitet, ich meine aber @aicatcher bereits? Ansonsten habe ich ohne Ahnung zu haben 🙂 quick&dirty dieses Video gefunden, ist es das was Du suchst? https://www.youtube.com/watch?v=YSqQ67Z0U5U
    2 Punkte
  31. Letzter Test für heute: Drachen. Dieses Motiv ist für mich eine der größten Herausforderungen, die Physiognomie hat bisher so gut wie nie funktioniert. Prompt: dangerous malevolent fire breathing dragon, full body, with glowing eyes and large leathery wings and sharp talons fights against an large army of heavily-armored dwarves in the region of Mordor, flames, debris, scene of desctruction, dramatic light, cinematic lighting v5 v5.1 v5.1 --style raw Also hier hat v5.1 eindeutige Fortschritte gemacht! Auch die Zwergenarmee hat in v5.1 immerhin einmal funktioniert. Wenn jetzt auch noch das Feuer spucken klappen würde 🤪, aber gut, v5.2 und v6 dürfen ja auch noch Raum für Verbesserungen haben 🙂
    2 Punkte
  32. Da gehe ich mit. Die klassischen Tiles bei Etsy und co sind seit midjourney tile release ziemlich stark gesunken. Ich versuche gerade etwas modulares für die Dungeons & Dragons Gemeinde aufzubauen, mal schauen ob das funktioniert. So ein Unterforum wäre stark.
    2 Punkte
  33. Auch hier wäre ich gern mit von der Partie
    2 Punkte
  34. Einfach unfassbar wie schnell wir uns mittlerweile in Richtung lebensechte Fotos bewegen. Klar sieht man es hier und da noch an Details (Augen, Gesichtsformen usw) aber wenn man bedenkt, dass wir erst in einem Jahr Entwicklung sind, ist es fast schon unfassbar. Hier mal meine Bilder:
    2 Punkte
  35. Oooohh, das traue ich mich in der aktuellen Situation nicht so richtig. Wäre aber wahrscheinlich auch ne Idee. Ich hab aber mal bei der Diskussion von MJ nachgefragt. Da hieß es, dass dann Direct Message im Eimer ist. Hm. Klingt sehr einleuchtend. Empfohlen wurde dann bei meinem Server Direct Message einmal aus- und dann wieder anzuschalten. Aber auch hier bin ich ein Hasenfuß. Ich sag mal so: In den meisten Kanälen funktioniert das Erzeugen der Bilder ja noch statisch. Da werde ich die zum Erzeugen nehmen. Wenn ich mal eine Antwort von MJ in einem "kaputten" Kanal brauche, rufe ich sie dort halt mit /show auf, was gut funktioniert. Zudem wurde mir auch empfohlen, im direkten Chat mit dem Bot zu kommunizieren. Ja, das habe ich die ganze Zeit gemacht. Ist zwar übersichtlicher als in den #general-x-Kanälen von MJ, aber auch noch sehr durcheinander. Auf dem eigenen Server sortiert es sich so schön. 🙂 Das aktuelle Prozedere und Herumgeschiebe auf meinem Server ist zwar nicht ganz das Gelbe vom Ei, für mich aber gerade die Notlösung. Denn wenn jetzt auch noch mein Server mit meinen Bildern und MJ in die Knie geht, dreh ich ein bisschen am Rad. Hab grad ziemlich viel um die Ohren. Aber das bringen die Monate Oktober (Messemonat) und November (NaNoWriMo) so mit sich. Zudem bastle ich munter an meiner Webseite, die ich komplett mit MJ-Bildern illustriere. (Link ist unter "About me" in meinem Profil) - Macht mir sehr viel Freude.
    1 Punkt
  36. Midjourney tut sich häufig mit mehreren gleichberechtigten Motiven in einem Bild schwer. Ein Motiv wird meist warum auch immer mehr gewichtet und besser dargestellt als ein weiteres Motiv. Für solche Bildideen kann die Kombination aus den neuen Pan wie auch Zoom Out Funktionen Abhilfe schaffen wie ich Euch an folgendem Beispiel zeige: Meine Bild-/Story-Idee sind runde Raumschiffe, welche die Erde überfallen und dabei silberne Kugeln auf die Erde fallen lassen - was die Kugeln dann auf der Erde anstellen muss ich mir noch überlegen, vielleicht schlüpfen ein paar Aliens, vielleicht kriecht eine silbrige Flüssigkeit hinaus, mal schauen, auf jeden Fall gibt es viel Zerstörung und Apokalypse 🙂 Alle meine Bildversuche mit einem Prompt in die Richtung “round spaceship drops silver balls over a city” sind gnadenlos gescheitert. Entweder erhielt ich große Kugeln oder ein hübsches Raumschiff aber niemals beides in Kombination. Ich habe dann versucht, den Prompt mit /shorten zu analysieren (das hat zumindest ergeben, dass balls falling besser als drops balls ist) und mit Weights zu optimieren; ich habe es mit den Begriffen balls, bows, sphere, drops versucht; ich habe den Prompt mehrfach umgestellt - ohne Erfolg. Daher habe ich anschließend in einem neuen Versuch zuerst einmal nur die auf eine Stadt fallende Kugeln generiert: Prompt: satellite view of tiny silver chrome balls falling from the sky down to manhattan, scifi atmosphere Als nächstes war es meine Idee, mit einem Custom Zoom Out das Raumschiff über die Kugel-Szenerie zu setzen: Zoom Out Prompt: satellite view of tiny silver chrome balls falling from a round SciFi ufo with a smooth reflecting chrome surface down to manhattan, scifi atmosphere Hm, das war immer noch nicht das, was ich mir vorgestellt habe. Also habe ich es mit der Pan Funktion und dem Ufo probiert: Pan Prompt: satellite view of a round SciFi ufo with a smooth reflecting chrome surface, scifi atmosphere Ha, nun stimmte die Richtung! Allerdings war teilweise nur ein angeschnittenes Ufo zu sehen und auch das Bildformat passte noch nicht - Pan erweitert ein Bild ja nur in eine Richtung. Daher habe ich auf das Pan-Ergebnis noch einen Custom Zoom Out mit dem Bildverhältnis 3:2 angewendet: Zoom Out Prompt: satellite view of a SciFi ufo with a smooth reflecting chrome surface above manhattan, scifi atmosphere Et voila, jetzt kommt das Ergebnis endlich meiner ursprünglichen Bildidee sehr nahe.
    1 Punkt
  37. Ich habe einmal ein paar Zoom Out vom Zoom Out des Zoom Out zusammengebaut (mit FotoMagico am Mac). Die neue Outpainting Funktion in Midjourney v5.2, hat Potential 😍Generierung von Bildern in mehreren Stufen genutzt werden. KI_ZoomOutk.mov
    1 Punkt
  38. Stability AI, die Firma hinter der Text-to-Image Anwendung Stable Diffusion, hat die Veröffentlichung von Stable Doodle bekannt gegeben. Das ist eine Sketch-to-Image-Anwendung auf Basis des Stable Diffusion-Modells, welches Skizzen in Bilder umsetzen kann. In einer Pressemitteilung heißt es "Mit Stable Doodle kann jeder, der über grundlegende Zeichenkenntnisse und eine Online-Verbindung verfügt, in nur wenigen Sekunden qualitativ hochwertige Originalbilder erstellen." Neben einer Skizze kann man zusätzlich noch einen Prompt, also einen beschreibenden Text, für eine noch bessere Kontrolle über das Ergebnis mitgeben. Klingt sehr spannend, u.a. fallen mir spontan Architekten als Zielgruppe ein. Grundsätzlich kann aber natürlich jeder, der ein wenig Talent fürs Zeichnen hat (ich falle raus, Strichmännchen und das war es), damit aus meiner Sicht noch gezielter Bildideen umsetzen als rein mit Text-to-Image. Ich bin gespannt, wer das von Euch als erstes hier ausprobiert 😉
    1 Punkt
  39. Hab grad mal reingeschnuppert. Hm, auf den ersten Blick hauen mich die Ergebnisse nicht von den Socken. Und während in MJ meist kaukasisch anmutende Figuren entstehen, bleibt man dort sehr oft im asiatischen Raum. Zumindest in meinen Tests war es so. Und es sind sehr viele Zeichnungen. Vielleicht war's auch Zufall. Mir wäre ja ein Mix aus ganz verschiedenen Kulturen sehr willkommen. Am liebsten fotorealistisch. Da sagst du was! Was hab ich schon Bratpfannenhände mit 8 Fingern und mehr in meiner Corel-Suite angepasst! Oder Hände aus anderen, ähnlichen Bildern genommen, die nicht ganz so außerirdisch aussahen. Gibt es hier eigentlich einen Showroom? Ich habe so ein Lieblingsbild, für das ich viel Zeit verwendet habe. Das würde ich ja gern mal vorstellen. Ich schau mal. 😉
    1 Punkt
  40. Sehr cool! Und herzlich willkommen im Forum! Gruß Andreas
    1 Punkt
  41. Diese Pressemitteilung ist mir gerade von Adobe zugegangen – jetzt wird es richtig spannend… Adobe integriert generative KI Firefly in Photoshop Adobe hat heute die Funktion „Generative Fill" in Photoshop vorgestellt und damit die generativen KI-Funktionen von Adobe Firefly direkt in Design-Workflows integriert. Die neue Firefly-basierte Anwendung ist der weltweit erste Co-Pilot in Kreativ- und Design-Workflows, der Nutzer*innen eine faszinierende neue Arbeitsweise ermöglicht. In Sekundenschnelle und mithilfe von einfachen Textanweisungen können Inhalte in Bilder eingefügt, erweitert oder entfernt werden. Diese Beta-Version von Photoshop ist die erste Creative Cloud-Applikation von Adobe, in die Firefly tiefgreifend integriert ist. Kreativität und Design auf höchstem Niveau Generative Fill konfiguriert Perspektive, Beleuchtung und Stil von Bildern automatisch, damit die Anwender*innen eindrucksvolle Ergebnisse erzielen und mühsame Aufgaben reduzieren können. Die Integration erweitert den kreativen Ausdruck und die Produktivität durch die Verwendung von natürlicher Sprache und Konzepten zur Generierung digitaler Inhalte in Sekunden: Powered by Firefly: Firefly wurde entwickelt, um Bilder zu generieren, die für die kommerzielle Nutzung sicher sind. Die KI wurde auf Millionen lizenzierte, hochauflösende Bilder von Adobe Stock trainiert, um sicherzustellen, dass Firefly keine Inhalte generiert, die auf dem geistigen Eigentum anderer Personen oder Marken basieren. Mit einfachen Textanweisungen von der Idee zum Bild: Fügen Sie Inhalte zu Bildern hinzu, erweitern oder entfernen Sie diese, um eindrucksvolle Ergebnisse zu erzielen. Verlustfrei bearbeiten: Erstellen Sie neu generierte Inhalte in generativen Ebenen, die es ermöglichen, schnell durch eine Vielzahl kreativer Möglichkeiten zu iterieren und die Effekte bei Bedarf rückgängig zu machen, ohne das Originalbild zu verändern. Designen in transformativer Geschwindigkeit: Experimentieren Sie mit ausgefallenen Ideen, entwickeln Sie verschiedene Konzepte und produzieren Sie grenzenlose Variationen hochwertiger Inhalte so schnell wie Sie tippen können. Als Webtool verfügbar: Generative Fill ist auch als neues Modul in der Firefly-Betaversion für Nutzer*innen verfügbar, die die neuen Funktionen im Web testen möchten. Als vertrauenswürdiger Partner für Privatpersonen und Unternehmen jeder Größe entwickelt und implementiert Adobe alle KI-Funktionen mit einem kund*innenorientierten Ansatz und gemäß den KI-Ethik-Grundsätzen, um die Transparenz von Inhalten und Daten zu gewährleisten. Generative Fill unterstützt auch Content Credentials, eine wertvolle Entwicklung, um zu erkennen, ob ein Inhalt von einem Menschen erstellt, von KI generiert oder von KI bearbeitet wurde. Content Credentials sind wie „Nährwertkennzeichnungen" für digitale Inhalte und bleiben mit diesen verknüpft, wo immer sie verwendet, veröffentlicht oder gespeichert werden. Sie ermöglichen eine korrekte Zuordnung und helfen Nutzer*innen, fundierte Entscheidungen über digitale Inhalte zu treffen. Die Technologie wurde von Adobes Content Authenticity Initiative entwickelt, die mittlerweile über 1.000 Mitglieder zählt. Weitere Innovationen in Photoshop Darüber hinaus hat Adobe Photoshop mit neuen Funktionen ausgestattet, die kreative Arbeitsabläufe verbessern und beschleunigen. Die neuen Presets für Anpassungen, die kontextbezogene Werkzeugleiste, das Entfernen-Werkzeug sowie die verbesserten Farbverläufe ermöglichen es Nutzer*innen, komplexe Bearbeitungen vorzunehmen und einzigartige Designs zu erstellen, während sie zugleich Zeit sparen. Hier erfahren Sie mehr. Adobe kann auf eine mehr als zehnjährige Geschichte der KI-Innovation zurückblicken und hat mit Adobe Sensei zahlreiche intelligente Funktionen in Anwendungen integriert, auf die sich heute Millionen Menschen verlassen. Funktionen wie Neuronale Filter in Photoshop, inhaltsbasierte Füllung in After Effects, Attribution AI in Adobe Experience Platform und Liquid Mode in Acrobat ermöglichen Adobe-Kund*innen die Erstellung, Bearbeitung, Messung, Optimierung und Überprüfung von Milliarden von Inhalten. Firefly, Adobes Familie kreativer generativer KI-Modelle, bringt jetzt noch mehr Präzision, Leistung, Geschwindigkeit und Leichtigkeit in die Workflows, in denen Inhalte erstellt oder verändert werden. Firefly wurde vor sechs Wochen eingeführt und konzentrierte sich zunächst auf die Erzeugung von Bildern und Texteffekten. Es wurde schnell zu einer der erfolgreichsten Beta-Einführungen in der Geschichte von Adobe mit über 100 Millionen generierten Assets. Seit dem Start wurde Firefly um die Unterstützung der Funktionen Vektor-Neueinfärbung und generative Füllung erweitert. Firefly ist der einzige KI-Dienst, der kommerziell nutzbare Inhalte in professioneller Qualität erzeugt und so konzipiert ist, dass er direkt in die Workflows von Kreativen integriert werden kann. Die erste Version der KI wurde auf Adobe Stock-Bildern, frei lizenzierten Inhalten und anderen Public Domain-Inhalten ohne Copyright-Einschränkungen trainiert. Unternehmen können Firefly mit ihrem eigenen kreativen Material erweitern, um Inhalte zu erstellen, die die Bilder, Vektoren und die Markensprache des Unternehmens enthalten. Durch die Integration in die Anwendungen der Adobe Experience Cloud können Marketing-Organisationen die KI nutzen, um ihre Content-Supply-Chain-Produktion zu beschleunigen. Verfügbarkeit Photoshops Generative Fill ist ab heute in der Beta-Version für den Desktop verfügbar und wird in der zweiten Hälfte des Jahres 2023 allgemein zugänglich sein. Zudem ist Generative Fill ab heute auch als Modul in der Firefly-Beta-Anwendung verfügbar.
    1 Punkt
  42. Vielen Dank, es sind tatsächlich fast die ersten Versuche. Ich nutze es lokal: Stable-diffusion-webUI. im Browser ist es nicht so prickelnd. Vorher mit DALL-E imBrowser experimentiert..Ich habe mir einen Prompt gesucht, wo ein Stuhl als Produkt präsentiert wurde, und den dann entspr. modifiziert. Der große Vorteil von SD ist in meinen Auge, dass es lokal laufen kann. mit der LEONARDO.AI, deren Ergebnisse ich fantastisch finde, scheint das nicht zu klappen, obwohl ja auch SD-basiert.
    1 Punkt
  43. Ich hab dazu gestern Abend einen Beitrag bei mir auf dem Blog verfasst. Beim schreiben nach 1-2 Stunden ist mir dann aufgefallen, dass die --sameseed Funktion ja gar nicht mehr läuft. Das war echt nervig -.- Dann musste ich mehr oder weniger einen harten Cut machen mitten im Beitrag: Anleitung: Midjourney Seed benutzen
    1 Punkt
×
×
  • Neu erstellen...