TEILEN

Da ich weiß, dass nicht alle von Euch meinen Solo-Podcast hören, möchte ich Euch über diesen Blogeintrag von meiner Begeisterung in Sachen Ai berichten – in diesem Fall von der Bilder-Ai Stable Diffusion. Bisher habe ich nur mit einer vereinfachten Light-Version der Software gearbeitet, weil die Installation der Voll-/Entwicklerversion ein wenig aufwendiger ist.

Dank der Hilfe von Community-Mitglied Fluffy und seinem Technik-Experten Sven habe ich in dieser Woche nicht nur die Voll-/Entwicklerversion auf meinem Rechner installiert, sondern auch meine gesamte Freizeit (inkl. Schlafentzug) investiert, die Software zu verstehen und den Umgang damit zu lernen.

Das Hauptproblem der ganzen Sache (besonders jetzt zum Einstieg) war meine relativ alte Grafikkarte: Stable Diffusion braucht SEHR viel Grafikkarten-Power. Meine „alte“ 2070 Super hat nur 8GB VRAM. Damit kommt man leider nicht sonderlich weit: Viele austrainierte Bilder-Datenbanken konnte ich so gar nicht erst in die Software laden.

Mit einigen Tricks, Kniffen und Youtube-Tutorials habe ich die Sache dann aber relativ schnell in den Griff bekommen. Mittlerweile bin ich recht fit damit, Datenbanken mit einer Bilderauswahl zu trainieren und damit dann die gewünschten Resultate zu bekommen. Die erste Datenbank habe ich zum Testen ausschließlich mit Bildern von mir trainiert. Die Ergebnisse sind unglaublich.

Heute habe ich dann eine ganz schräge Sache versucht: Ich habe eine neue Datenbank mit Bildern des Allimania-Kriegers Horst gefüttert. Wir reden hier ausschließlich von gezeichneten Bildern auf Comic-Niveau. Mit der trainierten Datenbank habe ich dann versucht, richtig hochwertige Bilder rendern zu lassen. Auch hier wieder: Die Ergebnisse sind unfassbar gut. Habt Ihr Horst schon mal so gesehen?

Ich bin sehr geflasht von der ganzen Sache und arbeite natürlich weiter mit der Software. Mal schauen, was sich hier noch alles rausholen lässt. Der nächste Schritt wird sein, mehrere Charakter gleichzeitig zu trainieren und diese dann parallel auf ein Bild zu bekommen. Ich halte Euch auf dem Laufenden.


Anzeige

10 KOMMENTARE

  1. Was macht die AI dann in der Zukunft mit Pornos? Das ist die doch die große Frage!

    Bis jetzt hat diese Industrie alle neuen Möglichkeiten ausgeschöpft.
    Zuerst VHS, dann Internet Pics ,dann DVD, dann die ersten im Streming und wird es nun Gina Wild wieder geben?

  2. Edur hat vor ein paar Jahren bei dir im Podcast erzählt, dass er keine neuen Grafikkarten mehr kauft, sondern Spiele und Co über einen Cloud PC spielt und nebenbei. Das war damals Shdow PC https://shadow.tech/de/shadowpc/

    Auf Reddit wurde das auch schon diskutiert: https://www.reddit.com/r/StableDiffusion/comments/xf41vd/best_cloud_hosting_for_running_stable_diffusion/

    Der Vorteil ist teilweise kostenlose Einstieg mit einem Trial Account z.B. bei Linode. Wenn die normalen Profi Grafikarten mit 24 GB nicht ausreichen kann man laut dieser Übersicht bei manchen Anbietern Servern bis zu 8 Grafikkarten mit je 80 GB Videospeicher mieten.
    https://devinschumacher.com/cheap-cloud-gpus/

    Vielleicht hat Edur oder jemand anderes mit Erfahrungen in dem Bereich noch andere Tipps.

  3. Durch das selbst trainieren, sollte es ja jetzt auch möglich sein einen arthas auf nem frostwyrm zu machen oder?
    Man könnte ja ingame Screenshots von frostwyrm mit Reitern einfließen lassen+ arthas Bilder, evtl Ausschnitte aus den cinematics von Blizzard selbst.

    • Ich denke alleine eine Liste der Ressourcen, Guides und Videos die Steve sich selbst reingezogen hat würden schon viel helfen.

      Ich arbeite mich gerade auch ins Thema ein und habe mir heute die Lokalversion von Github installiert und bin von der Informationsflut total überwältigt.

      • Ich habe vor 2 Tagen auch damit angefangen und hatte nun das erstemal sehr ähnliche Ergebnisse wie Steve hier. Ich hoffe es stört steve nicht aber ich teile mal die Tutorials die ich genutzt habe.

        Erstmal die Basics. https://www.youtube.com/watch?v=onmqbI5XPH8 Hier wird genau erklärt wie man Stabile Diffusion installiert. Sehr gut und Detailiert und leicht zu folgen.

        Ab dem Punkt würde ich dann verschiedene Models runterladen. https://civitai.com/ ist meiner Meinung nach die beste Quelle für Modele. Ich mag z.b. DreamShaper sehr. Das ganze muss man dann einfach in die Models folder kopieren.

        Damit alleine kann man jetzt schon sehr viel erreichen. Was jetzt natürlich noch hilfreich ist sind gute Prompts https://prompthero.com/openjourney-prompts ist eine sehr gute Quelle aber mit Google findet man auch viele Alternativen.

        Ok nun zum Abschluss. Wenn du dein eigenes Gesicht nutzen willst wie Steve hier brauchst du dieses Tutorial https://www.youtube.com/watch?v=70H03cv57-o& hier wird Lora training erklärt. Im Grunde kannst du damit dann sehr simple dein eigenes Gesicht nutzen. Alles was du brauchst sind 10-15 gute Bilder von dir und 1 bis 2 Stunden Zeit um den Tutorial im Detail zu folgen.

        Danach ist das ganze eigentlich echt simple. Ich kann jetzt schon ein Lora für jedes Gesicht erstellen in unter 30 Minuten (Sofern ich die 10-15 guten Bilder habe).

        Natürlich ist das nur der Anfang und ich bin auch noch ganz an Anfang. Aber wenn du alles so machst wie hier beschrieben kannst du schon mehr erreichen als mit all den Apps da draußen und das for free. Was ich mir bald noch anschauen will ist Controlnet. https://www.youtube.com/watch?v=OxFcIv8Gq8o& auch für Steve interessant. Gibt es erst seit ein paar Tagen und ermöglicht nochmal viel mehr optionen. Damit kannst du z.b. jedes Bild in ein anderes Verwandeln (Verwandel den Mann in eine Frau oder einen oger oder in eine Anime Figure). Aber naja ich denke das reicht erstmal. Ich hoffe ich konnte etwas helfen!

        • Da gibt es aber wesentlich bessere Sachen. In Deinem Installvideo wird kein Dreambooth installiert z.B. Auch Prompthero ist keine wirklich gute Seite mit wenigen Ergebnissen. Ich muss mich wirklich mal an nen Guide setzen.

          • Freue mich auf deinen guide! Zu Dreambooth darum geht es indirekt halt im zweiten Video. Dort wird halt Lora erklärt mit dem du halt die AI auf Bilder Trainieren kannst. Soweit ich weiß hat man dafür davor immer Dreambooth benutzt? Wie gesagt beschäftige mich damit erst seit 2 Tagen intensiv von daher bin ich weit davon entfernt ein experte zu sein.

            Was ich allerdings sagen kann ist das Lora extrem schnell und effektive ist. Das hier ist nur mal ein ganz schnelles Beispiel https://gyazo.com/0414f0500068ad2cc55c5eedb6f9c5ca . Links eines meiner Bilder von den 15 die ich fürs Lora training genutzt habe und daneben halt ein paar der ersten Resultate. Hab mich jetzt noch nicht hingesetzt und wirklich versucht ein Bild „perfekt“ hinzukriegen. Bin dennoch begeistert wie schnell das schon funktioniert hat.

          • Lora ist halt die Light-Version von Stable Diffusion für Leute mit schwächerer Grafikkarte. Habe mehrere Video/Tutorials geschaut, in denen davon eher abgeraten wird.

            Aber Deine Ergebnisse sind doch schon recht ordentlich.

          • Dann muss ich mich in Dreambooth wohl doch nochmal einarbeiten. Das Thema ist halt wirklich umfangreich aber macht echt viel Spaß.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here