Heute Herrenspielzimmer mit Sascha und Sascha – und dazu eine unglaublich spannende Diskussion zum Thema AI/KI und computergenerierte Bilder/Kunst. Also hört unbedingt mal rein!
Hier alle Themen in der Übersicht:
– Elon Musk und Twitter (ab 06:00 min)
– Fußball: Eine wilde Woche für Eintracht Frankfurt, Bayern und die CL (ab 15:45 min)
– Stable Diffusion: Computergenerierte Kunstwerke – bald auch mit Stimmen? Machen KIs und AIs irgendwann als besser als wir? (ab 24:50 min)
– Filme/Serien: Witcher, Peripherie, 7 vs. Wild, Andor und Last of Us (ab 59:24 min)
– Gaming: Neues HS-Addon, God of War und Dragonflight Animated Shorts (ab 01:26 Std)
Anzeige
Nur so am Rande ich verstehe nicht wie alle die Bücher von the Witcher so in den Himmel loben die sind solide Standard Fantasie kost mehr nicht. Und wäre the Witcher drei nicht so gross geworden auch ein spiel das meiner meinung zu gut weg kommt. Nur so wegen dem rum gehate das gewisse Drehbuch Autoren das nicht besser können gut bei the Witcher haben sie es versaut.
Hallo, ich Arbeite im Bereich Machine Learning und habe mir Stable Diffusion gerade mal angeguckt. Da die Frage aufkam, wie das überhaupt funktioniert, hier meine 5 cents:
Die Generierung von Inhalten, also zumeist Bild und Ton, durch Stable Diffusion findet auf Grundlage eines VAE (Variational Autoencoder) statt. Bei einem Autoencoder geht es darum eine Kompression (also quasi ein ZIP File nur besser) zu finden, aus der man wieder das Ursprungsbild herleiten kann. Dazu besteht der Autoencoder aus 2Teilen. Dem Encoder, dessen Aufgabe es ist die Kompression hinzukriegen und einem Decoder der aus der Kompression wieder den Ursprung herstellt. Lässt man nun den Encoder weg und gibt dem Decoder nun irgendwie geartete Daten im Format der Kompression, entsteht ein neues Bild. Diese irgendwie geartete Daten lassen sich wiederrum durch die Nutzer Eingaben (Texte, Bilder etc.) herleiten (dieser Prozess ist ganz viel Statistik und ich gehe daher nicht näher darauf ein, ihr seht das es funktioniert ) und schon kommen auch gewünschte neue Bilder raus. 😀
Ich hoffe das war einigermaßen verständlich.
Bzgl. Schachcomputer: Prinzipiell gilt das auch als KI, ist aber kein Machine Learning (wäre jedenfalls unnötig) und nutzt mehr herkömmlichere Methoden.
Ich denke das die KI vor allem die Mittelschicht (sowohl im Kunst als auch in der Arbeitswelt) weitesgehend Obsolet macht.
Zum Beispiel Musik: Durch das zusammenfügen und optimieren von vorhandener Musik kann eine KI bestimmt einen Nummer 1 Hit komponieren, aber eine neue Musik Richtung oder einen komplett neuen Stil wir man nur durch echte Menschen bekommen.
Ähnlich bei Bildern, Filmen oder Büchern. Die Ki wird 0815 Künstler überflüssig machen.
Übrig bleiben die Hobby Künstler (bzw. billig Arbeitskräfte) und die Spitze. Die Entscheider, die Forscher, die Künstler die in der Lage sind komplett neues zu schaffen, die wird es wohl immer geben
Der Trend des Einsatzes von Ki/Automation bei grafischen Sachen ist leider schon länger zu erkennen. Ich bin gelernter Mediengestalter und wir haben schon vorher Jahren angefangen mit einer Automation Engine zu arbeiten, die automatisch Plakate, Anzeigen usw. in beliebigen Sprachen erstellen kann. Was auch damals auch dazu beigetragen hat mit einem IT-Studium in die IT zu wechseln um einfach zukunftssicherer zu sein.
War spannend, dich über Stable Diffusion reden zu hören.
Ich bin inzwischen Postdoktorand am Mila-Institut in Kanada, spezialisiere mich auf Bild und sprachverarbeitende KI-Systeme und forsche hier an diesen Technologien.
Wenn du (technische) Fragen zu dem Thema ist in Bezug die Hintergründe etc. kannst du dich gerne melden!
Viele Grüße aus Montreal!
@Steve: Das wäre doch mal ein interesanter Podcastgast. Würde ich mir auf jeden Fall anhören, da es schon sehr Interessant wäre wie das alles funktioniert