Sprache wählen

Sprache wählen

Die Website wurde übersetzt in Deutsch mit Hilfe von Menschen und KI

Dismiss

Verwerfen Sie das Handbuch: Generative KI

19 min Lesezeit
Profile picture for user Labs.Monks

Written by
Labs.Monks

a blue backdrop with the copy "Generative AI (Artificial Intelligence)"

Generative KI hat die Kreativbranche im Sturm erobert und überflutet unsere sozialen Feeds mit wunderschönen Kreationen, die durch diese Technologie ermöglicht werden. Aber ist sie von Dauer? Und was sollten Kreative dabei beachten?

In dieser Folge von "Scrap the Manual" trifft Gastgeberin Angelica Ortiz auf den Creative Technologist Samuel Snider-Held, der sich auf maschinelles Lernen und generative KI spezialisiert hat. Gemeinsam beantworten Sam und Angelica die Fragen unserer Zuhörer - indem sie das Schlagwort in konkrete Überlegungen und Maßnahmen aufschlüsseln - und erläutern, warum der Einsatz von generativer KI für Kreative und Marken eine gute Sache sein könnte.

Lesen Sie die Diskussion unten oder hören Sie sich die Episode auf Ihrer bevorzugten Podcast-Plattform an.

00:00

00:00

00:00

Angelika: Hallo zusammen. Willkommen bei Scrap the Manual, einem Podcast, in dem wir Aha-Momente durch Diskussionen über Technologie, Kreativität, Experimente und deren Zusammenwirken zur Bewältigung kultureller und geschäftlicher Herausforderungen hervorrufen. Mein Name ist Angelica, und ich habe heute einen ganz besonderen Gast, Sam Snider-Held

Sam: Hey, schön, hier zu sein. Mein Name ist Sam. Wir sind beide Senior Creative Techs bei Media.Monks. Ich arbeite von New York City aus und beschäftige mich mit maschinellem Lernen und generativer KI, während Angelica vom niederländischen Büro aus mit dem Labs.Monks-Team arbeitet.

Angelika: In dieser Folge werden wir die Dinge ein wenig verändern und ein neues Segment einführen, in dem wir einen Spezialisten mitbringen und einige häufige Missverständnisse über eine bestimmte Technologie durchgehen.

Und, oh Mann, wir fangen mit einem großen Thema an: Generative KI. Ihr wisst schon, die Technologie, die die langen Schriftrollen von Midjourney, Stable Diffusion und DALL-E-Bildern inspiriert hat und von der die Leute in den letzten Monaten einfach nicht genug bekommen können. Wir haben erst kürzlich in unserem Laborbericht über dieses Thema berichtet, falls ihr das also noch nicht getan habt, solltet ihr das unbedingt nachholen. Das ist natürlich nicht notwendig, um diese Folge zu hören, aber es hilft auf jeden Fall dabei, einen Überblick über die Dinge zu bekommen. Außerdem haben wir einen Prototyp erstellt, der detaillierter darauf eingeht, wie wir bei Media.Monks diese Technologie untersuchen und wie sie in unsere Arbeitsabläufe implementiert wird.

Für die Liste der Missverständnisse, die wir heute ausräumen oder bestätigen, haben wir diese Liste aus der ganzen Welt zusammengetragen - von Art-Direktoren bis hin zu technischen Direktoren -, um einen Überblick darüber zu erhalten, was die Leute zu diesem Thema denken. Fangen wir also mit den Grundlagen an: Was um alles in der Welt ist generative KI?

Sam: Ja, ganz allgemein kann man sich generative Modelle als KI-Algorithmen vorstellen, die auf der Grundlage von Mustern in ihren Trainingsdaten neue Inhalte erzeugen können. Das ist vielleicht ein bisschen komplex. Man kann es auch so erklären, dass Computer seit dem Beginn der Deep-Learning-Revolution im Jahr 2012 immer besser in der Lage sind, den Inhalt eines Bildes zu verstehen. Man kann einem Computer zum Beispiel das Bild einer Katze zeigen und er wird sagen: "Oh ja, das ist eine Katze." Zeigt man ihm aber vielleicht ein Bild von einem Hund, sagt er: "Nein, das ist keine Katze. Das ist ein Hund."

Man kann sich das also als diskriminatives maschinelles Lernen vorstellen. Es unterscheidet, ob es sich um ein Bild von einem Hund oder einer Katze handelt oder nicht. Es unterscheidet, zu welcher Gruppe von Dingen dieses Bild gehört. Bei der generativen KI geht es nun um etwas ganz anderes: Es wird versucht zu verstehen, was "Katzenhaftigkeit" ist. Was sind die entscheidenden Merkmale, die ein Katzenbild in einem Bild ausmachen?

Und wenn man das herausgefunden hat, wenn man eine Funktion hat, die "Katzenhaftigkeit" beschreiben kann, dann kann man von dieser Funktion eine Stichprobe nehmen und sie in alle möglichen neuen Katzen verwandeln. Katzen, die der Algorithmus noch nie zuvor gesehen hat, aber er hat einfach diese Idee von "Katzenhaftigkeit", die man verwenden kann, um neue Bilder zu erstellen.

Angelika: Ich habe gehört, dass KI allgemein als ein Kind beschrieben wird, dem man so ziemlich alles beibringen muss. Sie fängt mit einer leeren Tafel an, aber im Laufe der Jahre ist sie keine leere Tafel mehr. Es hat aus all den verschiedenen Arten von Trainingssätzen gelernt, die wir ihm gegeben haben. Es ist also kein unbeschriebenes Blatt mehr, aber es ist interessant, darüber nachzudenken, was wir als Menschen für selbstverständlich halten und sagen: "Oh, das ist definitiv eine Katze." Oder was ist eine Katze im Vergleich zu einem Löwen? Oder eine Katze im Vergleich zu einem Tiger? Das sind die Dinge, die wir kennen, aber wir müssen der KI diese Dinge tatsächlich beibringen.

Sam: Ja. Sie sind an einem Punkt angelangt, an dem sie das hinter sich lassen. Sie haben alle mit der Idee angefangen, diese Expertensysteme zu sein. Diese Systeme konnten nur Bilder von Katzen oder Hunden erzeugen.

Aber jetzt befinden wir uns in dieser neuen Art von generativem Pre-Training-Paradigma, in dem es diese Modelle gibt, die von diesen riesigen Unternehmen trainiert werden, die das Geld haben, um diese Dinge zu entwickeln, aber sie geben sie dann oft als Open Source an andere weiter, und diese Modelle sind tatsächlich sehr generalisiert. Sie können ihr Wissen sehr schnell in etwas anderes verwandeln.

Wenn das Modell also auf die Erzeugung dieser einen Sache trainiert wurde, kann man es mit einem anderen Datensatz trainieren, um sehr schnell zu lernen, wie man speziell bengalische Katzen oder Tiger oder Ähnliches erzeugt. Aber das geht mehr und mehr in Richtung dessen, was wir von Algorithmen der künstlichen Intelligenz erwarten.

Wir wollen, dass sie verallgemeinert werden. Wir wollen nicht für jede neue Aufgabe ein neues Modell trainieren müssen. Wir bewegen uns also in diese Richtung. Und natürlich lernen sie aus dem Internet. Alles, was im Internet zu finden ist, wird also wahrscheinlich in diese Modelle einfließen.

Angelika: Ja. Apropos Feinabstimmung, das erinnert mich an ein Projekt, bei dem wir uns mit der Feinabstimmung von Stable Diffusion für ein Produktmodell beschäftigt haben. Sie wollten in der Lage sein, diese unverwechselbaren Hintergründe zu erzeugen, aber das Produkt sollte in erster Linie immer konsistent sein. Und das ist knifflig, oder? Wenn man über generative KI nachdenkt und sie ihr eigenes Ding machen will, weil sie es entweder nicht besser weiß oder weil man nicht unbedingt sehr spezifische Anweisungen gegeben hat, um das Produkt konsistent zu machen. Aber jetzt, durch diese Feinabstimmung, habe ich das Gefühl, dass das Produkt dadurch praktikabler wird, weil wir nicht das Gefühl haben, dass es sich um eine unkontrollierbare Plattform handelt. Es ist etwas, das wir tatsächlich für eine Anwendung nutzen können, die konsistenter ist, als sie es sonst vielleicht gewesen wäre.

Die nächste Frage, die uns gestellt wurde, lautet: Ist die generative KI bei all dem Fokus auf Midjourney-Prompts, die auf LinkedIn und Twitter gepostet werden, einfach nur ein hübsches Gesicht? Ist sie nur dazu da, coole Bilder zu erzeugen?

Sam: Ich würde definitiv nein sagen. Es geht nicht nur um Bilder. Es geht um Audio. Es geht um Text. Jede Art von Datensatz, die Sie eingeben, sollte in der Lage sein, ein generatives Modell für diesen Datensatz zu erstellen. Das Ausmaß der Innovation in diesem Bereich ist einfach atemberaubend.

Angelika: Was ich an diesem Bereich wirklich interessant finde, ist nicht nur, wie schnell er sich in so kurzer Zeit weiterentwickelt hat, sondern auch, dass die Umsetzung so vielfältig ist.

Sam: Mm-hmm.

Angelika: Wir haben also über die Generierung von Bildern, Text, Audio und Video gesprochen, aber ich habe gesehen, dass Stable Diffusion zum Beispiel für die Generierung verschiedener Arten von VR-Räumen verwendet wird. Oder es sind Stable Diffusion-gestützte Prozesse, oder nicht einmal nur Stable Diffusion... einfach verschiedene Arten von generativen KI-Modellen, um 3D-Modelle zu erstellen und all diese anderen Dinge außerhalb von Bildern zu erzeugen. Es gibt einfach so viele Fortschritte innerhalb eines kurzen Zeitraums.

Sam: Ja, vieles davon kann man sich wie LEGO-Bausteine vorstellen. Viele dieser Modelle, über die wir hier sprechen, haben diesen Paradigmenwechsel des generativen Pre-Trainings hinter sich, bei dem man diese erstaunlich leistungsfähigen Modelle verwendet, die von großen Unternehmen trainiert wurden, und sie miteinander kombiniert, um verschiedene Dinge zu tun. Eines der großen Modelle, das dies vorantreibt und von OpenAI stammt, ist CLIP. Dieses Modell ermöglicht es, Text und Bilder in denselben Vektorraum zu übertragen. Wenn man also ein Bild und einen Text eingibt, versteht das Programm, dass es sich um dieselben Dinge handelt, und zwar aus einem sehr mathematischen Blickwinkel. Das waren einige der ersten Dinge, bei denen die Leute sagten: "Oh mein Gott, es kann wirklich Text generieren, der aussieht, als hätte ihn ein Mensch geschrieben, und der kohärent ist und sich selbst wiederfindet. Es weiß, was es fünf Absätze zuvor geschrieben hat." Und so begannen die Leute zu denken: "Was wäre, wenn wir das auch mit Bildern machen könnten?" Und anstatt den Text und die Bilder demselben Raum zuzuordnen, könnte man auch Text und Lied oder Text und 3D-Modelle kombinieren

Und so hat das alles angefangen. Es gibt Menschen, die den evolutionären Baum der künstlichen Intelligenz hinuntergehen, und dann kommt plötzlich jemand mit etwas Neuem heraus, und die Menschen verlassen diesen Baum und gehen zu einem anderen Zweig über. Und genau das ist das Interessante daran: Was auch immer Sie tun, es gibt eine coole Möglichkeit, generative KI in Ihren Arbeitsablauf einzubinden.

Angelika: Ja, das erinnert mich an eine andere Frage, die wir bekommen haben, die etwas weiter unten auf der Liste steht, aber ich denke, sie passt sehr gut zu dem, was Sie gerade erwähnt haben. Wird uns die generative KI die Arbeit wegnehmen? Ich erinnere mich an ein Gespräch vor ein paar Jahren, das auch heute noch geführt wird, in dem es hieß, die Kreativbranche sei vor KI sicher. Denn die Menschen schöpfen ihre Kreativität aus einer Vielzahl unterschiedlicher Quellen, und wir alle haben unterschiedliche Wege, wie wir zu unseren kreativen Ideen kommen. Und es gibt ein Problemlösungsverhalten, das einfach von Natur aus menschlich ist. Aber wenn man sieht, wie all diese wirklich coolen Aufforderungen generiert werden, entstehen verschiedene Dinge, die sogar über das hinausgehen, woran wir gedacht hätten. Was sind Ihre Gedanken dazu?

Sam: Ähm, also das ist eine schwierige Frage. Es ist wirklich schwer, die Zukunft dieser Dinge vorherzusagen. Wird sie das? Ich weiß es nicht.

Ich stelle mir das gerne unter dem Begriff "singuläre Lichttechnologie" vor Damit meine ich eine Technologie, die ganze Branchen auslöschen kann. Die Branche, an die wir gerade denken, ist die der Stockfotografie und Stockvideos. Wissen Sie, es ist schwer, diesen Unternehmen zu sagen, dass sie nicht vor einem existenziellen Risiko stehen, wenn jeder einen Algorithmus herunterladen kann, der im Grunde die gleiche Qualität von Bildern ohne ein Abonnement erzeugen kann.

Wenn Sie also für eines dieser Unternehmen arbeiten, könnten Sie Ihren Job verlieren, weil das Unternehmen bankrott gehen wird. Wird das nun passieren? Ich weiß es nicht. Versuchen Sie stattdessen zu verstehen, wie Sie es in Ihren Arbeitsablauf einbauen können. Ich denke, dass Shutterstock diese Technologie auch in ihre Pipeline einbaut.

Ich denke, dass wir in der Kreativbranche wirklich aufhören sollten zu denken, dass es etwas gibt, das ein Mensch tun kann, das eine KI nicht tun kann. Ich denke, dass diese Vorstellung in naher Zukunft einfach nicht mehr relevant sein wird.

Angelika: Ja. Meine Sichtweise wäre: Sie wird nicht unbedingt unsere Jobs übernehmen, aber sie wird die Art und Weise, wie wir an unsere Jobs herangehen, verändern. Denken wir an das klassische Beispiel der Filmeditoren, die physische Filmrollen hatten, die sie schneiden mussten. Wenn dann Premiere und After Effects auf den Markt kommen, wird dieser Prozess digitalisiert.

Sam: Ja.

Angelika: Und dann weiter und weiter und weiter, richtig? Es gibt also immer noch Video-Editoren, nur die Art und Weise, wie sie an ihre Arbeit herangehen, ist ein bisschen anders.

Und das Gleiche gilt hier. Es wird immer noch Art-Direktoren geben, aber die Art und Weise, wie sie an die Arbeit herangehen, wird anders sein. Vielleicht wird es viel effizienter sein, weil sie nicht unbedingt das Internet nach Inspiration durchforsten müssen. Generative KI könnte ein Teil dieser Inspirationssuche sein. Sie wird einen Teil der Erstellung von Mockups übernehmen, und es wird nicht alles von Menschenhand gemacht sein. Und wir müssen nicht unbedingt den Verlust beklagen, dass sie nicht hundertprozentig von Menschen gemacht ist. Es wird etwas sein, das es Art-Direktoren, Kreativen und Gestaltern aller Art ermöglicht, das, was sie derzeit tun können, noch zu übertreffen.

Sam: Ja, das ist definitiv wahr. Es wird immer ein Produkt von NVIDIA oder Adobe geben, mit dem man diese Technologie auf eine sehr benutzerfreundliche Weise nutzen kann.

Letzten Monat wurde in vielen Blogbeiträgen ein guter Punkt angesprochen: Wenn Sie ein Indie-Spieleunternehmen sind und Illustrationen für Ihre Arbeit benötigen, würden Sie normalerweise jemanden dafür anstellen. Aber das ist eine Alternative, die billiger und schneller ist. Und man kann in einer Stunde eine Menge Inhalte erstellen, viel mehr als ein angeheuerter Illustrator tun könnte.

Wahrscheinlich ist es nicht so gut. Aber für Leute mit diesem Budget, auf diesem Niveau, nehmen sie vielleicht die Qualitätseinbußen in Kauf für die Zugänglichkeit und die Benutzerfreundlichkeit. Es gibt Bereiche, in denen sich die Art und Weise, wie die Leute ihr Geschäft betreiben, ändern könnte.

Eine andere Sache ist, dass wir manchmal Projekte bekommen, für die wir nicht genug Zeit haben. Es ist nicht genug Geld. Wenn wir es machen würden, würden sie im Grunde unser gesamtes Illustrationsteam von der Bank nehmen, um an diesem einen Projekt zu arbeiten. Und wenn ein Unternehmen zu uns käme und wir es ablehnen würden, würden sie normalerweise zu einem anderen Unternehmen gehen. Aber jetzt, wo wir mehr und mehr in diese Technologie investieren, sagen wir vielleicht: "Hey, hört mal, wir können zwar keine echten Menschen einsetzen, aber wir haben dieses Team von KI-Ingenieuren, und wir können das für euch bauen." Bei unserem Prototyp haben wir wirklich versucht zu verstehen, wie viel davon wir jetzt schon nutzen können und welchen Nutzen wir daraus ziehen können Und der Nutzen bestand darin, dass dieses kleine Team Dinge tun konnte, die große Teams zu einem Bruchteil der Kosten tun könnten.

Ich denke, das wird die Natur dieser Art von Beschleunigung sein. Mehr und mehr Menschen werden sie nutzen, um voranzukommen. Und aus diesem Grund werden andere Unternehmen das Gleiche tun. Dann wird es zu einer Art Wettrüsten der KI-Kreativität, wenn man so will. Aber ich glaube, dass Unternehmen, die die Möglichkeit haben, Leute einzustellen, die zu ihren Künstlern gehen und sagen können: "Hey, mit welchen Dingen habt ihr Probleme? Welche Dinge wollt ihr nicht machen? Welche Dinge nehmen zu viel Zeit in Anspruch?" Und dann können sie sich all die Forschungsergebnisse ansehen und sagen: "Hey, wisst ihr was? Ich glaube, wir können dieses brandneue Modell nutzen, um bessere Kunst schneller, besser und billiger zu machen." Es schützt sie vor jeder Art von Werkzeug, das in der Zukunft auf den Markt kommt und es ihnen erschweren könnte, Aufträge zu bekommen. Zumindest muss man verstehen, wie diese Dinge funktionieren, und zwar nicht aus einer Blackbox-Perspektive, sondern weil man weiß, wie sie funktionieren.

Angelika: Es scheint eine sichere Sache zu sein, zumindest auf kurze Sicht, zu verstehen, wie die Technologie funktioniert. Das Anhören dieses Podcasts ist ein guter Anfang.

Sam: Ja.

Angelika: Richtig?

Sam: Wenn Sie ein Künstler sind und neugierig, können Sie selbst damit herumspielen. Google CoLab ist eine großartige Ressource. Und Stable Diffusion ist so konzipiert, dass es auf billigen GPUs läuft. Oder man kann anfangen, diese Dienste wie Midjourney zu nutzen, um einen besseren Überblick darüber zu haben, was damit passiert und wie schnell es sich bewegt.

Angelika: Ja, genau. Eine weitere Frage, die aufkam, war: Wenn ich etwas mit generativer KI durch Prompt Engineering erschaffe, ist das dann wirklich meine Arbeit?

Sam: Das wird jetzt ein bisschen zu einer philosophischen Frage. Gehört sie mir in dem Sinne, dass ich sie besitze? Nun, wenn das Modell das sagt, dann ja. Stable Diffusion wird, glaube ich, mit einer MIT-Lizenz geliefert. Das ist also die freizügigste Lizenz. Wenn Sie ein Bild mit dieser Lizenz erstellen, gehört es technisch gesehen Ihnen, vorausgesetzt, es kommt nicht jemand daher und sagt: "Die Leute, die Stable Diffusion entwickelt haben, hatten nicht die Rechte, Ihnen diese Lizenz anzubieten."

Aber solange das nicht passiert, gehört es aus Sicht des Eigentums Ihnen. Sind Sie der Schöpfer? Sind Sie die kreative Person, die das erzeugt? Das ist eine etwas andere Frage. Das ist ein bisschen undurchsichtiger. Wie groß ist der Unterschied zwischen einem Kreativdirektor und einem Illustrator, die hin und her gehen und sagen:

"Ich will das."

"Nein, das will ich nicht."

"Nein, das musst du ändern."

"Oh, das hat mir gut gefallen."

"Das ist wirklich toll. Daran habe ich gar nicht gedacht."

Wer ist bei dieser Lösung der Eigentümer? Im Idealfall ist es das Unternehmen, das die beiden einstellt. Das ist etwas, das vor Gericht ausgetragen werden muss, wenn es dazu kommt. Ich weiß, dass viele Leute bereits eine Meinung darüber haben, wer alle rechtlichen Anfechtungen gewinnen wird, und das fängt jetzt gerade erst an zu passieren.

Angelika: Ja, nach dem, was ich in vielen Diskussionen gesehen habe, handelt es sich um eine Art Co-Creation-Plattform, bei der man wissen muss, was man sagen muss, um das richtige Ergebnis zu erzielen. Wenn man also sagt: "Ich möchte eine Unterwasserszene mit schwimmenden Meerjungfrauen und goldenen Neonkorallen", dann werden bestimmte Arten von Bildern generiert, die darauf basieren, aber es sind vielleicht nicht die Bilder, die man sich wünscht.

Dann wird es pingelig, wenn es um Stile und Referenzen geht. Hier kommen die Künstler ins Spiel, die eine Unterwasserszene in einer Version von Dali oder Picasso darstellen. Wir haben sogar schon Prompts gesehen, die Unreal verwenden...

Sam: Mm-hmm

Angelica:...als eine Möglichkeit, künstlerische Stile zu beschreiben. Generative KI könnte Dinge aus einer einfachen Eingabeaufforderung erstellen. Aber es gibt ein Hin und Her, ähnlich wie Sie es mit einem Regisseur und einem Illustrator beschrieben haben, um genau zu wissen, welche Ergebnisse erzielt werden sollen, und um die richtigen Worte und Schlüsselbegriffe zu verwenden und die Feinabstimmung vorzunehmen, um das gewünschte Ergebnis zu erzielen.

Sam: Auf jeden Fall, und ich denke, das ist eine sehr spezielle Frage für diese Generation von Modellen. Sie sind darauf ausgelegt, mit Text zu Bild zu arbeiten. Es gibt viele Gründe dafür, warum sie so sind. Ein großer Teil dieser Forschung basiert auf den Transformatoren, die ursprünglich Modelle zur Sprachgenerierung waren. Wenn man mit einem Künstler spricht, ist die Vorstellung, dass man Kunst durch Tippen erzeugt, sehr kontraintuitiv zu dem, was sie jahrelang gelernt und trainiert haben. Künstler schaffen Bilder, indem sie zeichnen oder malen oder mit kreativer Software und ihrer viel gestischeren Schnittstelle arbeiten. Und ich glaube, dass wir mit der Weiterentwicklung der Technologie - und wir wollen auf jeden Fall mehr und mehr dieser Technologien entwickeln, um sie stärker auf die Bedürfnisse von Künstlern auszurichten - immer mehr dieser Bildschnittstellen sehen werden.

Bei Stable Diffusion kann man ein Bild in der Art von MS Paint zeichnen und dann sagen: "Also gut, ich möchte, dass dies ein Bild einer Landschaft ist, aber im Stil eines bestimmten Künstlers" Man schreibt also nicht nur einen Text und wartet auf die Ausgabe, sondern ich zeichne auch mit. Wir arbeiten also beide mehr in Zusammenarbeit. Aber ich denke, dass es in Zukunft auch Algorithmen geben wird, die viel mehr auf bestimmte Künstler abgestimmt sind. Wie die Person, die es macht, wie sie Kunst machen will. Ich denke, dieses Problem wird in Zukunft weniger eine Frage sein. Irgendwann werden all diese Dinge in Ihrem Photoshop oder Ihrer Kreativsoftware enthalten sein, und dann werden wir sie nicht mehr als KI bezeichnen. Es ist einfach ein Werkzeug in Photoshop, das wir benutzen. Es gibt bereits neuronale Filter in Photoshop - die Content Aware Füllung. Niemand denkt wirklich über diese Fragen nach, wenn er sie bereits nutzt. Es ist einfach dieser Bereich, in dem wir uns gerade befinden und der viele Fragen aufwirft.

Angelika: Ja, das stimmt. Die interessantesten Anwendungen von Technologie sind die, bei denen sie in den Hintergrund tritt. Oder um auf Ihren Punkt zurückzukommen: Wir sagen nicht unbedingt: "Oh, das ist KI" oder "Ja, das ist AR". Das ist auch ein klassisches Beispiel. Wir erkennen es einfach an dem Nutzen, den es uns bietet. Google Translate zum Beispiel könnte mit AR in Verbindung gebracht werden, wenn man die Kamera benutzt und der Text tatsächlich eingeblendet wird. Aber die meisten Menschen denken nicht: Oh, das ist Google Translate mit AR. So denken wir nicht darüber nach. Wir denken nur: "Oh, okay, cool. Das hilft mir hier."

Sam: Ja, denken Sie nur an all die Studenten, die sich in diesem Jahr an einer Kunsthochschule bewerben, und im nächsten Jahr wird es einfacher sein, diese ganze Technologie zu nutzen. Und ich glaube, dass ihr Verständnis davon ganz anders sein wird als das von Leuten, die diese Technologie noch nicht kannten, als wir studiert haben. Wissen Sie, sie verändert sich sehr schnell. Sie verändert auch die Art und Weise, wie Menschen arbeiten, sehr schnell.

Angelika: Genau. Eine weitere Frage bezog sich auf die Nutzung von Urheberrechten, die Sie schon ein wenig angesprochen haben, und das ist etwas, das bereits vor Gericht oder sogar außergerichtlich diskutiert wird - oder wenn man sich die Geschäftsbedingungen von Midjourney und DALL-E und Stable Diffusion ansieht.

Sam: Wenn man das Modell von Hugging Face herunterlädt, muss man bestimmten Geschäftsbedingungen zustimmen. Ich glaube, das ist im Grunde eine rechtliche Absicherung für sie.

Angelika: Ja, genau.

Sam: Wenn ich die verwende, werde ich dann verklagt? Sie sollten mit einem Anwalt für Urheberrecht sprechen, aber ich glaube nicht, dass sie die Antwort schon kennen. Was ich sagen kann, ist, dass viele der Unternehmen, die diese Algorithmen entwickeln - Ihre OpenAIs, Ihre Google's, Ihre NVIDIAs - viele dieser Unternehmen haben auch große Lobbyteams und sie werden versuchen, das Gesetz so zu beeinflussen, dass sie nicht verklagt werden können. Das könnte in naher Zukunft der Fall sein, denn diese Unternehmen können so viel Geld in die Rechtsangelegenheiten stecken, dass sie damit nicht nur sich selbst schützen, sondern auch alle, die ihre Software verwenden. Ich spreche gerne darüber, und vielleicht bin ich etwas altmodisch, aber wenn man an die frühen 2000er Jahre mit Napster und File-Sharing zurückdenkt, hat das für die Künstler nicht so gut funktioniert. Und diese Technologie hat ihre Branche und die Art und Weise, wie sie Geld verdienen, völlig verändert. Die Künstler verdienen kein Geld mehr mit dem Verkauf von Platten, weil jeder sie kostenlos bekommen kann. Sie verdienen ihr Geld jetzt hauptsächlich durch Merchandise und Tourneen. Vielleicht wird etwas Ähnliches passieren.

Angelika: Ja. Als du Napster erwähntest, erinnerte mich das an eine Nebengeschichte, in der ich Napster bekam, und es war zu der Zeit legitim, aber jedes Mal, wenn ich sagte: "Oh ja, ich habe diesen Song auf Napster" Sie sagten: "Mmmm?" Sie schauten mich schräg an, weil Napster von dort kam und das illegale Herunterladen. Ich sagte: "Nein, es ist legal. Ich schwöre, ich habe gerade eine Geschenkkarte bekommen."

Sam: [Gelächter] Nun, ja, viele von uns hören jetzt ihre gesamte Musik auf Spotify. Das hat sich so entwickelt, dass die Künstler auf eine bestimmte Art und Weise bezahlt werden, die manchmal sehr räuberisch ist, und so etwas könnte den Künstlern in diesen Modellen passieren. Es sieht nicht so aus, als gäbe es in der Geschichte gute Beispiele, bei denen die Künstler gewinnen oder am Ende die Nase vorn haben. Auch darüber sollte man nachdenken, wenn man einer dieser Künstler ist. Wie kann ich mich darauf vorbereiten? Wie gehe ich damit um? Letzten Endes werden die Leute immer noch einen Top-Fantasy-Illustrator für ihr Projekt haben wollen, aber Leute, die nicht so berühmt sind, werden vielleicht ein bisschen mehr darunter leiden.

Angelika: Richtig. Es gab auch eine Diskussion darüber, ob Künstler von der Teilnahme an Prompts befreit werden können Es gab zum Beispiel einen sehr langen Twitter-Thread, den wir in den Show-Notizen verlinken werden, in dem es darum ging, dass eine Menge Kunstwerke unter Verwendung ihres Namens in der Aufforderung erstellt wurden, die ihren eigenen Werken sehr ähnlich sahen. Sollte sie einen Auftrag bekommen, weil ihr Name und ihr Stil verwendet wurden, um so etwas zu erstellen? Das sind die Fragen, die sich hier stellen. Oder verhindert die Freistellung auch die Art von kreativem Output, den die generative KI erzeugen kann? Denn jetzt ist es kein offenes Forum mehr, in dem man jeden Künstler verwenden kann. Und jetzt werden wir eine Menge Picasso-Verwendungen sehen, weil dieser nicht freigestellt wurde. Oder mehr Indie-Künstler sind nicht vertreten, weil sie es nicht wollen.

Sam: Ich glaube nicht, dass die Unternehmen, die diese Ausnahmen schaffen, wirklich funktionieren werden. Eine meiner Lieblingsbeschäftigungen mit künstlicher Intelligenz ist, dass es sich dabei um eine der fortschrittlichsten Hightech-Technologien handelt, die es je gab, und sie ist auch eine der offensten. Es wird also auf ihren Plattformen funktionieren, weil sie es kontrollieren können, aber es ist eine extrem offene Technologie. All diese Unternehmen stellen einige ihrer besten Codes und Zugmodelle zur Verfügung. Es gibt jetzt DreamBooth, wo man im Grunde genommen Stable Diffusion nehmen und es dann auf bestimmte Künstler abstimmen kann, indem man hundert oder weniger Bilder oder so verwendet.

Selbst wenn ein Unternehmen diese Ausnahmeregelungen einführt, kann man keine Bilder zu Midjourney oder DALL-E 2 im Stil von Yoshitaka Amano oder ähnlichem erstellen, es wäre nicht so schwer für jemanden, einfach alle kostenlosen Zugmodelle herunterzuladen, sie auf Yoshitaka Amano-Bilder zu trainieren und dann solche Kunstwerke zu erstellen. Die Einstiegshürde für diese Dinge ist nicht so hoch, dass dies eine Lösung dafür wäre.

Angelika: Ja, die Mainstream-Plattformen könnten dabei helfen, eine Ausnahme zu machen, aber wenn jemand sein eigenes Modell trainieren würde, könnte er das immer noch tun.

Sam: Es beginnt, eine Art Wilder Westen zu werden, und ich kann verstehen, warum bestimmte Künstler wütend und nervös sind. Es ist nur... es ist etwas, das passiert, und wenn man es aufhalten will, wie können wir es aufhalten? Es muss von einer sehr konzertierten, legalen Idee ausgehen. Ein Haufen Leute, die sich zusammentun und sagen: "Wir müssen das jetzt tun, und wir wollen, dass es so funktioniert." Aber können sie das schneller tun, als Unternehmen Lobbyarbeit betreiben können, um zu sagen: "Nein, wir können das machen." Wissen Sie, es ist sehr schwer für kleine Gruppen von Künstlern, gegen Konzerne anzukämpfen, die im Grunde alle unsere Technologien beherrschen.

Das ist eine interessante Sache. Ich weiß nicht, was die Antwort ist. Wir sollten wahrscheinlich mit einem Anwalt darüber sprechen.

Angelika: Ja, ja. Es gibt andere Technologien, die ein ähnliches Dilemma haben. Bei aufstrebenden Technologien ist es schwer, diese Dinge zu kontrollieren, vor allem, wenn sie so offen sind und jeder einen Beitrag leisten kann, sei es auf gute oder schlechte Weise.

Sam: Ja, zu hundert Prozent.

Angelika: Das führt eigentlich zu unserer letzten Frage. Es ist nicht wirklich eine Frage, eher eine Feststellung. Sie erwähnten, dass die generative KI scheinbar so schnell wächst und bald außer Kontrolle geraten wird. Meiner Meinung nach fängt das schon an, allein schon wegen der schnellen Iteration, die in dieser kurzen Zeit stattfindet.

Sam: Selbst wir haben viel Zeit damit verbracht, diese Tools zu entwickeln, diese Projekte zu erstellen, die diese Tools verwenden, und nach der Hälfte der Zeit gibt es all diese neuen Technologien, die vielleicht besser zu verwenden sind. Ja, das macht uns ein bisschen Angst: "Verwende ich die richtige Technologie? Was ist nötig, um die Technologie jetzt zu ändern?" Warten Sie darauf, dass die Technologie voranschreitet, dass sie billiger wird?

Wenn man sich vorstellt, dass ein Unternehmen wie Midjourney all diese Investitionsgelder für die Entwicklung dieser Plattform ausgibt, weil theoretisch nur Sie das machen können und es für andere Unternehmen sehr schwer ist, Ihr Geschäft nachzuahmen. Aber dann, sechs Monate später, kommt Stable Diffusion heraus. Es ist Open Source, jeder kann es herunterladen. Und zwei Monate später veröffentlicht jemand eine vollständig skalierbare Webplattform. Das ist genau die Art von Dingen, die sich so schnell weiterentwickeln. Und wie trifft man da Geschäftsentscheidungen? Das ändert sich im Moment von Monat zu Monat. Früher änderte es sich jedes Jahr oder so, aber jetzt ist es zu schnell. Es sieht so aus, als würde die Technologie wieder zu einer Art Singularität werden. Wer kann sagen, dass es so weitergehen wird? Es ist einfach so schwer, die Zukunft in diesem Bereich vorherzusagen. Es geht eher darum, was ich jetzt tun kann und ob es mir Geld oder Zeit spart Wenn nicht, lassen Sie es bleiben. Wenn ja, dann mach es.

Angelika: Ja. Die Arten von Technologien, die am meisten Aufsehen erregen, sind diejenigen, die verschiedene Arten von Menschen mobilisieren, so dass sich die Technologie viel schneller weiterentwickelt. Ich habe das Gefühl, dass wir zu Beginn des Sommers hörten: "Oh, DALL-E 2, juhu! Wahnsinn." Und dann schien es, als ob es von da an exponentiell schnell vorwärts ging, basierend auf einer Menge Schwung. Es gab wahrscheinlich eine Menge Dinge hinter den Kulissen, die dafür sorgten, dass es sich exponentiell anfühlte. Würden Sie sagen, dass es an dem großen Interesse lag, das viele Menschen auf einmal für das gleiche Thema aufbrachte? Oder haben Sie das Gefühl, dass es vielleicht schon immer so weit war?

Sam: Ja, ich denke schon. Immer wenn eine Technologie anfängt, ihr Versprechen einzulösen, glaube ich, dass sich eine Menge Leute dafür interessieren. Das Besondere an Stable Diffusion war, dass es einen anderen Modelltyp verwenden konnte, um die tatsächliche Trainingsgröße der Bilder zu komprimieren, was dann ein schnelleres Training ermöglichte und dann auf einem einzigen Grafikprozessor trainiert und ausgeführt werden konnte. Auf diese Art und Weise läuft vieles in diesem Bereich ab. In der Regel gibt es ein großes Unternehmen, das sagt: "Wir haben herausgefunden, wie man das macht" Und dann sagen all diese anderen Unternehmen und Gruppen und Forscher: "Gut, jetzt wissen wir, wie es geht. Wie können wir es billiger, schneller, mit weniger Daten und mit mehr Leistung machen?" Und jedes Mal, wenn so etwas herauskommt, beginnen die Leute, viel Zeit und Geld dafür auszugeben.

DALL-E war ein Beispiel für kreative Arithmetik, wie ich finde. Wenn du sagst, ich möchte, dass du mir ein Pikachu zeichnest, das auf einer Ziege sitzt. Es weiß nicht nur, wie Pikachu und eine Ziege aussehen, sondern es versteht auch, dass es in einem ganz bestimmten Bereich sitzen muss, damit wir glauben, dass es auf der Ziege sitzt. Die Beine von Pikachu befinden sich auf beiden Seiten der Ziege.

Die Vorstellung, dass eine Maschine das kann, etwas, das dem menschlichen Denken so ähnlich ist, hat viele Leute extrem begeistert. Und damals waren es nur, ich glaube, es waren 256 mal 256 Pixel. Aber jetzt machen wir 2048 mal 24... was auch immer für eine Größe Sie wollen. Und das ist nur zwei Jahre später. Also ja, natürlich ist die Aufregung groß.

Ich denke, es ist eine dieser Technologien, die die Menschen wirklich begeistert, weil sie beginnt, das Versprechen der KI zu erfüllen. Genau wie bei selbstfahrenden Autos - KI, die Proteine faltet -sieht man immer mehr Beispiele dafür, was möglich ist und wie aufregend und nützlich es sein kann.

Angelika: Fantastisch! Nun, wir haben eine ganze Menge abgedeckt, viele großartige Informationen hier. Nochmals vielen Dank, Sam, für deinen Besuch in der Sendung.

Sam: Ja, danke, dass ich dabei sein durfte.

Angelika: Vielen Dank, dass Sie sich den Scrap The Manual-Podcast angehört haben!

Wenn euch gefällt, was ihr hört, abonniert uns bitte und teilt es! Sie finden uns auf Spotify, Apple Podcasts und wo auch immer Sie Ihre Podcasts beziehen. Wenn Sie uns Themenvorschläge, Ideen für Beiträge oder allgemeines Feedback geben möchten, können Sie uns gerne eine E-Mail an scrapthemanual@mediamonks.com schicken. Wenn Sie mit Labs.Monks zusammenarbeiten möchten, können Sie uns unter der gleichen E-Mail-Adresse erreichen. Bis zum nächsten Mal!

Sam: Auf Wiedersehen!

Verwandte
Themen

Schärfen Sie Ihre Kanten in einer Welt, die nicht warten will

Melden Sie sich an, um E-Mail-Updates mit umsetzbaren Erkenntnissen, aktuellen Forschungsergebnissen und bewährten Strategien zu erhalten.

Danke, dass Sie sich angemeldet haben!

Weitere Informationen finden Sie in Ihrer E-Mail.

Weiter erkunden

Monks benötigt die Kontaktinformationen, die Sie uns zur Verfügung stellen, um Sie über unsere Produkte und Dienstleistungen zu informieren. Sie können sich jederzeit von diesen Mitteilungen abmelden. Informationen darüber, wie Sie sich abmelden können, sowie über unsere Datenschutzpraktiken und unsere Verpflichtung zum Schutz Ihrer Daten finden Sie in unserer Datenschutzrichtlinie.

Sprache wählen

Sprache wählen

Die Website wurde übersetzt in Deutsch mit Hilfe von Menschen und KI

Dismiss