Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#20 Is ethical AI even possible? Deeptalk with Kurt Paulsen from Spawning.ai image

#20 Is ethical AI even possible? Deeptalk with Kurt Paulsen from Spawning.ai

S1 E20 · Mic Rider Deep Talk
Avatar
57 Plays1 month ago

In der neuen Folge Mic Rider Deep Talk spreche ich mit Kurt Paulsen –  Universitätsprofessor für Film, Medienexperte und Berater bei Spawning  AI. KI und Urheberrecht – zwei Themen, die oft im Konflikt stehen.   

Doch muss das so sein? Wir reden über das "Do Not Train"-Register, das  Künstlern mehr Kontrolle über ihre Werke gibt, und darüber, wie  KI-Training fairer gestaltet werden kann.   

Zum Beispiel mit einem foundation model, das transparent und rechtlich  einwandfrei mit seinen Trainingsdaten umgeht. Spawning.ai trainiert  gerade ein solches Bildgenerierungsprogramm.  

Und was hat es eigentlich mit der Website “have I been trained” auf  sich? Kurt teilt seine Sicht auf die Zukunft von KI: Wohin führt die  Entwicklung? Welche Rolle spielt das Urheberrecht? Und welche  Verantwortung tragen Entwickler und Plattformen?   

Nachrichten an: deeptalk@mic-rider.com  

Website: https://www.mic-rider.com/  

Host und Redaktion: Patrick Messe (https://www.patrickmesse.at/) 

 Zu Gast: Kurt Paulsen (thekurtpaulsen.com)  

Spawning AI: https://spawning.ai/  

Have I been trained: https://haveibeentrained.com/  

Bild: Charly Glawischnig (https://www.charlyglawischnig.com/)  

Ton:  Lukas Wurm (https://lukaswurm.com/)

Recommended
Transcript

Endlose Möglichkeiten von KI

00:00:00
Speaker
Give it better data, give it better processors, and we don't really see a limit on where it's going to go as long as those two things increase.
00:00:07
Speaker
That's the fun of going open source on your models is even though we might be creating our own foundation model that we like to share and hopefully people can use as a tool and build off of the data set itself, we have no idea how that's going to be used.

Datenschutz und ethische Überlegungen

00:00:23
Speaker
They find their picture on have I been trained and they're like, you have my picture, get rid of it.

Einführung Kurt Paulsen: Künstlerische und pädagogische Perspektiven

00:00:29
Speaker
Der Sprecher-Podcast
00:00:39
Speaker
Hallo, everyone, and welcome to a new episode of Mike Rider Deep Talk.
00:00:43
Speaker
Today I have a guest from America, so this episode is going to be in English.
00:00:48
Speaker
Kurt Paulsen from Spawning.ai is my guest.
00:00:52
Speaker
Kurt is a multimedia artist specialized in film and photography, and he is a college and university professor.
00:00:59
Speaker
He's teaching film production at the Minnesota State University and motion graphics at the Minneapolis College of Art and Design.
00:01:06
Speaker
Apart from that, he is the lead animator and media and education consultant for Spawning AI.
00:01:13
Speaker
As an artist, he specialized in the intersection of AI, art and education.
00:01:18
Speaker
Welcome to the show, Kurt.
00:01:19
Speaker
Nice to be here.
00:01:21
Speaker
Thank you.
00:01:23
Speaker
Hey, happy to have you.
00:01:24
Speaker
Thank you for taking your time.
00:01:25
Speaker
Can you tell me a bit more about yourself as an artist, who you are, how you got there?
00:01:31
Speaker
Sure.
00:01:31
Speaker
So my...
00:01:33
Speaker
Das erste round kam in der Form von Filmmakingen, so ich wollte in die Form von Filmmakingen.
00:01:39
Speaker
Ich war ein bisschen in der Broadcast-Industrie und habe ich in After Effects kam, aber ich war ein Aspiring Filmmaker, mit einem schönen Tag für den digitalen und manipulativen Teil der Editinge.
00:01:54
Speaker
So then I became the de facto specialist in all of my productions for that, which was my first teaching job was motion graphics.
00:02:02
Speaker
I started teaching before I even graduated.
00:02:04
Speaker
So now I'm moving into the motion graphics space.
00:02:08
Speaker
That's what I did my graduate work in.
00:02:11
Speaker
So I've always had an interest in stop motion animation.
00:02:14
Speaker
I'm a very crafty guy.
00:02:15
Speaker
So I like puppet making, set building, all of the kind of hands-on crafts.
00:02:21
Speaker
And then I like photography.
00:02:23
Speaker
All of these things meld together.
00:02:25
Speaker
I spent probably a decade of my educational career really focusing students on music videos, because that was a space where all of the different techniques could play and the content could be very flexible.
00:02:40
Speaker
So it was a great place for students to be able to show off.
00:02:42
Speaker
So we would reach out to agencies in Nashville and see if they had artists who were looking for music videos.
00:02:49
Speaker
And then we would partner with outside clients to actually
00:02:52
Speaker
Ich habe mich als Musikvideos gespielt.
00:02:54
Speaker
Ich habe mich als Musikvideos gespielt für die letzten 10 Jahre.
00:02:58
Speaker
Und dann, mehr in die AI-Space, habe ich immer wirklich, wirklich interessiert in Surrealism.
00:03:04
Speaker
Das hat mich
00:03:05
Speaker
Ich habe das ganze Kind des Backend von alles.
00:03:07
Speaker
Ich würde gerne experimentieren, mehr als ich gerne traditional Drama mache.
00:03:13
Speaker
Und ich habe die Schöne und alle verschiedenen Automatik-Prozessen, die Historischen Automatik-Prozessen, Automatik-Drawing, Exquisite Corpse, Fumage, wo sie die Schmutz von der Kanteil zu machen, die Marken auf die Papier schreiten.
00:03:28
Speaker
Things like this, ways to remove your conscious control of the process to see what comes out on the other

Kreative Experimente mit maschinellem Lernen

00:03:35
Speaker
side.
00:03:35
Speaker
This seemed like the logical progression of that instinct.
00:03:40
Speaker
So maybe five years ago, before Stable Diffusion or Mid Journey or anything like that came out, I was working with a developer friend and we started working on creating our own kind of machine learning paint program.
00:03:54
Speaker
So it's essentially like a clickable
00:03:56
Speaker
region, area of stable diffusion, but you could only work in a small region of the image at a time, and you would prompt it and generate that chunk.
00:04:05
Speaker
So it's still all based on the same kind of clipped technology that we're using today, but it was pre all of that stuff.
00:04:12
Speaker
So I was trying to find the surrealism in this, trying to find the subconscious.
00:04:17
Speaker
So like my computer was my subconscious.
00:04:20
Speaker
And then I was kind of collaborating with the computer, bouncing back and forth.
00:04:24
Speaker
And for me, that was very rewarding.
00:04:25
Speaker
I didn't feel like I was taking any shortcuts because it actually took a lot longer.
00:04:29
Speaker
But I was discovering things that I've never discovered otherwise because of that.
00:04:34
Speaker
So now I've moved more into spawning because that's the ethical side of things.
00:04:39
Speaker
Again, knew some people on development team and what they're trying to do makes a lot of sense for what I'm trying to do, which is connected to education, connected into a way that students can feel like they're doing things without plagiarizing.

Mission und Tools von Spawning AI

00:04:53
Speaker
In the educational world, there's
00:04:55
Speaker
A large concern for authenticity, for creating content that is not infringing on anything, not breaking any laws.
00:05:04
Speaker
So what Spawning is working on with respect to rights owners made a lot of sense for me.
00:05:12
Speaker
So now here I am.
00:05:15
Speaker
Wow, I mean, that's really fascinating because I have many questions.
00:05:20
Speaker
Sorry.
00:05:21
Speaker
No, no worries.
00:05:22
Speaker
I really appreciate it because we know each other from a different context and I didn't know, that's why I asked you this first question, where you're coming from arts-wise.
00:05:34
Speaker
But what did become of that program where obviously Stable Diffusion and the other guys beat you to it?
00:05:41
Speaker
Ja, sie hat es und mit den ersten Jahren.
00:05:45
Speaker
Und in den ersten Jahren, all das was passiert, in Discord Chats.
00:05:49
Speaker
Und einige der founders von Midjourney, bevor das das launch war, waren eigentlich einfach nur in die
00:05:56
Speaker
und auf die Dinge zu sehen.
00:05:58
Speaker
Es war ein sehr interessanter Raum, weil alle alle versucht es zu finden.
00:06:01
Speaker
Es war etwas, dass niemand wirklich ein fix auf war.
00:06:03
Speaker
Es war ein smalles Grupp von Leuten, das ist wo wir, Matt und Holly, die wir uns von Spawning haben, die wir in der gleichen Zeit, die wir in der Zeit, die wir in der Zeit, die wir in der Zeit, die wir in der Zeit, die wir in der Zeit, die wir in der Zeit, die wir in der Zeit, die wir in der Zeit,
00:06:22
Speaker
Es gibt es, wir können es um und runen.
00:06:25
Speaker
Es war ein locally-running Maschine.
00:06:27
Speaker
Und es war interessant, weil es hat eine sehr andere Art von der anderen Art von uns.
00:06:34
Speaker
Es war lange Zeit, aber ich habe alle die Fotos, die ich dann manipulierte.
00:06:42
Speaker
Ich hatte ein paar verschiedene Models, und ich hatte sie in alle verschiedenen verschiedenen Fällen.
00:06:45
Speaker
Then I arranged all of those models, so separated them in Photoshop, arranged them into a much larger composition, 30, 40 figures, and then I created a kind of a Hieronymus Bosch Landscape.
00:06:59
Speaker
all of these figures as my surrealist piece.
00:07:05
Speaker
Anyway, then I turned that into a big 30-inch canvas Giclee print.
00:07:11
Speaker
I always forget how to pronounce that Giclee.
00:07:14
Speaker
But it looks like an oil painting, it looks great.
00:07:17
Speaker
And that's one of my pieces in the past where I can say I can pluck that out of the timeline before AI
00:07:26
Speaker
After Photoshop, it's just kind of like this very narrow window of about a year where that thing was really interesting and relevant.
00:07:34
Speaker
So I still love it.
00:07:36
Speaker
Yeah, in German, we call that kind of a Brückentier, so an evolutionary step in between two major technologies in this case.
00:07:47
Speaker
So it feels like that, what you're describing.
00:07:53
Speaker
Very interesting.
00:07:55
Speaker
Ja, we actually, full disclosure, we know each other from my work with UVA and your work with Spawning AI on Opt-Out and in this case data protection from your copyrighted works.
00:08:11
Speaker
Can you tell us a bit more about Spawning?
00:08:13
Speaker
Because in Europe it's not that well known, Spawning AI.
00:08:17
Speaker
What are you guys?
00:08:18
Speaker
Who are you?
00:08:19
Speaker
What are you doing?
00:08:21
Speaker
Ich denke, die Leute kennen die Name Have I Been Trained mehr als sie kennen die Name Spawning.
00:08:27
Speaker
Spawning ist die Start-up, das ist ein kleines Team von developers, Leute wie ich, die, die mit einem Produkt haben, die versuchen, zu retten, um, zu retten, um, zu retten, um, und zu retten, um, die Leute zu retten, um, zu retten, um, die Recht haben.
00:08:43
Speaker
So Have I Been Trained war die erste Produkt launch, das war eine Free Service.
00:08:48
Speaker
Und das war die erste Push by Spawning zu bringen, zu bringen, zu bringen, zu den Publikum über was Machine Learning bedeutet, was Datasets sind.
00:09:01
Speaker
People hatten keine Ahnung was, die Leute hatten keine Ahnung, wo diese AI-Tool wurde von der Materialien.
00:09:08
Speaker
Und so es war ein bisschen ein, ein bisschen nach dem Curtin, ein bisschen.
00:09:13
Speaker
und was in der Lion 5B Dataset, was in der großen Dataset.
00:09:19
Speaker
Aber weil es so groß ist, war das was das was was informiert Stable Diffusion und andere.
00:09:27
Speaker
Und so, sie haben wir Stable Diffusion und gesagt, wenn wir Menschen finden, die nicht wollen in die nächste Generationen wollen, würde ihr das?
00:09:36
Speaker
Und sie sagten, ja.
00:09:37
Speaker
Okay, we will respect that.
00:09:39
Speaker
If you don't want to be in our next pass, when we train our next round, we will respect those opt-outs.
00:09:47
Speaker
So we already, we have millions of opt-outs right now.
00:09:51
Speaker
The latest round of stable diffusion, I want to say was 7 million images that were not included.
00:09:56
Speaker
So that's a large chunk.
00:09:59
Speaker
I mean, it's a small piece of 5 billion, but it's still a large chunk that people were able to extract from the dataset that they didn't want in the next round.
00:10:09
Speaker
So Spawning's mission has always been that to kind of advocate for the artists, advocate for the common creative who wants to have some kind of control without being swept up into larger AI models.
00:10:25
Speaker
So that was our initial round.
00:10:26
Speaker
And then we came up with other tools that basically support that.
00:10:33
Speaker
AI.Text was one of those tools.
00:10:36
Speaker
And that is just simply a script that you can use as a plugin in your WordPress site.
00:10:42
Speaker
Wir haben eine WordPress-Plegin für das, aber man kann es auch auf anderen Seiten, wenn man es manually hat.
00:10:47
Speaker
Und das war einfach, wenn man weiß, ob Robots.txt, was das versucht, die zu verhindern, die Robots.txt zu vermeiden, die Robots.txt zu vermeiden, die Robots.txt zu vermeiden, die Robots.txt zu vermeiden, die das einfachen, das heißt, wenn man an Ethical AI-Trainern und man weiß, dass AI.txt das ist, dann will man das und nicht überlebt, das und nicht überlebt.
00:11:11
Speaker
So going from that now we wanted to create, so those were kind of what I call the stick, but then we also needed to create the carrot.
00:11:21
Speaker
Trying to regulate the industry by putting in lots of limits and guardrails, we should still be trying to do that, but ultimately that's not going to change the overall trajectory of things.
00:11:35
Speaker
Wir sehen vieles Innovation.
00:11:37
Speaker
Die recenten Verlangen der Chinese Model DeepSeek ist, die ist cheaper und hat eine komplett andere Learning Methoden.
00:11:46
Speaker
Its Logik ist komplett anders als ChatGPT.
00:11:50
Speaker
Das Kind der Innovation ist, die nicht zu beherrschte,
00:11:56
Speaker
by a lot of regulation, because people are finding loopholes.
00:12:00
Speaker
The new products redefine themselves and then it becomes difficult for legislation to pin it down.
00:12:07
Speaker
So the idea is with our latest product Source Plus is to try to create an alternative to using a model that was trained on content that was included without consent to create a way to use generative AI while also respecting rights.
00:12:28
Speaker
So you know that the entire model has only been trained
00:12:32
Speaker
auf Copyright-Free Content.
00:12:32
Speaker
So, das wäre Public Domain oder CC0, Creative Commons 0.
00:12:41
Speaker
Okay, wow.
00:12:42
Speaker
Again, many questions.
00:12:43
Speaker
First of all, because you mentioned it last, can you explain what CCO content means?
00:12:51
Speaker
So the public domain would be typically anything that goes back, and I think it changes per jurisdiction.
00:13:00
Speaker
I think in the US it's 70 years or 75 years.
00:13:03
Speaker
I'm not exactly sure on that.
00:13:06
Speaker
Essentially, if your work gets old enough,
00:13:09
Speaker
Es geht in die öffentliche domain.
00:13:10
Speaker
Wenn es keine E-State oder Trust gibt, oder etwas, das ist eine neue Rechte, dann geht es in die öffentliche domain.
00:13:18
Speaker
Es ist so alt, dass es niemanden mehr zu haben, so jemanden kann es.
00:13:23
Speaker
Wenn du über Renaissance Masters bist, die Päintings sind in die öffentliche domain.
00:13:28
Speaker
Da Vinci kann jemanden zu tun.
00:13:30
Speaker
So all of that kind of content goes into the public domain.
00:13:35
Speaker
And a lot of that is actually released by museums who have them in their collections.
00:13:41
Speaker
So some of that is public domain, but the photo of the artwork isn't.
00:13:47
Speaker
So we had to work with specific museums because if I went and took a picture of the Mona Lisa,
00:13:54
Speaker
The Mona Lisa is in the public domain, but my particular photograph of it is my photograph.
00:14:00
Speaker
So if you're trying to train on these images, you have to find publicly released content from museums.
00:14:08
Speaker
So the museum takes high quality images of various artworks, historical artifacts, all of those types of things.
00:14:15
Speaker
And then they will release it as CC0.
00:14:17
Speaker
Creative Commons 0 is essentially saying, I am waiving my rights.
00:14:23
Speaker
I am voluntarily putting this out there.
00:14:25
Speaker
So I'm labeling my license on this object as free for any use, commercial or otherwise.
00:14:32
Speaker
Anybody can do anything they want with this.
00:14:35
Speaker
And I am...
00:14:36
Speaker
consciously, willingly putting it there.
00:14:39
Speaker
So that's on the owner to put it into CC0, whereas public domain kind of happens by default.
00:14:47
Speaker
Okay, so CC0 would be the equivalent of a conscious opt-in, so to speak.
00:14:55
Speaker
Like, I want, please have at it, do what you like.
00:15:01
Speaker
A good example is Wikimedia.
00:15:04
Speaker
So in Wikimedia, people can upload photos.
00:15:07
Speaker
And as soon as they upload photos to that site, they are waiving their rights.
00:15:11
Speaker
They're trying to create a kind of community collective of images that people can use for whatever they want.
00:15:19
Speaker
So there's some very passionate people about those type of communities, and they go out and take their photos and willingly upload them so that there is this kind of open resource for people to use.
00:15:32
Speaker
So Creative Commons has a range of different licenses that you can use.
00:15:38
Speaker
Some are, you can use it, but you can't use it for commercial purposes or things like that.
00:15:42
Speaker
There's a wide variable on there with all kinds of conditions.
00:15:47
Speaker
But CC0 is just the blank slate.
00:15:49
Speaker
I'm giving up my rights to it.
00:15:51
Speaker
Do what you will.
00:15:53
Speaker
Okay, cool.
00:15:54
Speaker
And you trained a foundation model on that, basically?
00:15:58
Speaker
We are training right now a foundation model on that.

Einfluss von Open-Source-Modellen auf Innovation

00:16:04
Speaker
So you created a dataset that is fair trade, so to speak, ethical, and as you said, public domain and CC0, and are training a foundation model with that.
00:16:16
Speaker
Right, so the first thing we released was the PD-12M.
00:16:22
Speaker
So that was a dataset we released on Hugging Face.
00:16:25
Speaker
So that would be the 12 million images with all of the captions.
00:16:31
Speaker
So when you're training a new image model, you have to have the text and the picture.
00:16:37
Speaker
You can't have a generative AI system without having that linked information of text and image.
00:16:44
Speaker
So that, that, because it, it needs to know what am I looking at?
00:16:49
Speaker
The caption, the description is telling
00:17:15
Speaker
Wir scoren, wir was called an Aesthetics Score, so we can rank as far as what makes a good-looking image, so we don't have the random shots of the floor that somebody accidentally took, you know, things like that.
00:17:31
Speaker
So that creates a very high-quality dataset.
00:17:34
Speaker
And in AI, it is very much garbage in, garbage out.
00:17:38
Speaker
So you want to make sure that you have as high-quality of content going into it as you can.
00:17:44
Speaker
Und das Dataset kann dann werden und dann benutzt und dann benutzt und von jemandem anderen zu trainieren.
00:17:50
Speaker
Wir arbeiten auf eine unserer eigenen, aber weil das Dataset wurde, und die Leute können jetzt aus dem Dataset und benutzen das Dataset, um alle 12 Millionen Bilder und dann trainieren ihre eigene Model, wir sind wirklich wirklich interessiert, wie es sich weiter zu spielen, wie es sich weiter zu spielen, wie es sich weiter innovatieren,
00:18:07
Speaker
Das ist das, was wir auf der Öffentlichkeit von Open Source auf den Modellen ist, dass wir vielleicht auch unsere eigene Foundation-Modelle haben, und wir können uns das auch anstellen, und wir können uns das auch anstellen, wie wir das auch anstellen, wie das wird.
00:18:22
Speaker
Ich bin sehr gespannt, wie es wird, aber wir nicht noch wissen, wie es wird, wie es wird, aber es wird noch nicht mehr, wie es wird, aber es wird noch nicht mehr, weil es wird noch viel, weil es ein viel mehr, weil es ein viel mehr, viel mehr als die anderen.
00:18:37
Speaker
Ja, das ist das, was ich auch daran lieb, ist es, auf der einen Seite, die Transparenz, die wir, die mit Open Cards spielen spielen, es gibt keine blacken Boxen oder keine secreten über wie du kamen zu spielen.

Herausforderungen bei der Kuratierung von Datensätzen

00:18:56
Speaker
und zu processen.
00:19:00
Speaker
Und auf der anderen Seite, der Open Source factor ist, dass es, ja, es ist, dass es, es, es ist, ich liebe die Idee,
00:19:12
Speaker
Das ist die Möglichkeit, wie AI in den letzten zwei Jahren hat, wie ich es erlebt habe.
00:19:24
Speaker
Oder wie es geht.
00:19:26
Speaker
Und das ist das, was ich von dem Spawning Mission zu sagen.
00:19:33
Speaker
Wir versuchen, die Incentive zu tun, um es zu machen.
00:19:41
Speaker
Wenn wir die Tools geben, dann ist das ein viel Arbeit.
00:19:44
Speaker
Es hat viel Zeit, viel Zeit, viel Zeit, viel Zeit, viel Zeit, viel Zeit, viel Zeit, viel Zeit.
00:19:51
Speaker
Die Daten sind sehr viel kosten.
00:19:52
Speaker
Es ist nicht einfach, wenn man einen Jump Drive oder eine USB Drive hat.
00:19:57
Speaker
Das ist ein vieles Werteilung.
00:19:58
Speaker
Es muss sich um die Daten zu beherrschten, es muss sich um die Daten zu verraten, es muss sich um die Daten zu verraten.
00:20:08
Speaker
All of it is accessible through Source Plus.
00:20:11
Speaker
Source Plus is the tool that we're using as the direct image access point.
00:20:17
Speaker
The PD-12M dataset is pulled from the collection that is Source Plus.
00:20:22
Speaker
But in Source Plus, that is a place where you can go in, search for different types of images.
00:20:27
Speaker
It's a very robust search engine.
00:20:29
Speaker
You can do a semantic search on it, or you can search the metadata.
00:20:33
Speaker
Because the images that we pull in all have metadata from the museums, where they come from.
00:20:38
Speaker
Each image that you click on has a right there on the side where its license is.
00:20:43
Speaker
You can click on the original source.
00:20:44
Speaker
Where did we pull that image from?
00:20:47
Speaker
Man kann es auch auf das.
00:20:48
Speaker
So all of that ist sehr, sehr transparent.
00:20:51
Speaker
Und dann, wenn du in das Raum bist, die reale goal ist, dass Leute auf der Finde-Tune.
00:20:55
Speaker
Wenn du auf Voice-Tunen auf Deutsch bist, Leute würden zu Finde-Tune auf Voice-Model.
00:21:00
Speaker
Ich meine, das ist was Eleven Labs ist.
00:21:02
Speaker
Hier, speak für ein Minute und wir machen eine Model auf dich.
00:21:07
Speaker
Der BASE-Model auf das ist immer ein Big Lift.
00:21:10
Speaker
Ja, genau.
00:21:12
Speaker
Das ist nicht die Minute of Input, sondern die Millionen und Millionen von Hours der Daten sie haben als eine Basis zu referenceieren und zu stellen, unter die Minute of Input.
00:21:25
Speaker
Genau.
00:21:26
Speaker
Das ist das, was wir versuchen, den Foundation Model zu machen.
00:21:30
Speaker
So if we have our own foundation model, that doesn't mean, because we've been able to fine tune, I've been fine tuning on my own artwork style to create my new AI art.
00:21:39
Speaker
I make all my own sketches, do my own drawings, take my own photos, and then train my own Laura's
00:21:48
Speaker
Das ist ein guter Modell, also ein Plugin, mit Stable Diffusion, um es zu narrowen, auf eine bestimmte Space in der Latenten-Space und geben Sie consistentes Resulten von der Sache, die du trainierst.
00:22:02
Speaker
Das ist cool, es sieht wie mein Stuff, aber es ist noch auf die Backbone des Lion 5B Trainingsmodell.
00:22:10
Speaker
So, what we're trying to do with Source Plus and Public Diffusion is create a base model so from beginning to end you know that this wasn't trained on non-consenting data.

Ethik und Finanzierung in der KI-Entwicklung

00:22:24
Speaker
I mean, that sounds great.
00:22:25
Speaker
So, Public Diffusion is the name of the foundation model you're training, right?
00:22:29
Speaker
Yes.
00:22:33
Speaker
Was ist für Sie für Sie als Spawning?
00:22:35
Speaker
Weil Sie sind nicht die Good Samaritans.
00:22:37
Speaker
Sie sind, als opposed zu großen, commercial-orientierten tech-companien.
00:22:47
Speaker
Aber Sie müssen das finanzieren.
00:22:50
Speaker
Sie müssen in Tausend-Hausen und...
00:22:55
Speaker
Sweat and serve up space and whatever into that.
00:22:59
Speaker
So, I mean, is that just a toy for you or how does that finance itself?
00:23:06
Speaker
So Source Plus is really the kind of the commercial arm that we're building right now because it is a subscription-based tool.
00:23:15
Speaker
So it's not very expensive.
00:23:17
Speaker
It's $10 a month right now for an individual user.
00:23:20
Speaker
So, once you get into Source Plus, and again, this is why I love it for education, because it's essentially going into an image database.
00:23:29
Speaker
When you're in college, you have to go and you find journal entries to write your papers, and you usually go to the library and use one of their special databases to get your journal articles.
00:23:40
Speaker
So this is like that, very similar in fact that, hey, I need to go and get images to train a model to use for my AI art class.
00:23:50
Speaker
So this becomes a safe place.
00:23:52
Speaker
You can go into it and you know that all of the images there are safe and ready to go.
00:23:57
Speaker
And they're very, very sortable, curatable and collectible.
00:24:03
Speaker
So the idea of going into Source Plus, finding all of the different images that you might want to use for a fine tune,
00:24:10
Speaker
Und dann, die man in den Collections kann dann werden.
00:24:13
Speaker
So es creates eine eigene Datasette für dich zu trainieren.
00:24:21
Speaker
Und dann, die Publik Diffusion kommt in, wenn das Online geht, dann wird das, dass du dann auf den Seite auf den Seite kannst.
00:24:28
Speaker
So, du kannst du auch deine eigenen Werk.
00:24:31
Speaker
You can add to it from work that you found in the past.
00:24:35
Speaker
Like how do my photos and DaVinci drawings merge?
00:24:40
Speaker
What would that look like?
00:24:41
Speaker
And so you can build those two things together, still knowing where all of the content came from, fine tune a model, and then use the generative tool on site.
00:24:52
Speaker
So just how you would go into mid journey and you hit
00:24:55
Speaker
und es kommt ein Bild in Browser, es wäre das gleiche type, wo man dann kann und eigentlich generieren Ihre Images durch die Web-Portal.
00:25:05
Speaker
Aber mit einem guten Conscience, mit einem mit einem Geist, so zu sprechen.
00:25:13
Speaker
Und es ist wichtig, dass es nicht ein komplett Replacement zu diesen anderen Modeln ist.
00:25:20
Speaker
Es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist nicht so großartig, es ist gut, dass es das Ergebnis von dem Modeln ist.
00:25:33
Speaker
Aber es ist was es, was es hat sich nicht trainiert.
00:25:37
Speaker
Es hat sich nicht trainiert, auf ein Celebritys Faces zu geben.
00:25:43
Speaker
Wenn du es an einen Film von einem Film ausfüllen, wird es nicht wissen, was das ist.
00:25:51
Speaker
Wir haben von Wikimedia-Einigen, und da werden einige Bilder ausfüllen.
00:25:56
Speaker
Aber für den meisten Teil, es kann nicht das machen.
00:25:58
Speaker
Es ist nicht möglich, was es nicht trainiert.
00:26:02
Speaker
Aber da ist vieles Content, das ich kann.
00:26:03
Speaker
Und was wir sehen, ist, dass die Results sehr tactile sind, sehr smooth und Organizabel.
00:26:06
Speaker
Denn es ist all die High-Quality-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-Werke-
00:26:26
Speaker
Well, but what I'm hearing is actually interesting even more because there's little stuff more boring than this overly polished, like first glance at the picture, you know it's AI because it's just too much, it's too bright, too perfect, too whatever.
00:26:47
Speaker
And

KI als kreatives Werkzeug für Künstler

00:26:48
Speaker
this sounds more like organic handcraft or
00:26:53
Speaker
Und eigentlich, von einem personality-rights-sichtigen Punkt, ich denke, das ist gut, dass du, wie es heißt, deepfakest, wenn du es in der Zeit nicht mehr so gut bist, und du misst es in in thinkable und unthinkable ways hast, wie wir in den letzten Zeiten sehen.
00:27:16
Speaker
So, ich denke, das ist ein plus.
00:27:18
Speaker
Ja, es kann wirklich das nicht.
00:27:19
Speaker
Es ist nicht das, was es wirklich das zu tun ist, ist es, dass du Artists einen Fingetunen Modell zu machen, weil das ist wie du AI in der Art, wie du es in der Art, als eine Art, als eine Art, als eine Art, als eine Art, als eine Art, als eine Art, als eine Art, als eine Art, als ich es, als eine Art, als ich es, als eine Art, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich es, als ich, als ich es, als ich es, als ich, als ich es, als ich
00:27:46
Speaker
Und das ist eine wirkliche gute Maschine für das, um zu kreieren, Finetunes zu machen.
00:27:53
Speaker
Das ist eine der Hauptprinzipien.
00:27:56
Speaker
Du kannst eine Datenbäse von den Images einfach nur durch.
00:27:58
Speaker
Und einfach nur die Images und die Störungen an den Startpunkt an den Startpunkt an ist.
00:28:02
Speaker
Also, wenn du Image-to-Image, stattdessen Text-to-Image, ich werde mit diesem Image starten und um die Composition und Color-Space, aber dann try und push es in eine andere Richtung.
00:28:14
Speaker
So you can use images for that.
00:28:15
Speaker
But like I said, what we're trying to do is get it so that you create your collections of either your own images, which you can keep in private collections, nobody else finds them, or you can upload your own images and then put them into CC0.
00:28:27
Speaker
So that's that fair trade, like, hey, I'm using all of these images that somebody else donated.
00:28:33
Speaker
It's really only fair that I donate some of my own too, you know, back and forth.
00:28:38
Speaker
So then you can create these fine-tuned models, which allow you then to use your style, what you're looking for to generate consistent results.
00:28:48
Speaker
So really an artist's tool.
00:28:51
Speaker
Ja, das ist vielleicht die original Idee oder Grund, und dann, irgendwo along die Weise, derallt in total consumerism und total tech-domination.
00:29:10
Speaker
Ich weiß nicht, die commercialen Models, die wir alle kennen, aber wir wollen Namen, so sie können uns zu uns.
00:29:19
Speaker
Ja.
00:29:20
Speaker
Es ist interessant, von einem Kreativ-Punkt-O-V-V-O.
00:29:27
Speaker
Und es hilft, es hilft, es zu einem Tool, und es hilft, die Kreativ-Thinking oder die Kreativ-Process.
00:29:39
Speaker
Wenn Sie planen auf das?
00:29:44
Speaker
Wir werden jetzt in den 30s auf den Training-Prozess machen.
00:29:49
Speaker
Es ist eine Monate lang, die wir tatsächlich versuchen, eine neue Methoden zu machen.

Globale Innovation und Infrastrukturentwicklung

00:29:57
Speaker
Es ist jetzt ein Micro-Model.
00:30:00
Speaker
Es braucht vielleicht eine Tenth der Kosten für die Kosten.
00:30:06
Speaker
ist nicht so robust, aber die turnaround und die Kosten zu tun ist viel lower.
00:30:12
Speaker
Wir versuchen mit dem Idee zu machen, zu machen mehr versions von es.
00:30:17
Speaker
Wir versuchen, was wir mit dem machen, was wir mit dem Ergebnis erzeugen, was es gibt.
00:30:22
Speaker
So, even auf der 33% mark, wir können es und mit dem Gerät mit dem es verwendet.
00:30:27
Speaker
Und es kann auch sehr, sehr gut ausgleichen, was es weiß.
00:30:30
Speaker
Aber es tut sehr schlecht, bei dem Moment mit den Dingen nicht wissen.
00:30:34
Speaker
Wenn du an Anime-Karakter ausfüllen, um die Straßen von Tokio zu haben, wird das nicht mit einem Animate-Karakatzen haben.
00:30:44
Speaker
Es wird nicht wissen, wie es an Animated-Karakatzen ist.
00:30:49
Speaker
Es wird nicht ein Tonnen in der Datasette sein.
00:30:51
Speaker
Was es weiß, kann es eigentlich produzieren, sehr interessante results.
00:30:55
Speaker
Sehr clean, sehr passiv resultatlich.
00:31:00
Speaker
Ist das auch die Technik das neue China-System für Training hat, oder ist das eine andere Sache?
00:31:08
Speaker
Ich habe es in die Briefwahl gesehen.
00:31:09
Speaker
Ich bin nicht ein Developer, so ich kann wirklich nicht mehr in die realen Backend auf das Thema.
00:31:15
Speaker
Aber ich weiß, dass es anders ist, dass es tatsächlich trainiert, um zu entwickeln, um zu entwickeln, um zu entwickeln, um zu entwickeln, um zu entwickeln, um zu entwickeln.
00:31:23
Speaker
und dann die Daten, stattdessen zu den Daten zu finden und die Logik aus dem.
00:31:29
Speaker
So, es ist eine der Dinge, die Leute über die Marveling ist, ist die Reisung.
00:31:35
Speaker
Die Weise, die es kann denken und zu processen durch eine Image, versus zu versuchen, zu replikieren, was eine typische Antwort zu das Frage wäre.
00:31:44
Speaker
Its logic is a little bit different.
00:31:47
Speaker
So I may be explaining that in slightly inaccurate terms, but from my understanding, that's how it worked, is that it's actually trained in a different way.
00:31:58
Speaker
And by doing it that way, they needed less content to get it to a high level, which is why it was so cheap.
00:32:06
Speaker
So that's the kind of innovation that we can be expecting.
00:32:11
Speaker
The way they approach that is probably going to be the way that they need to go to get to that AGI level, the artificial general intelligence, the model that does it all.
00:32:23
Speaker
Because right now we're doing image models, but even in chat, GPT or something like that, you can have images generated in your chat.
00:32:33
Speaker
So it'll eventually be that you can generate images, generate videos, generate audio.
00:32:39
Speaker
So that's when people are throwing around the words multimodal.
00:32:43
Speaker
Right now, we're just because of scale and what's possible, we're only working in images with Source Plus.
00:32:51
Speaker
But the idea is that it's coming because we have all of these different ecosystems for video.
00:32:57
Speaker
We have ecosystems for audio, for images, for text.
00:33:03
Speaker
So, those various companies and those various ecosystems could all be under threat from a larger AGI that would come out that could leverage the strength of each of those things, but put it all under one umbrella.
00:33:21
Speaker
Ja, und ich meine, die Effizienz factor ist auch eine von Energie zu haben, und Server Rooms und Graphic Cards, die Sie brauchen, wo diese Dinge nicht zu tun, und wir sollten mehr und mehr auf das benutzen, wo wir jetzt gerade jetzt sind.
00:33:48
Speaker
Ja, ich habe das über das die anderen Tag, dass wir von 4% von der ganzen Weltkrieg der Energie für AI-Ai-Auskern bis 6% in den nächsten Jahr und ein halb.
00:34:03
Speaker
Wow, this is massive.
00:34:07
Speaker
This is really massive.
00:34:09
Speaker
This is not cool.
00:34:10
Speaker
That's actually a lot of power that's going into these systems for both training and then for utilization.
00:34:20
Speaker
Das ist die typen, die auch in der Innovationen muss.
00:34:25
Speaker
AI ist nicht einfach ein Modell.
00:34:27
Speaker
Die Infrastruktur ist etwas, was wir müssen sehr gut sehen.
00:34:30
Speaker
Wie du gesagt hast, die Energie, die Carbon Funtprins sind, die Dinge müssen wir sehen.
00:34:40
Speaker
Either we figure out new ways of running the logic so that we don't need such intense computational processes, or we need to start figuring out how to power these things differently.
00:34:53
Speaker
That's what Stargate is.
00:34:57
Speaker
That's what the big infrastructure project is that they're trying to run, is to create initially 10 new data centers in Texas.
00:35:06
Speaker
Das ist ein großer Teil der Infrastruktur.

Regulierung und ethische Überlegungen im KI-Bereich

00:35:09
Speaker
Einfaches ist, dass wir die Main Lines der Power haben.
00:35:13
Speaker
Wir sind die Power Grid, um es in Texas zu bringen mehr Power in diese Daten zu bringen, weil sie so viel zu verwendet haben.
00:35:24
Speaker
Das ist die famous 500 Billionen, die die AI-Infrastruktur sind, die vielleicht unsere listeners und unsere viewers haben und gehört und gehört über.
00:35:38
Speaker
Ja, so...
00:35:41
Speaker
OpenAI ist derjenige der Weg mit dem.
00:35:45
Speaker
So in der ersten Runde, sie haben 100 Billionen raised und sie sollen die Erwachsenen 5 in den nächsten Jahren.
00:35:52
Speaker
So es gibt ein paar verschiedene Corporationsen, die diese neue Unternehmen sind, aber OpenAI ist derjenige derjenige, die die Daten zu haben, die die Daten zu haben.
00:36:05
Speaker
What?
00:36:05
Speaker
Wait a minute.
00:36:08
Speaker
Right.
00:36:09
Speaker
So this big infrastructure project, it's a big endorsed, government endorsed, government supported process to push innovation in the AI space.
00:36:22
Speaker
The recent DeepSeek model is definitely making people uncomfortable.
00:36:29
Speaker
Again, the markets kind of crashed when it came out because it immediately raced up to the number one slot on the Apple App Store.
00:36:37
Speaker
The way that it needed processor use was so much less that Nvidia took a big hit.
00:36:43
Speaker
So like the markets are very unsure of what this means, which
00:36:49
Speaker
Das ist jetzt auch, dass wir jetzt OpenAI und andere, das ist, dass wir eine Worte, wir brauchen Infrastruktur, wir brauchen, wir brauchen, wir brauchen, und wir brauchen, dass es.
00:37:00
Speaker
Das ist die andere Sache, dass Präsident Trump hat, ist er, er hat sich zurückgebracht, die Regulatory Guidelines von den vorherigen Administration ausgedrückt.
00:37:12
Speaker
So he's saying these things have been throttling innovation.
00:37:14
Speaker
This is a burden for companies.
00:37:18
Speaker
So we need to take that away.
00:37:21
Speaker
Wow, okay.
00:37:25
Speaker
Okay, that takes away my question of, is there something in for spawning AI or for a fair and ethical use case of AI in this 500 billion infrastructure massive investment?
00:37:45
Speaker
So, I see.
00:37:47
Speaker
That's not an investment for all, that's an investment for some.
00:37:51
Speaker
Okay, I see.
00:37:52
Speaker
I see.
00:37:53
Speaker
That is, well, everybody can form his or her own opinion on that.
00:38:00
Speaker
Yeah, they can go and look it up.
00:38:02
Speaker
You can see all the different companies that are playing in it, but it's all the big hitters, Oracle, Microsoft, some of the others.
00:38:10
Speaker
Those are all the major corporations that are partaking in this.
00:38:14
Speaker
And it's
00:38:16
Speaker
Es ist wahrscheinlich was, was muss mit den aktuellen Modeln passieren, um sie zu pushen, aber auch in der Offizie Announcement, es hat in die Parenthesis, dass die Ziel ist, dass AGI und dieses Infrastrukturprojekt ist, um es zu versuchen, um das Punkt zu erreichen.
00:38:36
Speaker
So there's a lot of people who are polarized on AGI as much as they are on AI too.
00:38:41
Speaker
Do we want an AI assistant in our life that can do all of these things in the real world, that can make orders online for us or send our emails or call our kids?
00:38:54
Speaker
Or, you know, do we want to have something that that is that?
00:39:00
Speaker
Das kann sich coherently auf ihre eigene eigene eigene
00:39:26
Speaker
Und sie wahrscheinlich nicht, seit Präsident Trump ist in office, seit er hat die wenige, die in den USA waren, bis jetzt.
00:39:38
Speaker
Und ich würde nicht sagen, dass sie nicht alle passen, weil ein paar legislation aus dem Weg ist, ist sehr hart zu retten, die public zu retten.
00:39:45
Speaker
So they're trying to do things as far as how AI is used by government agencies.
00:39:52
Speaker
How is it used by police?
00:39:55
Speaker
How can it be used to spy on people's privacy or invade their privacy?
00:40:01
Speaker
There's even a specific bill in place that they're proposing to make sure that AI is never linked to how nuclear missiles are launched.
00:40:10
Speaker
We need to make sure that we never connect AI and nukes.
00:40:14
Speaker
Ja, es gibt nicht viele Dinge, aber das ist wahrscheinlich eine von ihnen.
00:40:17
Speaker
Ja.
00:40:18
Speaker
Ja.
00:40:18
Speaker
Aber du hast gesagt, das ist die Weg für Dinge zu progressieren.
00:40:26
Speaker
Ist es, doch?
00:40:28
Speaker
Würde es besser sein, dass es besser nachdenkt und finden, um, was es mehr effektiv zu progressieren und zu initiieren, um, um, um,
00:40:42
Speaker
fair and lawful basis like you guys do, for example.
00:40:49
Speaker
I would 100% agree with that.
00:40:50
Speaker
But that's also kind of saying, wouldn't it be nice if, say, capitalism wasn't racing so hard forward?
00:40:59
Speaker
Or wouldn't it be nice if we weren't in a technology arms race that was this intense with, say, China?
00:41:07
Speaker
Mm-hmm.
00:41:09
Speaker
Wie kann man das nicht mehr spielen?
00:41:11
Speaker
Man kann man nicht mehr spielen.
00:41:13
Speaker
Man kann man nicht mehr spielen.
00:41:14
Speaker
Man kann man nicht mehr spielen.
00:41:17
Speaker
Aber ich glaube, dass jemand will das, weil das das schrecklichste, dass das schrecklichste, dass das schrecklichste, dass das auf dem Markt nicht mehr spielen.
00:41:27
Speaker
Das schrecklichste, dass das sozio-economisch ist.
00:41:32
Speaker
ist nicht so ähnlich wie andere Technologien, die in der Sinne von der Neues sind, die Best sind.
00:41:39
Speaker
Sie wollen die Best und die Experten, weil das bedeutet, dass man die größte Kapitel-Advanzösung hat.
00:41:47
Speaker
Aber die Unterschiede ist, dass wir mit Tools, die vielleicht mehr Powerful sind, als wir mit dem Bekannten, wie vor.
00:41:55
Speaker
Ich werde mich auf die Zeit, aber in der
00:42:00
Speaker
The VHS beta era of which tapes to use, you know, like VHS won out because people made VCRs from that worked a little bit better and it was something that was rental better.
00:42:12
Speaker
So anyway, like the formats and the technologies that come forward, I don't think we're going to be able to see those things stop.
00:42:21
Speaker
Es ist eine der Grunde der Grunde in Europa, weil die EU hat eine andere Sensibilität als Amerika hat, als der Ausgang der Anführungszeichen, oder zumindest der Mindset.
00:42:40
Speaker
Ja, ich wollte das, weil ich weiß, dass du auch in der AI Office bist, die Code of Practice, wie wir mit UVA sind.
00:42:51
Speaker
Was ist in dir für dich?
00:42:53
Speaker
Ich meine, ich liebe das und bin dankbar für alle
00:43:00
Speaker
on the creative side of things that is involved in these hearings and in these makings of the code of practice, because there are also many from the industry side lobbying for deregulation and softening up the accountability and the transparency.
00:43:21
Speaker
And I don't have to tell you.
00:43:23
Speaker
So thank you for that.
00:43:24
Speaker
But how come?
00:43:27
Speaker
So, the EU is not a small market.
00:43:30
Speaker
It's a very, very large

Spawning's Beitrag zu EU-Regulierungsdiskussionen

00:43:31
Speaker
market.
00:43:31
Speaker
And the American companies, actually any kind of global company,
00:43:37
Speaker
will not ignore that market.
00:43:40
Speaker
So one of the things that we look at is in the EU, there's a different approach.
00:43:47
Speaker
There's more interest in creating transparency on data source.
00:43:53
Speaker
There's already laws in place to prevent data mining.
00:43:57
Speaker
And so they're trying to expand that into AI scraping as well as data mining.
00:44:02
Speaker
Und was sie finden ist, dass wenn die EU, wenn man in die EU, wenn man in die Juristikation, dass ein Unternehmen in die Juristikation, weil man eine bestimmte Registikation hat, oder dass ein bestimmtes Guideline für wie sie in die Juristikation arbeiten,
00:44:24
Speaker
Es wird ein bisschen von einem Trickle-Down-Effekt, weil es ist eine Ecke zu bauen, zwei Versionen von etwas zu tun.
00:44:32
Speaker
Eine in den USA und eine in den EU.
00:44:36
Speaker
Well, it's a lot of extra work.
00:44:38
Speaker
Why duplicate it?
00:44:39
Speaker
So if you want to be in the EU, you would build your product to that specification, if that's the more strict version, and that would just become your kind of system-wide approach.
00:44:53
Speaker
If you look at cookies on websites, it's that.
00:44:57
Speaker
The U.S. didn't actually require that.
00:45:00
Speaker
auf eine Website, dass du auch wie die Cookies benutzt, aber alle die Websites sind da, weil wenn du eine Website hast, dass es in den EU ist, dann hast du das.
00:45:12
Speaker
Es ist einfach, okay, wir machen das, weil wir das auch, weil wir wollen, dass wir in beide Plätze sind, wir wollen nicht in beide Plätze sein.
00:45:20
Speaker
Wir wollen nicht in beide Plätze sein.
00:45:21
Speaker
Wenn wir das Trajektorys sehen,
00:45:24
Speaker
Das ist das, warum wir da und wir versuchen, opt-outs zu finden, dass das machine-readable standard in place ist.
00:45:31
Speaker
Es gibt keine Standard-Yet-Auswahl, und das ist das die Workgroups sind.
00:45:36
Speaker
Sie versuchen, was das opt-out standardization würde, um,
00:45:41
Speaker
Was würde es wenn es ein centralized opt-out wäre?
00:45:47
Speaker
Und wie würde es kontrollieren?
00:45:50
Speaker
Wie würde es bemanagement werden?
00:45:52
Speaker
Ich meine, es gibt all kinds von Fragen und Fragen von der Logistikseite.
00:45:57
Speaker
Und die Machine Learning companies und die Artists organizations sind auch lobbying auf beide Seiten.
00:46:04
Speaker
So sie versuchen, die middle ground zu finden, wo es nicht so verdient ist, dass die Machine Learning companies zu werden, zu sagen, Sie sind einfach nur
00:46:12
Speaker
Intentionally, you know, shutting down our business.
00:46:15
Speaker
So they have to have their say in it.
00:46:18
Speaker
And it's trying to find that middle ground of saying, okay, you need to do machine learning.
00:46:22
Speaker
You don't actually want to make everybody angry.
00:46:24
Speaker
You just want to make your product.
00:46:26
Speaker
So how can we do it in a way that you can still get a good result while all of these other, um,
00:46:32
Speaker
Rechtsholders can feel like they have control and say.
00:46:36
Speaker
So all of that is an evolving conversation.
00:46:41
Speaker
We're working in those work groups.
00:46:42
Speaker
They're kind of closed door.
00:46:44
Speaker
We can't really talk about who else is in them.
00:46:47
Speaker
It's all unofficial right now because it's a lot of brainstorming.
00:46:50
Speaker
It's a lot of frank conversations trying to work through how this works and where it goes.
00:46:57
Speaker
But the hope is that if we can establish a working model that the EU would adopt, that it would just be simpler for American companies to play by the same rules.
00:47:11
Speaker
So there is a form of the Brussels effect, so to speak, what we hoped for in the EUAI Act, that
00:47:22
Speaker
Regulating does have effects on foreign markets and that is why you have some skin in the game here too, right?
00:47:30
Speaker
Right, and that's exactly right.
00:47:32
Speaker
The Brussels effect, that was the term I was looking for before.
00:47:36
Speaker
Because we're going to have so much lobbying in Washington going back and forth, I think it's unlikely that you will see bills being passed into law at a rate that makes them relevant for the current tools that are being released.
00:47:53
Speaker
So the technology is being released faster than the laws could probably keep up with it right now.
00:47:59
Speaker
So the specifics on what that all looks like is going to be very mushy in the US legal system for a while.
00:48:08
Speaker
But if there are regulations in place in something like the EU, then companies will self-regulate in order to be applicable in those markets.
00:48:19
Speaker
So that's the hope is that
00:48:22
Speaker
Wenn man sich die Anregungen auf die Anregungen auf die Anregungen auf den AI-Instrieren kann, dann könnte man sich selbstregulation von der AI-Instrieren.
00:48:31
Speaker
Ich war in Forbes die anderen, wie diese Deregulation, die Trump ist, ist tatsächlich, um, die Anregungen auf die Anregungen auf
00:48:43
Speaker
the board members of companies much more so because it's a lot easier for them.
00:48:48
Speaker
They would prefer to just say, give us the rules and we will abide by them.
00:48:54
Speaker
Just give us what we need to do and then that's what we'll do.
00:48:57
Speaker
But when you say, we're not going to regulate you, just don't do anything wrong.
00:49:02
Speaker
It's much harder for the companies because they now have to manage very closely all of their different risks.
00:49:10
Speaker
So they have to be worried about where, because they can still be sued.
00:49:14
Speaker
They can still run into problems.
00:49:16
Speaker
They still have the huge problem of the reputational risk.
00:49:19
Speaker
So all of those, if you're allowed to say, hey, it's perfectly legal.
00:49:23
Speaker
This is what the government said we can do and we're doing it.
00:49:26
Speaker
Es ist viel einfacher zu spielen das so, dass es zu sagen, wir sind in der Wild West und ich glaube, wir haben etwas wirklich schlecht gemacht.
00:49:36
Speaker
So jetzt sind wir komplett responsible für das.
00:49:39
Speaker
Weil jetzt die Oversight required von jedem Unternehmen ist, wird es erhöhter, weil die Oversight von den Government ist, ist es tatsächlich die Bursache zurückgekehrt.
00:49:52
Speaker
to reevaluate all of their risks and reevaluate their, their protocols, because just because there's no regulations doesn't make them immune from the public.
00:50:02
Speaker
Ja, und von Existing Laws, richtig?
00:50:06
Speaker
Ja, und Existing Laws, auch.
00:50:08
Speaker
Und die US hat sich schon viel an den Existing Laws, Telecom Laws, Daten Privacy Laws, und sie sind jetzt re-applyt die jetzt zu AI.
00:50:17
Speaker
So sie sind jetzt auf die Buche und zu re-definieren, was die Terms sind.
00:50:23
Speaker
Das ist lustig, weil wir hier denken, das ist ein Tech-Bros'-Wett-Dream, zu haben keine Regulation zu haben, aber es macht total total Sinn, das Argument du hast, dass es sich weg von der Börden von selbst-Regulatung aus dem, was du gesagt hast.
00:50:44
Speaker
Und es still könnte die Tech-Bros'
00:50:48
Speaker
dream position, because the tech bro is the guy who's just trying to push things forward and make it happen and invent new and cool things.
00:50:56
Speaker
But the board of directors and the investors are going to have to now step up and say, okay, you

Schutz von Künstlerdaten und Opt-out-Strategien

00:51:03
Speaker
know, to protect our investments, we're going to need to watch you very closely to make sure that you don't go too far.
00:51:11
Speaker
So the deregulation for a researcher is great.
00:51:15
Speaker
der Deregulation für ein Investor, vielleicht nicht.
00:51:18
Speaker
Und für eine Serious Business Owner und ja, Employer.
00:51:26
Speaker
Und in der Trickle-Down, die von der Third-Party-People, die vielleicht beinwovilten in das.
00:51:31
Speaker
Jetzt, die Board-Members haben, die sie zu verhören, und jetzt die Clienten, die ihr Produkt,
00:51:36
Speaker
Jetzt haben wir zu schruten, was sie von ihr und schruten, was ihr Unternehmen.
00:51:41
Speaker
Wenn es ein large Business-to-Business-Purchase mit Services gibt, dann werden sie sich mit einem anderen zu schauen, um, in der sich zu machen, dass sie alle sicher sind und sicher sind, oder zumindest aus der Risik.
00:51:55
Speaker
Ja, ja, ja.
00:52:01
Speaker
Du hast eine Do-Not-Train-Registrie, wo ich meine eigene Website kann, oder inserte meine Bilder, meine Daten.
00:52:12
Speaker
Was ist das ein bisschen, was das hat?
00:52:14
Speaker
Oder was kann ich, als artist, aus dem so?
00:52:18
Speaker
So, die Do-Not-Train-Registrie ist etwas, das wir gebaut haben.
00:52:21
Speaker
Und dann geht es und
00:52:26
Speaker
Connect that with willing AI training companies.
00:52:29
Speaker
So some of the big commercial models, not all, are willing to play along with that.
00:52:35
Speaker
And they're saying, hey, you've gathered all of this information.
00:52:38
Speaker
It's ready to go.
00:52:39
Speaker
We can just ping your API and pull all of that in real time.
00:52:43
Speaker
So if somebody just registered something yesterday, it will be in that new list of opt-outs.
00:52:50
Speaker
And so if we do another round of training,
00:52:53
Speaker
Das ist, was ich in der letzten Stable Diffusion round.
00:52:55
Speaker
Es gibt 7 Millionen nicht mehr, weil das Registrier gibt, weil wir eine Agreement mit dem haben, um das zu passieren.
00:53:02
Speaker
Alles in der AI-Sphase, ich nicht sagen, dass es nicht alles, das ist, aber es ist nicht so, dass es nicht so, dass es nicht so, dass es nicht so, dass es nicht so, dass es nicht so, dass es nicht so, dass es nicht so, dass
00:53:14
Speaker
oder existen durch Willing Involvement oder Willing Acceptance.
00:53:21
Speaker
Es gibt keine Regulations, die die Do Not Train Registry muss, aber das ist das die EU, das ist das, was wir wirklich auf die Frage auf.
00:53:28
Speaker
Das ist das, was wir wirklich auf die Frage auf, was ich da.
00:53:30
Speaker
Es ist das, was ich da, was ich da, was ich da, was ich da,
00:53:34
Speaker
und es eine EU-weitere Registrierung, die notwendig ist, für Maschine-Learning.
00:53:40
Speaker
Das ist das, was wir jetzt an.
00:53:41
Speaker
Ist das etwas, was du für dich für oder für dich für das?
00:53:46
Speaker
Wir haben bereits die System und die Mechanik für das.
00:53:49
Speaker
Und so, wir versuchen, die Weg in der EU zu sagen, wir haben eine Expertise auf wie das funktioniert.
00:53:55
Speaker
Wir haben Expertise auf wie das funktioniert, wie das funktioniert, wie das mit dem Publik und
00:54:02
Speaker
haben wir uns auf die Seite an der Seite, wenn es das Daten-Governance-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-Grovern-G
00:54:22
Speaker
Right.
00:54:23
Speaker
And the opt-in systems are going to be more small scale.
00:54:28
Speaker
So Source Plus is an opt-in system.
00:54:31
Speaker
Exactly.
00:54:31
Speaker
So if you want to upload your own artwork and put it into the collective, anybody can download those images and train a model with them.
00:54:41
Speaker
So you're saying, hey, I'm going to give my images out there.
00:54:43
Speaker
I'm willingly putting it there.
00:54:45
Speaker
für die Worte der Maschine.
00:54:46
Speaker
Aber das ist eine SINGLE-Platform.
00:54:47
Speaker
So, zu versuchen, das Industrie-Wide zu versuchen ist, das ist nicht möglich.
00:54:55
Speaker
Ja, ja, ja, ja.
00:54:57
Speaker
Aber die Do Not Train Registry kann man das irgendwie an, so das ist etwas, dass Leute initially nur in der Form von Picturesen waren.
00:55:08
Speaker
Die Linke 5B ist ein Bildset, weil Linke 5B ist ein Bildset.
00:55:12
Speaker
Das ist die einzige, dass es sich an, was es ist.
00:55:17
Speaker
Aber die Do Not Train oder den EU-Central Registrier würde es data-agnostik.
00:55:24
Speaker
Es würde nicht interessieren, was du opt-out zu machen.
00:55:28
Speaker
So auf ours, für instance, ein paar Leute gehen und einfach register deine domain.
00:55:32
Speaker
So du registerst deine root domain des Webseite.
00:56:05
Speaker
Ich denke, es gibt noch ein paar Leute, was es sich in einem Dataset gibt.
00:56:13
Speaker
Ich habe mich auf den Lion 5B Dataset gefunden.
00:56:18
Speaker
Was das bedeutet?
00:56:21
Speaker
Was kann ich mit diesem Informationen machen?
00:56:24
Speaker
Kann ich die Bilder aus?
00:56:25
Speaker
Das ist die Sache, dass die Bilder nicht in der Linie sind.
00:56:31
Speaker
The URLs to your images are in there.
00:56:37
Speaker
Okay.
00:56:38
Speaker
So when you download the dataset, it's just all text.
00:56:41
Speaker
The dataset is simply a text where you have your link to the image and the caption for what that linked image is.
00:56:49
Speaker
And then when you do the web scraping, which is the difference between a crawler and a scraper, the scraper is the bot that is assigned by whoever's doing the training to say, okay,
00:57:00
Speaker
Hier sind alle die Bilder, hier ist das Portion der Datasette oder der Entferne Datasette.
00:57:05
Speaker
Jetzt gehen Sie und gehen Sie.
00:57:07
Speaker
So die Bot geht aus und ist eigentlich die Daten für alle die Bilder, so dass Sie sie auf die Server bekommen.
00:57:14
Speaker
Es wird ein Massive-Chunk-Empfaktes wieder, das Leute nicht wollen, haben sie alle Zeit.
00:57:18
Speaker
Sie wollen sie nicht mehr haben, diese Terabyte von Bildern.
00:57:23
Speaker
So die Schraper geht aus, findet die Bilder, downloads sie, und dann wird das die Training-Prozess.
00:57:30
Speaker
But your images aren't housed on some nefarious hard drive somewhere.
00:57:37
Speaker
It's the link to your image.
00:57:40
Speaker
So that image could be on social media.
00:57:42
Speaker
That image could be anywhere if you find your image there, but it's just that URL.
00:57:48
Speaker
So what we're doing as the Do Not Train Registry is creating a
00:57:54
Speaker
An updated list of every URL to ignore.
00:57:58
Speaker
So when you have the large dataset list of URLs, it just simply searches through, finds the ones that match from the do not train, and it just deletes them from the list.
00:58:07
Speaker
Then they go out and do their scrape as they normally would to go and fetch all the rest of the images.
00:58:13
Speaker
So if they were training on video or audio or anything, and they're respecting that, it's essentially just looking for those URLs for whatever the data happens to be and saying, oh,
00:58:23
Speaker
Don't go to that URL.
00:58:25
Speaker
Don't use that.
00:58:26
Speaker
So that is what the robots text and the AI text is basically for.
00:58:31
Speaker
To be the warning sign on your website.
00:58:37
Speaker
A border between the link
00:58:39
Speaker
to the URL in the Lion 5B dataset and the crawler that is... Scraper, but yes.
00:58:48
Speaker
Thank you.
00:58:49
Speaker
Yeah, I'm sorry.
00:58:51
Speaker
So when your scraper comes in and sees AI.txt or the web crawler is for the robots.txt, it's going in there.
00:59:00
Speaker
And as soon as if those bots are programmed to respect those pieces of code, it's saying, okay, I'm assigned to go and find this URL.
00:59:09
Speaker
Ich habe die URL gelegt, es ist nicht zu sehen, ich komme zurück und sage, nein, und dann geht es zu der nächsten.
00:59:16
Speaker
So, wenn es nicht programmiert ist, dass das nicht immer so ist, dass es fair game ist, so zu sprechen, dass es nicht immer so ist, dass es nicht so ist, dass es fair game ist, so zu sprechen, die das respectieren und es nicht.
00:59:35
Speaker
Ja.
00:59:35
Speaker
Ja.
00:59:36
Speaker
Es wird für die halbe Stunde der Arbeit von sich um, ich denke, das wäre gut.
00:59:44
Speaker
Ich könnte ein paar verschiedene Analogs für das, aber es ist eigentlich, du willst, in welche Weise du kannst, wenn du wirklich über das konzentriert bist.
00:59:54
Speaker
Ich habe mit Menschen, die so upset sind, dass sie eigentlich alle ihre Content auslöschen.
01:00:02
Speaker
Das ist die Hauptsache, die sich von einem Schraubchen zu geben, von nichts zu machen.
01:00:08
Speaker
Das ist eigentlich eine der Dinge, die ich meine eigenen Studen in meinen Klasse erzähle.
01:00:12
Speaker
Ein paar Leute sind über was deine Digital Footprint sieht,
01:00:17
Speaker
As far as your social media goes and how that might come back to haunt you in the future.
01:00:22
Speaker
But I also tell artists to read, be conscious of what their portfolios are online.
01:00:28
Speaker
Be conscious of where you put your images, because if you put your images on Instagram, when you sign up for Instagram, you go through their old terms of service and you say, I opt in for all AI training.
01:00:41
Speaker
Agree.
01:00:43
Speaker
Really?
01:00:46
Speaker
Ja.
01:00:47
Speaker
Okay.
01:00:47
Speaker
And other social media platforms are like that, too.
01:00:49
Speaker
You got to go read through that very long and annoying Terms of Service.
01:00:52
Speaker
But you'll often find that as soon as you put it onto social media, that's almost across the board, that they can do what they want with those images.
01:01:00
Speaker
At least in the US, because I know I remember that discussion I've had about LinkedIn, where in the US they had an automated opt-in for exactly what you're describing.
01:01:13
Speaker
And I, being a resident in the EU, just got a message.
01:01:17
Speaker
There is a new service.
01:01:18
Speaker
No worries.
01:01:19
Speaker
Because of GDPR data protection in the EU, we're not going to apply it in the EU.
01:01:25
Speaker
You don't have to mind that.
01:01:26
Speaker
Aber ja.
01:01:27
Speaker
Und so es kommt es um, wenn du dich über deine Sachen beschäftigen, nicht auf ein paar andere 3D-Parten.
01:01:37
Speaker
Das ist ein Fortschritt, aber das ist die Art der Art von einem Artist.
01:01:45
Speaker
You make more teasers, you make more little bits of things and drive traffic back to your own private URL where you can then protect that better.
01:01:58
Speaker
So some people have taken all this stuff offline.
01:02:01
Speaker
I think that's a bit of a Luddite extremist view of like, well, I'm not going to use the internet anymore.
01:02:08
Speaker
That's not really realistic.
01:02:11
Speaker
Or
01:02:12
Speaker
There's people who will put stuff more into password zones, because if there's a password, the scraper can't get to it.
01:02:20
Speaker
I've had other people who go through and just rebuild their sites.
01:02:24
Speaker
So if they found their image in the Lion 5B dataset, but they retool their entire website, so every image has a new URL identifier, that original link goes to nothing.
01:02:39
Speaker
So it will go and it will pull no image because there's no, that link is dead.
01:02:46
Speaker
So like there, there's ways that people are working to, to protect those things, but to just make it easier, putting things on like a do not train registry at the root level is a simple safeguard.
01:02:59
Speaker
It might not be respected by everybody, but wouldn't you rather be respected by some people?
01:03:04
Speaker
Ja, ja.
01:03:05
Speaker
Und haben eine properer Handlung auf die Menschen, die nicht zu retten, wenn es ausgesucht wird, durch die Daten-Transparency-Laws, die auch ein Teil der AI-Act, zum Beispiel, das wird in der Mitte 2026 sein, glaube ich.
01:03:24
Speaker
Und ich habe totalen Ihre Argumenten.
01:03:27
Speaker
Ich wollte nur ein Verwaltungen machen, für unsere Listener hier.
01:03:29
Speaker
Ich bin besser vorbereitet für eine einfache Argumenten
01:03:34
Speaker
when I obviously clearly and unmistakably stated in a machine-readable way that I don't want this to happen.
01:03:45
Speaker
So please, this is a very clear case in a class action or in a future whatever law involving scenario.
01:03:59
Speaker
Rather than I didn't do anything at all.
01:04:02
Speaker
And now I'm complaining that I've been right.
01:04:06
Speaker
Right.
01:04:06
Speaker
So if you're trying to put the burden of proof of saying I was trying to not be involved, I made a good faith effort to try to not be involved, but I was still involved anyway, that yes, it makes a much clearer argument down the road.
01:04:22
Speaker
If you were to try to make a case against somebody.
01:04:25
Speaker
Und natürlich, als ein Voice Artist und in einer Form der Voice Artist Community, ich bin interessiert, ob du planst auf die Registration auf Voice Datasets auf?
01:04:43
Speaker
Oder was deine Planschreiber?
01:04:45
Speaker
Und das würde dann auch einfach nur um die Registrationen
01:04:52
Speaker
Voice generative companies to get them to respect the same registry because the URLs again, doesn't matter what they link to.
01:05:01
Speaker
So if you have a bunch of voice samples on a website and they are linkable and they're hosted there, you can still put all that into the do not train registry.
01:05:13
Speaker
It's just now a matter of who are the AI voice companies and are they willing to respect that registry or not?
01:05:22
Speaker
Without there being any kind of legal mandate for those registries to be respected, it just comes down to how well can you convince one of these other companies to play along.
01:05:34
Speaker
And it doesn't matter the form of data, whether text, image, video, audio is not relevant to the process or to the... No, having the registry of just saying these URLs should not be included in any machine learning process.
01:05:51
Speaker
Don't scrape anything at this URL.
01:05:54
Speaker
That's ultimately what it comes down to.
01:05:56
Speaker
So there's more nuance about what the machine-readable versions would be, where it gets put into the website.
01:06:04
Speaker
Like ai.txt is just this kind of add-on script, but there's other things like HTTP headers, different ways, depending on how web-savvy you are, to kind of wrap your site in clear protections.
01:06:21
Speaker
Es kind of depends on where the burden is on the tech companies, how much machine-readable content they need.
01:06:29
Speaker
Is it simply enough to put an AI.Text on there?
01:06:31
Speaker
That would be great, because you can do those with a WordPress plugin, not too difficult.
01:06:38
Speaker
I made a little five-minute training video and it walks you through it.
01:06:41
Speaker
It's a pretty quick thing.
01:06:42
Speaker
Oh, really?
01:06:43
Speaker
We can link that in the show notes if you like.
01:06:47
Speaker
So the process of doing that would not be that hard.
01:06:50
Speaker
It's just now a matter of can we get the other side, the other party, which is the training companies to respect it.
01:06:58
Speaker
So voice, whatever.
01:07:02
Speaker
Don't think about it only, Have It Been Trained is an image searching tool, but because that's what it's looking at is Line 5B, but you can actually still add things to the Do Not Train registry by going to your account.
01:07:17
Speaker
There's also a browser extension.
01:07:19
Speaker
So if you're using Chrome, I think we have one for Firefox too, I think.
01:07:24
Speaker
But I know for sure for Chrome you can just make it as a browser extension.
01:07:28
Speaker
So on any given page you can pop it up and look for whatever the images are on that page or whatever URLs you want.
01:07:35
Speaker
And then you can just click and add those as you go.
01:07:38
Speaker
So that's a really useful way of going into social media.
01:07:43
Speaker
So if you're
01:07:44
Speaker
und die Leute reposten ihre Arbeit auf ihre Instagram-Akonsen oder in Pinteresten oder in anderen Plätzen, kann man auch noch opt-out auf ihre Images auf ihre Accounts, weil es noch eine bestimmte URL gibt, die das Bild zu dem Bild.
01:08:01
Speaker
Ich wollte das zu sagen, weil ich als ein selbst-employed, kreativ worker, ich auch meine Arbeit aus der Hand gewinnen und mit dem, ich verhüben, die die Klinik, die es auf Instagram-Klinik, die es auf Instagram-Klinik, die es auf Instagram-Klinik, die es auf ihrer Website, die keine Robots-Text oder AI-Text auf es.
01:08:26
Speaker
Es ist ein possibility, wo ich noch ein bisschen kontrolliere, wenn ich weiß, dass es eine Version von meinem Werk ist.
01:08:37
Speaker
Ich kann da und da den URL-einhalten.
01:08:44
Speaker
Right.
01:08:44
Speaker
So if you went in and you wanted to add that image, you gave it to a client, the client puts it onto their most recent projects page.
01:08:53
Speaker
You could go and click on the link to your image or your content there, and then add that to the Do Not Train registry.
01:09:02
Speaker
Wow.
01:09:03
Speaker
And, but I think a lot of people also think that they want to be pulled out.
01:09:07
Speaker
I get emails all the time from angry artists saying,
01:09:32
Speaker
Das war in das als Teil der Model ist, dass das nicht mehr so aus dem Modell ist.
01:09:38
Speaker
Wenn du so aus dem Modell bist,
01:09:42
Speaker
You have been trained.
01:09:43
Speaker
There's no way to delete yourself.
01:09:47
Speaker
But what you can do is prevent yourself from being trained again.
01:09:53
Speaker
And that's why in the Lion 5B dataset, because people were reusing that.
01:09:57
Speaker
It's such a big dataset.
01:09:58
Speaker
It gets reused and reused by different training companies.
01:10:04
Speaker
So by going through and saying, okay, I found my 10 images on Lion 5B and I want them all to not be trained on.
01:10:11
Speaker
Okay, so when people are reusing that common data set, they won't be using those images.
01:10:17
Speaker
But by adding your images to a Do Not Train Registry, even if they aren't on Lion 5B, you're trying to future proof yourself.
01:10:26
Speaker
So when the next common crawl happens, and that's how this, the first step is common crawl goes out and it finds images.
01:10:35
Speaker
So it's like, here's where those images are.
01:10:38
Speaker
Und dann ein company wie Lion will sagen, hey, wir haben eine große Liste von Images, wir gehen und finden die Images und dann benutzen Clip zu captionieren.
01:10:49
Speaker
Und dann wird das alles in eine kleine Package, dass jemand, der eine Daten-Scientist, kann man und trainieren eine Basismodelle von.
01:10:59
Speaker
Ich bin wahrscheinlich auf den Boring-Technical-Side.
01:11:02
Speaker
Und ich finde es spannend, dass Leute, wie du, oder Spaulding in das Regarde, um zu machen, um zu machen, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu halten, um zu
01:11:29
Speaker
They find their picture on have I been trained and they're like, you have my picture, get rid of it.
01:11:34
Speaker
I'm like, no.
01:11:36
Speaker
Have I been trained is just linking to your own website and saying, yes, this image from your website is in their dataset.
01:11:44
Speaker
Yeah, yeah, yeah.
01:11:45
Speaker
Anyway, fine.
01:11:49
Speaker
I explain it.
01:11:49
Speaker
Yeah, I think it's educational, right?
01:11:51
Speaker
It's an educational process and you probably have to answer the same questions again and again.

Zukunft der KI in kreativen Branchen

01:11:59
Speaker
Ich habe 20 Jahre teaching, so ich bin gut zu answern.
01:12:02
Speaker
Okay, Kurt, ich denke, das ist ein guter Platz zu wrapen.
01:12:11
Speaker
Ich weiß, das ist wahrscheinlich die hardest Frage zu stellen, aber vielleicht ein bisschen zu foreschadigen,
01:12:47
Speaker
Wir sind auch die Idee, dass das sehr AI-Eig ist.
01:12:50
Speaker
Wir sehen uns das Bild an, dass das Bild an sich an, dass es eine bestimmte Plastikiness oder Glossiness oder so.
01:12:58
Speaker
Und es ist wirklich gut für Memes und wir sind sehr üblich zu sehen, dass es die Dinge thrown around ist.
01:13:05
Speaker
Die neue Video Models, die wir aus dem Outen sind, sind es länger, so dass es, es ist, dass es nur drei Sekunden ist.
01:13:12
Speaker
Und jetzt ist es 10 Sekunden, und es ist 10 Sekunden, und es ist länger und mehr robust.
01:13:16
Speaker
You can start controlling more content within it.
01:13:19
Speaker
So you can, I want this piece to move and that piece to move and so on.
01:13:23
Speaker
I think as those models come out,
01:13:27
Speaker
Das ist, dass wir ein viel growth werden.
01:13:30
Speaker
Wenn du ein Image-Generation-Modell kannst, kannst du dann an Image-Generation-Modell generieren und dann annehmen das Image-Mix.
01:13:38
Speaker
Da gibt es verschiedene AI-Voice-Avatar-Tools.
01:13:44
Speaker
Ich muss eine Talk-Head-Head-Hitern für mein HR-Trainings-Video.
01:13:50
Speaker
Ich muss nicht einfach jemanden für das.
01:13:52
Speaker
Ich werde einfach nur die, die, die, die
01:13:56
Speaker
Elizabeth Voice on this web avatar and it will do my HR training session for me.
01:14:03
Speaker
So when you have a company like Hedra does really great lip sync, has some interesting voices there.
01:14:10
Speaker
You can also train your own voice to do that.
01:14:14
Speaker
Now you get in that complete package and that's why I'm talking about the multimodal stuff.
01:14:19
Speaker
I think we're going to see more and more of that as people push to AGI.
01:14:23
Speaker
I think we're going to see more robust
01:14:26
Speaker
mit dem Bildschirm, mit dem Bildschirm, mit dem Bildschirm.
01:14:33
Speaker
Jetzt kann man das alles tun, aber es ist mehrere Schritte und es gibt mehrere Plattformen.
01:14:39
Speaker
Ich denke, die Leute, die die in einem einen Package werden, die in einem Package werden, werden sie zuerst leipen.
01:14:47
Speaker
Okay.
01:14:47
Speaker
Well, food for thought for the dubbing industry, for example.
01:14:55
Speaker
Well, that's why I brought up on the voice side of things.
01:14:57
Speaker
There is a lot that's going on in that space.
01:15:01
Speaker
And I don't know if you've looked at Hedra, H-E-D-R-A, or not.
01:15:07
Speaker
I've heard about it, but I didn't bring up the strength, the inner strength to look at it properly.
01:15:15
Speaker
You can...
01:15:16
Speaker
Leave it out of the podcast if you want, but...
01:15:20
Speaker
Neural Vision is a YouTube channel that might be worth checking out.
01:15:25
Speaker
I think it's called Neuro Vision.
01:15:27
Speaker
So he releases a film every week and he's creating this kind of alien race that exists thousands of years after humans go extinct.
01:15:37
Speaker
But it's really well done.
01:15:38
Speaker
The image generations come out of Mid Journey and then he's animating them and then he's using Hedra to do these lip syncs.
01:15:46
Speaker
So it's
01:15:48
Speaker
Very convincing, and they're using their own audio files.
01:15:51
Speaker
So you can look at that as also a case for they give you three pre-programmed AI voices, but this Neurovision web channel is really successful because they're still acting.
01:16:04
Speaker
And the facial expressions on the characters are reflecting the emotions of the voice that's uploaded.
01:16:12
Speaker
Mm-hmm.
01:16:12
Speaker
Okay, great.
01:16:14
Speaker
So he's got his friends coming in and there is recurring characters as the voices, but now there's a way to animate to the voices instead of trying to get the voice to match the animation.
01:16:25
Speaker
So it's like reverse dubbing.
01:16:27
Speaker
Mm-hmm.
01:16:27
Speaker
Okay.
01:16:45
Speaker
Man kann sagen, dass es AI-Tools kommen, die die Vögel-Aktoren werden, stattdessen der Vögel-Aktoren werden.
01:16:54
Speaker
Aber man muss sich bereit sein, um zu danceeln.
01:16:57
Speaker
Man muss sich bereit sein, um verschiedene Plattformen zu machen und machen eine Kase für sich.
01:17:03
Speaker
Okay, okay.
01:17:05
Speaker
Ja, ich sehe.
01:17:07
Speaker
Nimmel.
01:17:10
Speaker
Okay, yeah, I will check it out.
01:17:12
Speaker
And after I have checked it out, I will consider whether we leave that in or not.
01:17:17
Speaker
Anyway, I'm not trying to endorse it, but I've definitely played around with it.
01:17:21
Speaker
Just uploaded a picture of myself, typed in a little limerick, and it's...
01:17:29
Speaker
Das ist ein sehr guter Wichtiges.
01:17:32
Speaker
Ja, ja, ja, ja.
01:17:35
Speaker
Ja, ja, ja.
01:17:35
Speaker
Ja, das ist sehr gut.
01:17:37
Speaker
So viel von wo wir auf der Limit gerade ist, ist einfach auf die Hardware.
01:17:41
Speaker
Und das ist die andere Sache.
01:17:42
Speaker
NVIDIA hat sich mit einem neuen Chip
01:17:45
Speaker
Das ist speziell für die Art, die ich aus dem Laptop bin.
01:17:47
Speaker
Du kannst die Art von AI auf dem Laptop bewerben.
01:17:50
Speaker
Du kannst die Art von AI auf dem Laptop bewerben, viel mehr effizient.
01:17:54
Speaker
Wenn die Art von Hardware kommt, um diese Dinge zu unterstützen, dann ist das die Ge- und-Tage.
01:18:00
Speaker
AI ist nur als gut als die Daten und die Prozessor.
01:18:03
Speaker
Wir geben es besser Daten, geben es besser Prozessor, und wir werden nicht wirklich sehen, wie es geht, wie es geht, als die zwei Dinge zu erhöhen.
01:18:12
Speaker
Ja, die nur die Unterschiede ist, dass die Entwickler und tech-companien sind bereitstehen für die tech und nichts für die Daten.
01:18:23
Speaker
Ja, vielleicht ist das ein guter Platz, Kurt.
01:18:31
Speaker
Ich habe es sehr, sehr, sehr, sehr.
01:18:32
Speaker
Ich habe es sehr, sehr, sehr,
01:18:58
Speaker
Wenn du ein Text hast, dann message mich an deeptalk.mike-rider.com und so lange.
01:19:04
Speaker
Bis zum nächsten Mal.
01:19:06
Speaker
Bye-bye.