Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
Avatar
469 Plays2 years ago

In dieser Folge spricht Jacqueline Klusik-Eckert mit Dr. Fabian Offert über AI Art im Allgemeinen, wie sich das Genre mit den neuen Bildgeneratoren jüngst verändert hat und die dahinterliegenden KI-Verfahren. Dabei beleuchten sie schlaglichtartig die historischen Entwicklungen und die Herausforderungen für die Kunstgeschichte im Umgang mit den neuen Bildmedien.

Schon lange vor der Veröffentlichung von Dall-E oder Midjourney nutzen Künstler*innen die Verfahren von Machine Learning und später Neuronalen Netzen bis zu generativen Modellen. Der Überbegriff AI Art umfasst Kunstwerke, die mithilfe von künstlicher Intelligenz und speziellen Algorithmen erstellt oder beeinflusst werden, wobei die Technologie entweder als Werkzeug für Künstler*innen dient oder autonom Kunstwerke generiert. Es umfasst eine breite Palette von Ausdrucksformen, die von algorithmisch gesteuerten Designs bis hin zu Werken reichen, die vollständig von KI-Systemen erzeugt werden. Das Genre ist aufgrund der heterogenen Werklage schwierig zu fassen.

Doch mit dem öffentlichen Zugang zu den Verfahren über einfach zu bedienende Interfaces hat sich nicht nur das Genre AI Art geändert. Die neuen Bildgeneratoren lassen uns alle zu Künstler*innen werden: mit einem Prompt, einer Texteingabe an ein KI-System, werden Rechenprozesse angestoßen und neue Bilder generiert. Sie entstehen jedoch nicht in einem Vakuum, sondern sind Ergebnisse von Lernprozessen mit Millionen eingespeister Bilder. In dem Gespräch wird der Frage nachgegangen, wie wir mit diesen neuen Bildmedien in der Kunstgeschichte umgehen können. Was ist notwendig, um die dahinterliegenden Prozesse zu verstehen? Wie geht man beispielsweise mit Fragen des geistigen Eigentums um, wenn KI-Systeme von bestehenden Kunstwerken lernen? Und was hat die Mona Lisa damit zu tun? Wie beeinflusst die Verbreitung von ki-generierter Kunst den Kunstmarkt? Neben ethischen und rechtlichen Bedenken geht es aber auch um die Beziehung von Künstler*innen, Werk und Technik. Dabei wird klar, dass wir sowohl im bildwissenschaftlichen als auch gesellschaftlichen Diskurs mitten in einer Verhandlungsphase stecken. Wie gehen wir mit der Black Box Künstliche Intelligenz um? Was macht dieser neue Kanon und die versteckte, implizite Zensur hinter den Unser-Interfaces mit der Art uns Weise, wie wir diese Bilder verwenden und die Welt sehen? Es zeigt sich, dass vorherrschende Vorurteile durch die KI-Systeme verstärkt werden. Dabei wird auch deutlich, welche Verantwortung die Kunstgeschichte nun hat, die aktuelle Debatten mitzuführen.

Dr. Fabian Offert ist Assistant Professor in History and Theory of Digital Humanities an der University of California, Santa Barbara. In seiner Forschung beschäftigt er sich schon lange mit den Wechselverhältnissen von Medien- und Kulturtheorie, Künstlicher Intelligenz und dem Einsatz von Computer Vision in den Geisteswissenschaften.


Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast

Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter

https://doi.org/10.11588/heidicon/1738702

Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter

podcast@digitale-kunstgeschichte.de

Recommended
Transcript

Einführung in ArtistoCast

00:00:07
Speaker
ArtistoCast, der Podcast zur digitalen Kunstgeschichte.
00:00:16
Speaker
Solange es Computer gibt, wurde mit ihnen auch Kunst gemacht.
00:00:20
Speaker
Und KI-Kunst, also AI-Art, ist kein neues Phänomen.

Geschichte der KI-Kunst

00:00:25
Speaker
Bereits in den 1970er Jahren, vermehrt dann in den 2000ern, gibt es Künstlerinnen und Künstlern, die sich dieser Technik auf vielseitige Arten angenommen haben.
00:00:35
Speaker
In diesem Jahr sprechen wir in der Kunstgeschichte wieder vermehrt und sehr öffentlich über AI-Art und meinen damit meist die durch generativen Modelle erstellten Bilder, die Ergebnisse einer Spracheingabe eines Prompts sind.
00:00:49
Speaker
Mit den mehr oder weniger freien Anwendungen wie Mid-Journey, DAL-E oder Stable Diffusion ist es nun allen möglich, damit zu arbeiten oder zu spielen.
00:00:59
Speaker
Sie kommen nämlich nicht nur als Algorithmus oder Code daher, sondern haben einfach zu bedienende Interfaces.
00:01:05
Speaker
Die Verfahren sind dadurch nicht mehr den Machine Learning SpezialistInnen vorbehalten.
00:01:10
Speaker
Man schreibt einfach einen kleinen Text, eben den Prompt, und auf Knopfdruck entsteht, wie von Zauberhand, ein neues Bild.
00:01:17
Speaker
Ein Bild, das vorher nicht existiert hat und nach dem erneuten Drücken auch nicht wiederzubekommen ist.
00:01:24
Speaker
Wie viel Zufall steckt in den Bildern und wie gehen wir mit dem Medium AI generiert das Bild um?
00:01:30
Speaker
Wie können wir mit dem kunsthistorischen Werkzeugkasten, den wir zur Verfügung haben, diese Bilder und auch die dahinterliegenden Prozesse analysieren?
00:01:39
Speaker
Schließlich ist die künstliche Intelligenz, die AI, irgendwie auch eine Black Box.

Interview mit Dr. Fabian Offert

00:01:44
Speaker
Doch AI-Art als Kunstgattung ist mehr als nur die jetzt gehypten Bildgeneratoren.
00:01:52
Speaker
Ich spreche mit Dr. Fabian Offert über AI Art im Allgemeinen, die neuen generierten Bilder und die dahinterliegenden Verfahren.
00:02:00
Speaker
Er ist Assistant Professor in History and Theory of Digital Humanities an der University of California, Santa Barbara.
00:02:08
Speaker
In seiner Forschung beschäftigt er sich schon lange mit den Wechselverhältnissen von Medien- und Kulturtheorie, künstlicher Intelligenz und dem Einsatz von Computer Vision in den Geisteswissenschaften.
00:02:24
Speaker
Es vergeht irgendwie im Moment kaum eine Woche, in der es nicht irgendeinen Abendvortrag gibt mit KI und Kunst, AI-Art, das Ende der Kunst, das Anfang einer neuen Kunst.
00:02:36
Speaker
Was will uns dieses Medium damit sagen?
00:02:38
Speaker
Wer ist der Künstler?
00:02:40
Speaker
Was verbirgt sich gerade hinter diesem Hype?
00:02:43
Speaker
Warum ist das gerade so ein großes Thema?
00:02:46
Speaker
Ja, also einerseits ist es natürlich ein großes Thema, weil es zu einem großen Thema gemacht wird von den Leuten, die KI-Systeme bauen, von der Industrie.
00:02:55
Speaker
Man kennt die großen Player, die diesen Hype verursachen, die dahinter stecken.
00:02:59
Speaker
Google, Facebook, Meta, OpenAI vor allen Dingen im Moment und so weiter.
00:03:05
Speaker
OpenAI ist die Firma, die TechGPT auch gemacht hat.
00:03:10
Speaker
Ja, das ist der eine Grund, aber auf der anderen Seite ist,
00:03:13
Speaker
gibt es tatsächlich, glaube ich, Konsequenzen für, sagen wir mal, die ästhetische Produktion aus so Dingen wie Bildgeneratoren, die ja Mitarbeiter wahrscheinlich auch jeder kennt.
00:03:24
Speaker
Also man könnte zum Beispiel Dally nennen, Dally 2 in der aktuellen Version, Midjourney benutzen viele Leute oder auch Stable Diffusion.
00:03:34
Speaker
Und da gibt es eben schon, sagen wir mal, Konsequenzen, die
00:03:42
Speaker
Interessant sind.
00:03:43
Speaker
Also das Ende der Kunst würde ich jetzt noch nicht proklamieren wollen, aber zumindest ist es, glaube ich, interessant, sich diese Konsequenzen mal anzuschauen genau und zu belegen, was es eigentlich heißt, dass wir jetzt Bilder machen können mit KI-Systemen.

Entwicklung generativer Modelle

00:03:56
Speaker
Bevor wir uns auf diese theoretische Ebene begeben, würde ich doch gerne verstehen, was dahinter liegt.
00:04:03
Speaker
Generative Modelle hast du jetzt schon angesprochen.
00:04:05
Speaker
Also das sind trainierte Systeme, KIs, wie dann der Hype-Begriff auch heißt, die Bilder erstellen.
00:04:15
Speaker
Also man gibt einen Prompt ein, also einen kurzen Text und daraus werden Bilder ausgesucht.
00:04:23
Speaker
Wie kann man das verstehen, ohne jetzt in Wahrscheinlichkeitsrechnung einsteigen zu müssen?
00:04:29
Speaker
Ja, vielleicht versteht man das am besten, wenn man sich kurz anschaut, was die
00:04:35
Speaker
Geschichte ist hinter diesen Systemen oder was auch frühere Systeme leisten konnten und was die Systeme leisten können, die wir heute haben.
00:04:41
Speaker
Das Ganze fängt an ungefähr, ich sag mal, um das Jahr 2012 herum vielleicht.
00:04:47
Speaker
Es gibt also ein sehr wichtiges KI-Paper, das immer so genannt wird als Anfangspunkt überhaupt der gegenwärtigen KI-Revolution, wenn man es denn so nennen will, oder auf jeden Fall am Anfang der Techniken, die wir jetzt haben.
00:05:01
Speaker
Und um 2014 herum
00:05:04
Speaker
gibt es erste Versuche und es gibt natürlich auch, wie immer, wenn man Dinge historisch aufarbeitet, schon Punkte in der Geschichte vorher, wo man sagen könnte, ja, eigentlich ist das schon im Ansatz da, aber wenn man, sagen wir mal, das Konsensnarrativ bedienen will, dann fängt es um 2014 herum an, dass Informatikerinnen und Informatiker experimentieren mit
00:05:25
Speaker
KI-Systemen, die Bilder produzieren können.
00:05:28
Speaker
Es hat angefangen mit einem System, das heißt Generative Adversarial Network, a mouthful, wie der Amerikaner sagt, muss man sich auch nicht merken, aber das war ein System, das eben zum ersten Mal nicht zur Klassifizierung eingesetzt wurde, also um
00:05:44
Speaker
eine Gruppe von Bildern von einer anderen Gruppe von Bildern zu unterscheiden, sondern um Bilder hervorzubringen.
00:05:51
Speaker
Und das hängt zusammen auch mit einer ganz anderen grundsätzlichen Frage in der KI-Forschung, nämlich was können wir eigentlich wissen über die Systeme, die wir so bauen.
00:06:02
Speaker
Die sind sehr kompliziert, das weiß mittlerweile auch jeder, aber was wird eigentlich gelernt, wenn etwas gelernt wird?
00:06:09
Speaker
Und
00:06:10
Speaker
Um diese Zeit herum gibt es eben auf der einen Seite Versuche, Bilder zu machen, einfach for the fun of it, weil man es kann.
00:06:17
Speaker
Auf der anderen Seite gibt es eben auch den Versuch, solche Systeme einzusetzen, um zu visualisieren, was eigentlich vorgeht in KI-Systemen.
00:06:26
Speaker
Das ist der Punkt, wo diese Art der Bildgeneration so ihren Ausgang nimmt.
00:06:33
Speaker
Und was wir heute haben, ist im Grunde eine weiterentwickelte Variante von den Systemen, die wir schon vor mittlerweile ja fast zehn Jahren hatten, plus Sprache.
00:06:43
Speaker
Das ist immer wichtig zu sagen.
00:06:44
Speaker
Um 2020, 2021 herum gibt es den Wechsel zu sogenannten multimodalen Modellen.
00:06:51
Speaker
Das heißt Modellen, die nicht nur Bilder oder nur Text verarbeiten können, sondern die beides gleichzeitig machen.
00:06:56
Speaker
Und deswegen ist unser Interface für diese Modelle mittlerweile der sogenannte Prompt, also ein Satz, den man eingibt,
00:07:03
Speaker
Und auf den hin dann ein Bild generiert wird.
00:07:06
Speaker
Also ich kann noch aus dieser Anfangszeiten diese sehr einfachen Gans.
00:07:11
Speaker
Da hatte man dann irgendwie ein Foto, weiß ich nicht, eine Stadtansicht.
00:07:15
Speaker
Und dann konnte man dann das da reinschieben und es kam dann irgendwas im Stil von Van Gogh raus oder so.
00:07:21
Speaker
Also die wurden dann immer auf einen gewissen Stil hin trainiert.
00:07:25
Speaker
Das Modell, das konnte dann Van Gogh, das andere konnte Monet machen.
00:07:30
Speaker
Und erst mit dieser Kombination auch mit Text sind die dann so mächtig geworden, dass sie auch jenseits von einem Stil arbeiten konnten?
00:07:41
Speaker
Ja, auf der einen Seite ja.
00:07:44
Speaker
Das hat zu tun mit Verbesserungen in, sagen wir mal, dem wissenschaftlichen oder technischen Ansatz.
00:07:50
Speaker
Also die Architekturen sind einfach besser geworden, die Ansätze funktionieren besser.
00:07:53
Speaker
Aber es hat natürlich auch viel damit zu tun, dass die Trainingsdatenmengen immer größer geworden sind.
00:08:00
Speaker
dass wir mittlerweile Datasets haben, die, die Datasets, die man so kennt, die kanonisch geworden sind, ImageNet zum Beispiel, was ja in der Version, wie es benutzt wird, anderthalb Millionen Bilder hat und mittlerweile haben wir Datasets, die mehrere Größenordnungen darüber liegen.
00:08:19
Speaker
Und damit hat es natürlich auch zu tun, dass man freier Bilder generieren kann, dass es möglich ist, aus jeder Stilrichtung Dinge zu produzieren.
00:08:31
Speaker
Jetzt hattest du den Problem schon angesprochen.
00:08:33
Speaker
Manchmal wirkt es ja so, wenn man die benutzt und nicht viel Ahnung hat, was dahinter passiert, dass die Bilder so aus einem Nichts herauskommen.
00:08:40
Speaker
Jeder, der so ein bisschen was von KI versteht, weiß, dass so ein Machine Learning, Deep Learning Modell oder neuronales Netz nur so gut ist, wie auch die Daten, mit denen es gefüttert wurde und der Trainingsprozess, der auf dieses Modell gelaufen ist.
00:08:54
Speaker
Sind die Bilder, die dann am Ende rauskommen, wirklich so aus dem Nichts heraus?
00:09:00
Speaker
Also sind das alles neue Erfindungen?
00:09:03
Speaker
Wie kann man das einordnen?
00:09:05
Speaker
Ist das alles, was vorher noch nie da war?
00:09:07
Speaker
Also jetzt kommen wir vielleicht doch in die Wahrscheinlichkeitsrechnung.
00:09:10
Speaker
Naja, also...
00:09:15
Speaker
Wenn man das mal übersetzt in einen praktischen Versuch, wenn man das opportunisiert, dann könnte man sagen, wir suchen jetzt mal das Bild, das wir gerade produziert haben mit Stable Diffusion bei Google, Google Bildersuche.
00:09:25
Speaker
Wir schmeißen das da rein und das wird nicht auftauchen.
00:09:28
Speaker
Also insofern, ganz pragmatisch gesehen, war es noch nicht da.

Kulturelle Auswirkungen von KI-Modellen

00:09:33
Speaker
Was aber schon da war, sind ganz viele Bilder, die ähnlich sind.
00:09:37
Speaker
Und das ist natürlich gerade in einem kurshistorischen Kontext ein hochproblematischer oder schwieriger Begriff.
00:09:42
Speaker
Was heißt überhaupt ähnlich hier?
00:09:44
Speaker
Aber das ist eben der Punkt.
00:09:45
Speaker
Es geht darum, dass aus ganz vielen Bildern
00:09:49
Speaker
sagen wir mal zentrale visuelle Aspekte herausgefiltert wurden und komprimiert in dieses Modell eingeflossen sind.
00:09:58
Speaker
Man kann diese Modelle eigentlich schon sehen als Kompressionen der visuellen Kultur des Internets an diesem Punkt mit Einschränkungen.
00:10:06
Speaker
Natürlich ist es immer noch nicht das ganze Internet.
00:10:08
Speaker
Es gibt Ecken des Internets.
00:10:10
Speaker
Die haben diese Modelle nie gesehen.
00:10:12
Speaker
Aber wenn man die großen Datasets als stellvertretend für große Teile des Internets betrachtet, dann sind diese Modelle eigentlich Modelle dessen, was wir im Internet täglich so sehen.
00:10:23
Speaker
Und dementsprechend kann man eben auch diesen gesamten Bildraum, diesen gesamten visuellen Möglichkeitsraum ansprechen.
00:10:30
Speaker
Man kann in die eine Ecke gehen, wo vielleicht künstlerische Bilder sind.
00:10:33
Speaker
Man kann in die andere Ecke gehen, wo Fotografien sind.
00:10:36
Speaker
Man kann sagen, nehmen das Thema aus der Fotografie-Ecke und den Stil aus der künstlerischen Ecke und das macht man eben alles durch diese Kombination von Keywords, also von Schlagwörtern im Prompt.
00:10:51
Speaker
Das erklärt es auch, warum dann so ein Programm wie Midjourney sehr gut dabei ist, zum Beispiel Modefotografie zu imitieren, weil es anscheinend sehr viel Modefotografie in diesem Trainingsdatensatz gab.
00:11:03
Speaker
Genau, das ist immer der Fall schon gewesen.
00:11:06
Speaker
Je öfter bestimmte Arten von Bildern auftauchen in einem Trainingsdatensatz, desto einfacher ist es für das Modell, Varianten davon zu erzeugen.
00:11:14
Speaker
Deswegen, abgesehen davon, dass Dinge auch unter Umständen zensiert sind, aber man wird immer ein Bild von Donald Trump erzeugen können mit einem KI-Modell, weil sein Konter frei eben im Internet so präsent ist und überall zu sehen ist und dementsprechend, das ist etwas, was das Modell gelernt hat.
00:11:31
Speaker
Wenn man sich in
00:11:33
Speaker
Nischen der Kunstgeschichte begebt zum Beispiel, wird es ungleich schwieriger, Dinge zu produzieren, die überzeugend einer bestimmten Kategorie, einem bestimmten Genre, einem bestimmten Stil tatsächlich entsprechen oder ähneln.
00:11:46
Speaker
Also dann übersetzt, irgendwas im Stil der Mona Lisa ist auf jeden Fall immer machbar und sieht sehr gut aus, weil es einfach so viele Bilder der Mona Lisa gibt.
00:11:56
Speaker
Aber ein kleiner Künstler, den keiner kennt oder eine Künstlerin, das ist wahrscheinlich nicht so leicht machbar.
00:12:04
Speaker
Genau, also die Mona Lisa ist das klassische Beispiel.
00:12:06
Speaker
Tatsächlich auch witzigerweise in der Geschichte der KI-Kunst, wenn man jetzt KI-Kunst tatsächlich als, naja, eine Gruppe von Praktiken oder auch Praktikerinnen und Praktikern, von Künstlerinnen und Künstlern betrachtet, dann spielt die Mona Lisa eine zentrale Rolle.
00:12:22
Speaker
Es gab in den Anfangstagen der KI-Kunst, als eben die sogenannten Generative Adversarial Networks noch benutzt wurden, die Idee, dass man versucht,
00:12:31
Speaker
in dem komprimierten Bildraum dieser Modelle die Mona Lisa wiederzufinden.
00:12:37
Speaker
Also die Kapazitäten oder die Performance eines Modells daran zu messen, wie gut das Modell in der Lage ist, die Mona Lisa, die wir alle kennen, zu reproduzieren aus dem, was gelernt wurde.
00:12:50
Speaker
Genau, deswegen die Mona Lisa wird man immer finden oder Varianten davon wird man immer finden und produzieren können, andere Dinge vielleicht nicht so sehr.
00:12:58
Speaker
Wenn du sagst, es ist die Anfangszeit der KI-Kunst, also hat sich das dann mit der Technik gleichzeitig mitentwickelt?
00:13:03
Speaker
Also in dem Moment, in dem es die technischen Verfahren gab, sind Künstlerinnen und Künstler auf die Idee gekommen, das als Werkzeug für neue Kunst zu nehmen?
00:13:14
Speaker
Oder andersrum hat man die Ergebnisse dieser Verfahren als Kunst interpretiert und das ist KI-Kunst?
00:13:20
Speaker
Also wie würdest du den Begriff fassen?
00:13:23
Speaker
Ja, das ist eine sehr gute Frage und die Antwort ist eigentlich beides.
00:13:26
Speaker
Ich verweise da vielleicht einfach auch nochmal auf die ganz frühen Tage, auf die ganz frühen Anfangstage und auf ein Programm, das ein Team bei Google entwickelt hat, das heißt Deep Dream.
00:13:38
Speaker
Das ist vielleicht auch bekannt manchen Hörerinnen und Hörern, aber ganz kurz, also Deep Dream.
00:13:42
Speaker
gehört eigentlich in die Ecke der Visualisierung von neuronalen Netzen.
00:13:46
Speaker
Das ist also ein Programm, das eingesetzt wurde, um zu zeigen, was ein neuronales Netz gelernt hat, indem man einzelne Bestandteile, das heißt im
00:13:55
Speaker
technischen Kontext einzelne Neurons, einzelne Nodes oder auch ganze einzelne Schichten, einzelne Layers, indem man die visualisiert.
00:14:03
Speaker
Was man aber eben auch machen kann, ist, man kann das gleiche Programm benutzen und über bereits existierende Bilder laufen lassen und die lassen dann Muster hervortreten in diesen Bildern, die eigentlich da nicht zu sehen waren.
00:14:15
Speaker
Man optimiert sozusagen ein Bild hin auf das, was das Modell wahrnehmen kann und da kamen dann Bilder raus, die sehr, sehr trippy waren, wo dann irgendwelche
00:14:24
Speaker
Hunde-Gesichter aus den Wolken entstanden sind.
00:14:28
Speaker
Und so, wenn man das googelt, also Google Deep Dream, dann findet man die sehr schnell.
00:14:32
Speaker
Und da könnte man sagen, da hat sich so gezeigt, dass es ein ästhetisches Potenzial gibt, dieser Modelle, dieser Verfahren im Grunde.
00:14:43
Speaker
Und das ist auch der Punkt, wo erste Künstlerinnen und Künstler angefangen haben,
00:14:48
Speaker
wirklich die Modelle in einem kreativen Sinne einzusetzen.
00:14:51
Speaker
Eben nicht, um zu visualisieren, nicht, um die Modelle besser zu machen oder um die Klassifizierung von einem Datensatz zu verbessern, sondern einfach, um zu schauen, was für Bilder kann man eigentlich produzieren.
00:15:00
Speaker
Und wenn man das Ganze etwas amateurhaft, aber vielleicht doch kunsthistorisch betrachten will, gibt es eigentlich eine relativ klare Phase eben zwischen diesen Anfangstagen um 2012, 2014 herum bis ungefähr 2020, 2021, als die Technik hin zu Multimodalmodellen gewechselt ist und eben jeder anfangen konnte, Bilder zu generieren durch einfachere Prompts, durch die Eingabe von Prompts.
00:15:25
Speaker
Das ist also schon, glaube ich, ein Bruch,
00:15:27
Speaker
in der, zumindest in der Produktion, in der ästhetischen Produktion, mithilfe von KI-Modellen.

Nutzung und Produktion von KI-Kunst

00:15:33
Speaker
Es gibt einige KI-Künstlerinnen, Helena Seren fällt mir zum Beispiel ein, die auch gerade gesagt hat, das ist eigentlich das Ende dieser frühen KI-Kunst, weil es eben nicht mehr um eine technisch informierte Erforschung von Modellen geht, sondern weil jetzt jeder Prompts selber basteln kann und es dementsprechend aus den Händen von der kleinen Gruppe von Menschen genommen wird, die eigentlich sich damit intensiv auseinandergesetzt haben in den Anfangstagen
00:15:57
Speaker
Das heißt, die erste Generation der KI-KünstlerInnen musste sich auch wirklich mit der Informatik auskennen, um die Modelle für das Ziel trainieren zu können, das sie dann damit haben wollen?
00:16:09
Speaker
Genau, bis zu dem höchsten Grad.
00:16:10
Speaker
Also es ging eigentlich nie darum, die Modelle zu trainieren oder zu retrainieren.
00:16:14
Speaker
Die Ingenieure sagen Feintuning dazu, sondern es ging schon meistens darum, existierende Systeme sich genau anzuschauen, auseinanderzunehmen, wieder zusammenzusetzen.
00:16:24
Speaker
Aber es geht tatsächlich so weit, dass eigentlich die Idee, dass man Textmodelle und Bildmodelle zusammenbaut, dass man ein multimodales Modell generiert, die kommt eigentlich aus der KI-Kunst.
00:16:34
Speaker
Also die frühen multimodalen Modelle,
00:16:37
Speaker
waren von KE-Künstlerinnen zusammengebastelte Frankenstein-Modelle, die eben beides konnten.
00:16:44
Speaker
Und dementsprechend ist es eben nicht nur eine künstlerische Einbahnstraße, dass die Künstlerinnen und Künstler sich die Erfindung der Industrie zunutze machen als Verfahren, als neues künstlerisches Verfahren, sondern es ist tatsächlich auch andersrum, dass eben die Technik-Inspiration inspiriert wird aus der Kunst heraus.
00:17:02
Speaker
In dem Moment, in dem es dann die Möglichkeit gab, über PROMS auch mit diesen Modellen, ja, ich sag mir jetzt mal, interagieren, auch wenn es schwierig ist, einen Begriff zu finden, der nicht so anthropomorph ist, weil das Gegenüber reagiert ja nicht wirklich oder interagiert, sondern das ist ja eher ein...
00:17:19
Speaker
Ein Verfahren oder etwas, was man anstößt.
00:17:22
Speaker
Aber ich nehme jetzt mal einfach mal den Begriff interagieren.
00:17:25
Speaker
In dem Moment, in dem man mit dem Prompt und der KI interagieren kann, hattest du gerade gesagt, war das quasi auch das Ende dieser ersten KI-Künstlerinnen-Generationen.
00:17:39
Speaker
Weil der Zugang zu leicht war?
00:17:41
Speaker
Also weil dann es populär geworden ist oder der Öffentlichkeit zur Verfügung stand?
00:17:46
Speaker
Also was hat sich da geändert?
00:17:48
Speaker
Warum waren die Ergebnisse auf einmal nicht mehr kunstwürdig?
00:17:51
Speaker
Oder sind sie es noch?
00:17:54
Speaker
Naja, was kunstwürdig ist und was nicht, ist sowieso ja immer eine schwierige Frage natürlich.
00:17:59
Speaker
Und ich glaube, die kann ich nicht mal für diese Frühe-Generation eigentlich beantworten, weil das wird die Geschichte zeigen, was davon übrig bleibt und was nicht.
00:18:06
Speaker
Wenn man sich die Medienkunst sonst so anschaut, dann gibt es auch da, zum Beispiel, wenn man sich die 90er Jahre aus der Perspektive von heute anschaut, gibt es ganz viel, was einfach nicht übergeblieben ist, was es nicht geschafft hat aus den Anfangstagen der, sagen wir mal, zweiten Welle der Computerkunst.
00:18:24
Speaker
Aber es war eben in den Anfangstagen schwierig, überhaupt mit den Modellen, wie du sagst, zu interagieren, also überhaupt die Modelle dazu zu bringen, etwas zu produzieren, was interessant ist.
00:18:37
Speaker
Und vielleicht ist es da wichtig, kurz ein Konzept zu erläutern, nämlich das Latent Space.
00:18:43
Speaker
Die Modelle lernen also aus einem mehr oder weniger großen Set von Trainingsdaten, aus einem Datensatz, die
00:18:51
Speaker
das würde ich wirklich auch so sagen, die visuelle Welt oder eine begrenzte visuelle Welt, einen begrenzten visuellen Kanon.
00:18:58
Speaker
Und dieser Kanon ist komprimiert.
00:19:01
Speaker
Und dieser komprimierte Bildraum, den nennt man gemeinhin Latent Space.
00:19:06
Speaker
Und jetzt ist die Frage,
00:19:08
Speaker
Wie findet man raus, was in diesem Latent Space eigentlich drin ist?
00:19:12
Speaker
Was ist eigentlich komprimiert worden?
00:19:13
Speaker
Was ist noch übrig geblieben zum Beispiel?
00:19:15
Speaker
Welche wenig auftretenden Beispiele sind trotzdem noch vorhanden?
00:19:19
Speaker
Was sind Schwerpunkte?
00:19:20
Speaker
Was kann das Modell besonders gut produzieren?
00:19:23
Speaker
Und in den Anfangstagen der KI und der KI-Kunst war es eben so, dass man sich selber überlegen musste, wie man überhaupt auf diesen Latent Space zugreift und wie man bestimmte Punkte im Latent Space ansteuert.
00:19:34
Speaker
Es war also eine Art mathematischer Zugriff auf den Bildraum.
00:19:37
Speaker
Ich musste mir überlegen, von welchem Punkt beginne ich?
00:19:40
Speaker
Und wenn ich Punkt sage, meine ich wirklich einen Punkt in diesem mehrdimensionalen, überdimensionalen Vektorraum, der der Latent Space ist.
00:19:47
Speaker
Und wie bewege ich mich dann von da, um möglichst interessante Bilder zu produzieren?
00:19:52
Speaker
Und dieses ganze mathematische Verfahren der Bildproduktion oder der Ansteuerung von diesen Bildräumen, das wurde eben ersetzt durch Prompt-Based Inputs oder durch ein Prompt-Based Interface.
00:20:04
Speaker
Also eigentlich hat sich das Interface sehr stark gewandelt und dementsprechend auch das, was man machen kann, das, was man finden kann in diesen Bildräumen oder welche Bereiche man ansteuern kann in diesen Bildräumen.
00:20:17
Speaker
Das heißt, jetzt können wir auch gar nicht mehr so stark zwischenreingehen, sondern bekommen nur das Ergebnis.
00:20:26
Speaker
Ja, also es ist tatsächlich so, dass es schwieriger wäre, zu sagen, ich habe hier einen Prompt, zum Beispiel die Mona Lisa und einen anderen Prompt, zum Beispiel ein Foto von meiner Katze.
00:20:37
Speaker
Und ich möchte jetzt rausfinden, was liegt sozusagen auf halbem Weg zwischen der Mona Lisa und meiner Katze.
00:20:42
Speaker
Könnte man sich als Mensch jetzt verschiedene Dinge vorstellen und...
00:20:45
Speaker
Und in den Anfangstagen der KI und der KI-Kunst war es eben so, dass sich dieser Mittelpunkt eigentlich in ein präzises mathematisches Konzept übersetzen lässt.
00:20:54
Speaker
Ich kann also wirklich genau dem mathematisch die Mitte zwischen diesen beiden Bildpunkten ansteuern und dann gibt es ein Bild, das mehr oder weniger interessant aussieht.
00:21:02
Speaker
Das geht mit Prompts eben nicht, weil es keine Mitte gibt zwischen zwei Begriffen, zwischen dem Wort oder dem Titel Mona Lisa und dem Wort Katze,
00:21:11
Speaker
Was ist dazwischen?
00:21:12
Speaker
Das ist ein Konzept, das ergibt keinen Sinn.
00:21:14
Speaker
Also man kann eben diesen Mittelpunkt dann nicht mehr finden im Medium-Sprache oder in der Sprache als Interface.
00:21:20
Speaker
Das macht es auf der einen Seite interessant,
00:21:24
Speaker
zum Beispiel Mehrdeutigkeiten sich anzuschauen und nachzuschauen, wie hat das Modell ein bestimmtes Wort interpretiert, wie hat es das verstanden.
00:21:33
Speaker
Aber auf der anderen Seite heißt es eben auch, dass man nicht mehr so präzise schauen kann, was in diesem komprimierten Bildraum eigentlich vorhanden ist, was da eigentlich existiert, was da drin ist.
00:21:43
Speaker
Welche Form von KI-Kunst löst es dann aus?
00:21:46
Speaker
Also hat sich dann die Kunstform an sich auch geändert durch diesen anderen Zugang?
00:21:53
Speaker
Ja, also ich würde schon sagen, dass es in den Anfangstagen vor allen Dingen darum ging,
00:22:00
Speaker
die bestimmte Perspektive, die oft sehr idiosynkratische Perspektive eines Modells auf die Welt sichtbar zu machen und zu sagen, schaut, wir haben hier dieses KI-System und das schaut sich die Welt auf eine ganz seltsame Art und Weise an.
00:22:12
Speaker
Bedingt durch die begrenzten Trainingsdaten, die es kennt, aber eben auch bedingt durch die Art und Weise, wie überhaupt Wahrnehmung modelliert wird in diesen KI-Systemen.
00:22:21
Speaker
Mithilfe von Pixeln und diversen technischen Operationen.
00:22:27
Speaker
Und dieses, sagen wir mal, technische oder fast schon aufklärerische Interesse, ich glaube, das ist mittlerweile nicht mehr so.
00:22:34
Speaker
Es geht also nicht mehr so stark darum, die Welt der Modelle deutlich zu machen oder zu entdecken, sondern es geht mehr darum, die Modelle tatsächlich als Teil von einem ästhetischen Prozess oder einer künstlerischen Praxis produktiv einzusetzen.
00:22:48
Speaker
Also wie kann ich das Modell dazu bringen, dass es wirklich genau das macht, was ich von ihm will, ohne dass man
00:22:55
Speaker
sich darauf einlässt und sagt, wir schauen nochmal hier links und rechts, was eigentlich noch da drin liegt in diesem Bildraum.
00:23:00
Speaker
Also es geht um das Generieren von Bildern.
00:23:03
Speaker
Also das Ziel ist nicht, das Modell zu verstehen, sondern am Ende generierte Bilder zu haben.
00:23:08
Speaker
Eins oder zwei, wie man es sich vorgestellt hat, oder hunderte, tausende, um damit digitale Collagen zu machen.
00:23:17
Speaker
Ja, das könnte man so sagen, natürlich.
00:23:19
Speaker
Und
00:23:20
Speaker
Das verweist wiederum auch, das ist vielleicht auch interessant, da kurz drauf einzugehen.
00:23:24
Speaker
Also natürlich sind die KI-Modelle eine neue Technik.
00:23:29
Speaker
KI ist eine neue Technik.
00:23:30
Speaker
Es gibt natürlich schon frühe Versuche.
00:23:33
Speaker
Aber Künstlerinnen und Künstler benutzen Computer, um Bilder zu produzieren oder Kunst zu produzieren, mindestens seit den späten 1950er Jahren, also auch seit den Anfangstagen des Computers.
00:23:43
Speaker
Und diese Frage der Serie, die du ansprichst, also was ist eigentlich das Ergebnis eines künstlerischen Prozesses, das sich dem Computer zunutze macht, die gibt es auch schon seit dieser Zeit.
00:23:54
Speaker
Also schon die frühe Computerkunst, die deutsche Computerkunst vor allen Dingen, die in den 50er und 60er Jahren in Stuttgart entstanden ist, um den Philosophen Max Benze herum, schon da wurde darüber gesprochen,
00:24:07
Speaker
Wenn wir jetzt den Computer einsetzen, damals noch mit sehr simplen Programmen, die zum Beispiel durch Zufallszahlen bestimmte Muster generiert haben, was stellen wir denn eigentlich aus?
00:24:16
Speaker
Ist das ein ausgewähltes Bild, das wir am besten finden?
00:24:20
Speaker
Ist es alle Möglichkeiten, die das Programm bereithält, alle Bilder einer Serie?
00:24:24
Speaker
Oder ist es das Programm selber?
00:24:26
Speaker
Ist das die künstlerische Intervention?
00:24:27
Speaker
Ist das das künstlerische Objekt tatsächlich?
00:24:30
Speaker
Und alle diese Fragen haben sich eigentlich erhalten und werden heute wieder gestellt im Kontext von KI-Modellen.
00:24:37
Speaker
Also es gibt einerseits natürlich diese
00:24:40
Speaker
Diese Unterbrechung oder diese Disruption durch die neue Technologie, die andere Dinge kann, das muss man auch ganz klar sagen, also die Kritik, dass es alles das Gleiche ist, die kaufe ich eigentlich nicht, aber auf der anderen Seite gibt es sozusagen eine Kontinuität in der Reflexion dessen, was machbar ist mit Maschinen, mit Computern.
00:24:58
Speaker
Damit sprichst du ja auch etwas an, was man jetzt, wenn wir jetzt die Perspektive von KunsthistorikerInnen oder KunstkritikerInnen einnehmen, auch immer zur Debatte steht.
00:25:08
Speaker
Was ist der künstlerische Output, den wir dann auch in einer Rezeption reflektieren müssen?
00:25:18
Speaker
Also ist das generierte Bild am Ende immer auch das Kunstwerk
00:25:27
Speaker
Oder, und jetzt, wie ich dich verstanden habe, gehört auch der Prompt jetzt neu dazu.
00:25:31
Speaker
Also es ist nicht nur das Bild, das irgendwo hängt, sondern die Frage ist ja auch, was war der Prompt?
00:25:35
Speaker
Was wurde gefragt?
00:25:37
Speaker
Was wurde gefordert?
00:25:39
Speaker
Und vielleicht auch, der wievielte Versuch ist das?
00:25:42
Speaker
Weil man kann ja über einen Refresh-Button einfach die gleiche Anfrage benutzen und sich neue Bilder ausgeben lassen.
00:25:48
Speaker
Also wie oft wurde dieser Wiederausgabeprozess gemacht?
00:25:51
Speaker
Ist es der erste Treffer durch Zufall oder ist es der viertausendste Treffer,
00:25:56
Speaker
Und die Person, die den prompt geschrieben hat, hat einfach nur aus 4000 generierten Bildern eins ausgesucht, das am spannendsten war oder am interessantesten visuell oder ästhetisch.
00:26:09
Speaker
Wie gehen KünstlerInnen jetzt gerade damit um?
00:26:11
Speaker
Also gibt es auch welche, die einfach nur diese generierten Bilder reinstellen und sagen, das ist mein Kunstwerk?
00:26:17
Speaker
Ja, da muss man, glaube ich, unterscheiden.
00:26:20
Speaker
Also
00:26:22
Speaker
Wir hatten ja vorhin schon kurz darüber gesprochen, dass es natürlich schwierig ist, zu sagen, aus der Gegenwart heraus, welche Teile der Gegenwart auch noch in zehn Jahren künstlerisch interessant sein werden oder als künstlerisch interessant eingestuft werden.
00:26:38
Speaker
Aber ich glaube tatsächlich, dass die interessanteren Arbeiten mit KI,
00:26:45
Speaker
genau diesen Kontext berücksichtigen.
00:26:49
Speaker
Dass es also nicht nur darum geht, ein möglichst interessantes Bild, Betonung auf ein möglichst interessantes Bild zu produzieren, sondern dass dieses Verfahren oder dieser Prozess, dass man
00:27:01
Speaker
ein Modell auf eine gewisse Art und Weise abfragt, das oft auch scheitert, oft auch uninteressante Dinge dabei rauskommen, dass man den thematisiert auf eine interessante Art und Weise, also die technische Determiniertheit auch des Outputs thematisiert, das machen tatsächlich die interessanteren Arbeiten.
00:27:17
Speaker
Es gibt vielleicht als Beispiel eine recht frühe Arbeit basierend auf GANs, also auf Generative Adversarial Networks von Anna Riddler,
00:27:26
Speaker
Myriad Tulips heißt die, das ist eigentlich eine doppelte Arbeit, das sind zwei verschiedene und der zweite Teil, der erste Teil ist ein GAN, das neue Bilder von Tulpen generiert, aber der zweite Teil ist eigentlich eine total traditionelle Ausstellung des Datasets, also eine Rittler hat dieses Dataset selber gemacht, die hat tausende und abertausende Fotos gemacht von Tulpen

Unterschiede zwischen Hobby- und Profikunst

00:27:49
Speaker
und ein Teil der Arbeit ist eben, dass man sich dieses Dataset, kleine Polaroids,
00:27:54
Speaker
Verschriftete Polaroids, aufgehängt an einer Wand, dass man sich die auch anschauen kann.
00:27:58
Speaker
Und ich glaube, das ist das, was ich auch interessant finde an KI-Kunst oder an den Arbeiten, die man so gemeinhin dazurechnen würde, wenn dieser Kontext tatsächlich thematisiert wird.
00:28:11
Speaker
Man muss vielleicht keine Unterscheidung machen, also vielleicht verschwimmt auch alles immer mehr, sozusagen der amateurhafte Gebrauch oder der private Gebrauch von solchen Bildgeneratoren und der künstlerische Gebrauch.
00:28:24
Speaker
Aber man könnte schon, glaube ich, sagen, dass es Arbeiten gibt, die das auf interessante Art und Weise zum Thema machen, wie eigentlich diese Bilder entstehen.
00:28:31
Speaker
Oder es ist so eine neue Dimension der Kreativität, also so.
00:28:36
Speaker
Oder man hält es vielleicht so ein bisschen wie mit Beuys und wir sind alle auf einmal KünstlerInnen.
00:28:41
Speaker
Also wir sind dazu fähig, in einer neuen Form auch neue Dimensionen von Kreativität auszuschöpfen.
00:28:47
Speaker
Also durch die Promts wird es möglich, Bilder zu schaffen, auch für Leute, die vorher nicht zeichnen und malen konnten.
00:28:56
Speaker
Ein Empowerment der Untalentierten sozusagen.
00:29:01
Speaker
Ja, das ist eine interessante Frage.
00:29:02
Speaker
Also
00:29:04
Speaker
Ich stelle mir da wiederum die Frage,
00:29:07
Speaker
über den Prozess.
00:29:08
Speaker
Also ich hätte ja auch schon vor der KI, vor der Zeit der KI hätte ich jemanden beauftragen können, für mich ein Bild zu machen.
00:29:16
Speaker
Oder ich hätte eine Photoshop-Collage machen können.
00:29:19
Speaker
Es ist ja nicht so, dass zum ersten Mal jetzt die Möglichkeit besteht, für Menschen überhaupt bildlich tätig zu werden, Bilder zu produzieren, jenseits professioneller Kunstproduktion.
00:29:29
Speaker
Das ist ja schon etwas, geht ja schon länger mit anderen technischen Mitteln oder mit anderen Mitteln.
00:29:35
Speaker
Das ist so der eine Aspekt und der andere ist, dass
00:29:39
Speaker
Und da bewege ich mich wahrscheinlich auf dünnem Eis, weil es in den Bereich der ästhetischen Theorie hineingeht.
00:29:43
Speaker
Aber natürlich sind interessante Kunstwerke interessant, weil sie die Logik des Materials sich anschauen.
00:29:51
Speaker
Also die, wenn wir zu Beuys zurückkommen, Beuys nen Fett und Filz und macht damit was, das irgendwie richtig erscheint.
00:30:00
Speaker
Ganz intuitiv und unwissenschaftlich gesprochen.
00:30:02
Speaker
Und er kann das machen, weil er sich mit dem Material auseinandersetzt und verstanden hat,
00:30:06
Speaker
was das Potenzial ist, wie das Material umgeformt werden kann zu etwas, was ein ästhetisches Objekt ist.
00:30:13
Speaker
Und dieser Prozess ist lang, im Sinne von zeitlich lang, man braucht viel Zeit und Material, um sich darüber im Klaren zu sein, was kann damit eigentlich geschehen, was kann daraus entstehen.
00:30:23
Speaker
Und der ist aber auch lang im Sinne von, man muss verschiedene Möglichkeiten eben erforschen.
00:30:27
Speaker
Und da bin ich mir bei den promptbasierten KI-Modellen eben nicht so sicher, weil der Weg eben so kurz ist.
00:30:33
Speaker
Ich gebe was ein und da kommt sofort ein Bild bei raus.
00:30:36
Speaker
Ja.
00:30:36
Speaker
Es gibt keinen dazwischen.
00:30:38
Speaker
Es gibt auch keine Fehler.
00:30:40
Speaker
Das ist übrigens auch ein ganz großes Problem bei KI-Modellen im Generellen, dass das KI-Modell dir niemals sagen wird, das mache ich nicht.
00:30:48
Speaker
Es gibt ein Blue Screen oder eine Fehlermeldung.
00:30:50
Speaker
Das existiert einfach nicht.
00:30:52
Speaker
Es wird immer was dabei rauskommen.
00:30:53
Speaker
Und ob das, was dabei rauskommt, interessant ist oder nicht,
00:30:56
Speaker
Im kreativen Bereich, beziehungsweise auch, ob das Ergebnis richtig ist oder nicht, im wissenschaftlichen Bereich zum Beispiel, wo Bildmodelle eingesetzt werden, um Fotos zu analysieren oder um wissenschaftliche Daten aufzubereiten, das bleibt eine Interpretationsfrage.
00:31:10
Speaker
Das kann ich mit dem Modell nicht machen.
00:31:13
Speaker
Es gibt immer eine positive Antwort.
00:31:16
Speaker
Und das habe ich in einem traditionellen künstlerischen Prozess eigentlich nicht.
00:31:20
Speaker
Da gibt es Sackgassen und Dinge, die einfach nicht funktionieren.
00:31:23
Speaker
Und natürlich ist die Identifikation dieser Sackgassen und dieser Fehler auch wiederum eine Frage der künstlerischen Arbeit oder Intuition.
00:31:30
Speaker
Aber ich glaube eben, dass dieser Kurzschluss in den Bildmodellen, ich gebe was ein und sofort kommt was raus,
00:31:36
Speaker
Das eindeutig auch ein Bild ist, das ist ja auch kein Glitschbild oder ein Bild voller Fehler, sondern es ist immer was, oder in fast allen Fällen, was Figuratives, was Sinn ergibt, semantisch, wo Bildobjekte zu sehen sind.
00:31:47
Speaker
Ich glaube, dass das vielleicht nicht so interessant ist für einen tatsächlichen künstlerischen Prozess.
00:31:52
Speaker
Das war jetzt eine lange Antwort auf eine eigentlich einfache Frage, aber ich glaube, da muss man drüber nachdenken, wirklich, was eigentlich die Schritte sind in der Bildproduktion, in verschiedenen Formen der Bildproduktion.
00:32:04
Speaker
Was sind die Schritte auf dem Weg von der Idee hin zum Kunstwerk und was sind die Schritte auf dem Weg vom Prompt zum generierten Bild?
00:32:12
Speaker
Wir sind auch gerade am Verhandeln.
00:32:13
Speaker
Mich erinnert sehr vieles dieser Debatte auch an die Einführung von Photoshop und der Frage wieder von, was ist ein richtiges Bild in Anführungszeichen, was ist gefälscht, was ist eine Kopie, was hat ein Mensch gemacht, was macht die Maschine automatisch und damit auch verbunden die wiederholte Debatte von, was ist das Medium überhaupt, über das wir jetzt gerade sprechen, wem gehört auch das Bild?

Rechtliche und ethische Herausforderungen

00:32:39
Speaker
Bei den generativen Modellen gehört mir das Bild, wenn ich den Prompt eingegeben habe oder gehört den InformatikerInnen das Bild, die das Modell gebaut haben?
00:32:50
Speaker
Ja, das ist eine Frage, die immer wieder aufkommt und die natürlich wichtig ist, weil es umgekehrt.
00:32:57
Speaker
Das Leben von Künstlerinnen und Künstlern oder Menschen, die diese Systeme benutzen, geht, das ist eine ganz grundsätzliche Frage.
00:33:04
Speaker
Aber ich glaube, es ist eigentlich keine philosophische Frage, sondern eine Frage von Regulierung und Gesetzgebung.
00:33:11
Speaker
Ich glaube, im Moment ist die Antwort darauf, das Bild gehört demjenigen, der in der Lizenz steht, des Modells.
00:33:17
Speaker
Also eigentlich eine Frage von Softwarelizenzen und von Lizenzierung, so ein bisschen wie bei Stockfotos auch.
00:33:23
Speaker
Und ich glaube, man muss in Zukunft einfach genauer und besser verhandeln und schauen, wie das eigentlich funktionieren kann.
00:33:28
Speaker
Aber das fängt viel früher an.
00:33:30
Speaker
Das fängt nämlich dort an, wo Bilder, die man selber oder andere Menschen ins Internet gestellt haben, eingesaugt werden gewissermaßen von den KI-Modellen und verarbeitet werden.
00:33:41
Speaker
Das führt dann wiederum zu der Frage, was ist eigentlich übrig von meinem einzelnen individuellen Bild in diesem Latent Space des Modells?
00:33:48
Speaker
Das ist vielleicht nicht viel, aber trotzdem gibt es im Moment eben kein,
00:33:53
Speaker
Verfahren dafür.
00:33:54
Speaker
Es gibt keine klaren Regeln, was es eigentlich bedeutet, wenn ein KI-Modell anhand von Daten, die jemand anders produziert hat, Daten hier, Bilder, was eigentlich die Regeln sind dafür, wie das eigentlich gehen kann.
00:34:07
Speaker
Da gibt es ja im Moment zahlreiche Gerichtsprozesse, die genau diese Fragestellungen ausloten.
00:34:13
Speaker
Also wie viel Recht haben KünstlerInnen, DesignerInnen für ihre kreative Schöpfung, auch für ihre Urheberschaft, wenn diese Bilder, die sie freiwillig im Internet zur Verfügung gestellt haben, auf Plattformen wie Behance oder so,
00:34:30
Speaker
der dann als Trainingsdaten genommen werden.
00:34:33
Speaker
Aber ich glaube, das müssen wir nochmal in einer eigenen Rechtsfolge klären.
00:34:37
Speaker
Wahrscheinlich, ja.
00:34:37
Speaker
Vielleicht gibt es bis dahin auch schon das ein oder andere Gerichtsurteil.
00:34:41
Speaker
Mir ist nur der lustige Fall aufgekommen, das habe ich letztens in einem Paper gelesen, Getty klagt gerade gegen einen dieser Großen, weil...
00:35:13
Speaker
Das ist ein super witziges Beispiel und aber auch klar, dass Getty daran Interesse hat, weil ich glaube, was tatsächlich, wenn man in den Bereich geht, AI will steal all of our jobs, das sind tatsächlich Jobs oder Bereiche der Wertschöpfung, sagen wir mal, die in Gefahr sind.
00:35:29
Speaker
Stockfotos nämlich, also einfach irgendwelche Bilder, die man nimmt, um Werbebroschüren zu illustrieren, die sind tatsächlich mit KI-Modellen mittlerweile einfach generierbar, weil es eben auf die ästhetischen Details oder bestimmte Stile nicht ankommt.
00:35:45
Speaker
Wie sieht es dann nun aus mit generierten Kunstwerken, wenn wir wieder zurück in die Kunst- und Designwelt kommen und die Rechtswelt mal verlassen?
00:35:55
Speaker
Wie kann ich mir sicher sein, dass das Kunstwerk, das ich sehe, als digitales Bild, weil die meisten Bilder, die wir im wissenschaftlichen Bereich anschauen, sind mittlerweile digitale Bilder,
00:36:08
Speaker
Wie kann ich mir sicher sein, dass das auch ein Werk ist, das es gibt und nicht ein generiertes, das mir jetzt untergejubelt wird?
00:36:14
Speaker
Also ich denke jetzt hier auch so ein bisschen an den Kunstmarkt oder auch an künststistorische Forschung.
00:36:22
Speaker
Also ich kann mir jetzt zum Beispiel im Stil meines Künstlers, über den ich forsche, Bartholomeus Spranger, neue Bilder generieren.
00:36:29
Speaker
Und könnte sagen, die liegen jetzt irgendwo bei einem Privatsammler.
00:36:33
Speaker
Niemand würde die jemals zu Gesicht bekommen, auch weil es sie nicht gibt.
00:36:36
Speaker
Ich habe sie generiert, könnte aber jetzt trotzdem verrückte Forschung damit treiben, also auch Betrug damit begehen.
00:36:43
Speaker
Sind die generierten Bilder denn überhaupt noch unterscheidbar?
00:36:46
Speaker
Also gibt es so gewisse Kniffe, an denen man sehen kann, was ist da generiert und was ist wirklich ein Kunstwerk, das es schon gibt oder gab?
00:36:58
Speaker
Ja, also auf der einen Seite ja.
00:37:01
Speaker
Es gab sehr lange und gibt immer noch bei vielen Modellen, das ändert sich gerade im Moment, relativ untrügliche Zeichen, dass es sich um KI-generierte Bilder handelt.
00:37:13
Speaker
Ein berühmtes Beispiel sind menschliche Hände.
00:37:16
Speaker
KI-Modelle waren ganz lange nicht in der Lage,
00:37:20
Speaker
normale menschliche Hände mit fünf Fingern zu produzieren.
00:37:22
Speaker
Und selbst wenn man im Prompt extra nochmal spezifiziert hat, gesagt hat, bitte gib mir eine normale Hand mit fünf Fingern, dann waren eher mehr Finger dran, weil man Finger auch noch betont hat.
00:37:32
Speaker
Ja, weil man gesagt hat, Finger sind wichtig und dann hat das Modell gedacht, okay, gedacht natürlich in großen Anführungszeichen, dann lieber noch ein paar mehr Finger for good measure.
00:37:40
Speaker
Das war ganz lange so.
00:37:42
Speaker
In den früheren Zeiten, in den Anfangstagen mit den Gans,
00:37:46
Speaker
waren immer Ohren das Problem, weil die etwas kompliziert sind und kleinteilig.
00:37:51
Speaker
Und ich nehme diese beiden Beispiele auch gerne, weil die verweisen auf das kunsthistorische Äquivalent im Diskurs um die Kennerschaft.
00:37:59
Speaker
Wenn man an Morelli denkt, also Finger und Ohren und eben diese ganzen schwierigen Körperteile sind ja auch aus der traditionellen kunsthistorischen Perspektive heraus untrückliche Zeichen für bestimmte Malerinnen und Maler zum Beispiel.
00:38:15
Speaker
Das ging lange, es geht immer weniger und ich glaube schon auch, dass man irgendwann an den Punkt kommt, wo es gar nicht mehr geht.
00:38:22
Speaker
Aber die Frage ist wiederum eigentlich auch ein bisschen wie im Kontext, den wir vorhin besprochen haben.
00:38:33
Speaker
hatten wir das nicht eigentlich auch schon.
00:38:34
Speaker
Also ist es nicht eigentlich was, was wir schon konnten.
00:38:36
Speaker
Es gab immer schon Kunstfälscherinnen und Kunstfälscher und überzeugende Fälschungen.
00:38:41
Speaker
Ist es nur einfach jetzt der Shortcut dafür?
00:38:43
Speaker
Also es ist tatsächlich eine andere Qualität und ich glaube, das ist nicht der Fall.
00:38:48
Speaker
Wir konnten das schon immer machen mit genug Überzeugung und genug technischem Wissen.
00:38:53
Speaker
Technisch jetzt im traditionellen Sinne eben nicht Computer, sondern ich kann es gut genug reproduzieren, analog oder ich kann gut genug Photoshop bedienen.
00:39:00
Speaker
Ich glaube, da gibt es eigentlich nicht so einen großen Unterschied.
00:39:04
Speaker
Es gibt jetzt ja auch die Überlegungen, gerade an der Europäischen Union, den Einsatz von künstlicher Intelligenz zu reglementieren.
00:39:11
Speaker
Und da gehören auch generative Modelle dazu, dass man die auf eine gewisse Art und Weise auszeichnet, wenn Bilder generiert worden sind.
00:39:20
Speaker
Oder markiert, beziehungsweise auch für Bilder, die man ins Internet stellt, so einen Fälschungsschutz drauflegt, dass das eigene Foto nicht benutzt werden kann, um als Trainingsdaten missbraucht oder gebraucht zu werden oder Deepfakes zu verhindern.
00:39:38
Speaker
Hältst du sowas für sinnvoll oder sind es einfach nur jetzt gerade so, ich denke eher so in dem Bereich so ein Aktionismus, weil man noch nicht genau weiß, wie man es reglementieren soll oder ob man oder was man damit machen soll, also so eine Zwischenphase, Verhandlungsphase?
00:39:55
Speaker
Ja, ich glaube, das sind alles gute Ansätze und ich denke mal, das wird in eine ähnliche Richtung gehen wie bei der Reglementierung oder der Gesetzgebung im Kontext von Social Media, wo auch am Anfang ja im Grunde der Wilde Westen geherrscht hat, man machen konnte, was man will.
00:40:07
Speaker
Und mittlerweile gibt es Regeln, um zum Beispiel zu verhindern, jetzt im Kontext der EU, dass Daten einfach auf amerikanischen Servern gespeichert werden.
00:40:16
Speaker
Und natürlich ist es auch wichtig, gleichzeitig, das ist jetzt meine politische Meinung, sage ich mal, gleichzeitig ist es natürlich auch im Interesse der Industrie, ihre Produkte möglichst gefährlich und mächtig erscheinen zu lassen.
00:40:32
Speaker
Ja, da gab es jetzt wieder die Diskussion, dass der CEO von OpenAI, Simon Altman, dass der im amerikanischen Kongress aussagen durfte, aussagen musste,
00:40:42
Speaker
Zur Gefahr, die von KI-Modellen ausgeht und das natürlich gerne gemacht hat und auch gerne betont hat, ja, wir brauchen Regulierung, ja, wir brauchen Gesetzgebung, weil es einfach geschäftsfördernd ist.
00:40:52
Speaker
In dem Moment, wo das System, das man selber produziert, als unfassbar mächtig erscheint, verkauft man einfach davon mehr.
00:40:59
Speaker
Ich glaube, dass vielleicht im Moment zumindest die Gefahr oder das Problem nicht so sehr von generativen Modellen ausgeht, sondern immer noch von viel traditionelleren Anwendungsbereichen der KI, wie zum Beispiel der Gesichtserkennung.
00:41:14
Speaker
Ich glaube, Gesichtserkennung
00:41:15
Speaker
sollte, nochmal, das ist meine politische Meinung, sollte einfach verboten werden.
00:41:20
Speaker
Es gibt keinen Grund für Gesichtserkennung.
00:41:22
Speaker
Gesichtserkennung ist unnötig, niemand braucht es.
00:41:24
Speaker
Alle Gründe, die man anführen kann, haben zu viele negative Seiten, um tatsächlich relevant zu sein.
00:41:32
Speaker
Und das sind die Bereiche, die tatsächlich schwierig sind und politisch als erstes angepackt werden sollten oder gesetzgebungstechnisch als erstes angepackt werden sollten.
00:41:41
Speaker
Ich glaube, diese Frage der
00:41:43
Speaker
Desinformation oder von Deepfakes, darauf läuft das ja hinaus, wenn man über die Gefahr von generativen Modellen spricht, ich glaube, die ist im Moment noch nicht so groß, dass es wichtiger wäre, hier anzusetzen, statt bei diesen traditionelleren Formen der zum Beispiel Überwachung durch KI-Modelle.
00:41:59
Speaker
Liegt diese Sorge, also sowohl bei der Unsicherheit mit KI-Kunst umzugehen, als auch bei der gesellschaftlichen Debatte über generierte Bilder oder weitergefasst künstliche Intelligenz im Allgemeinen, hat das nicht auch was damit zu tun, dass viele sich zu wenig mit den Verfahren dahinter auskennen?
00:42:17
Speaker
Also dass es wie so eine Zauberei wirkt, also dieses Black Boxing von den Modellen, die es dann so gibt.
00:42:26
Speaker
Was für Möglichkeiten gibt es denn einzusteigen oder herauszufinden, wie mächtig oder eben ohnmächtig solche Verfahren eigentlich sind?
00:42:38
Speaker
Ich hatte ja ganz am Anfang ja schon mal die Frage der Erklärbarkeit oder Interpretierbarkeit von Modellen angesprochen im Kontext von Deep Dream, das eben als Verfahren der Visualisierung entwickelt wurde.
00:42:49
Speaker
Und ich glaube, dieser Bereich der Informatik ist tatsächlich
00:42:53
Speaker
besonders interessant für vor allen Dingen auch Geisteswissenschaftlerinnen und Geisteswissenschaftler oder Kritikerinnen und Kritiker, sich anzuschauen, weil da eben technische Verfahren entwickelt werden, die dieses Problem nicht beheben, aber zumindest versuchen, etwas weniger Prävalenz zu machen, etwas weniger schwierig zu machen.
00:43:14
Speaker
Die Verfahren der Explainable AI, heißt das, ist der Begriff, oder Interpretable AI, Interpretable Machine Learning, könnte man auch sagen,
00:43:23
Speaker
die sind sehr interessant und erlauben einem eben ein bisschen um dieses Blackboxing herumzukommen und etwas genauer zu wissen zumindest, wie diese Modelle funktionieren, was sie genau lernen und wie dieses gelernte Wissen dann umgesetzt wird in zum Beispiel Klassifizierungsentscheidungen oder auch die Generation von Bildern, das Herstellen von Bildern.
00:43:43
Speaker
Das würde ich Menschen einfach empfehlen, die sich interessieren, sich das mal anzuschauen, was da passiert in diesem Bereich.
00:43:49
Speaker
Auf der einen Seite und dann würde ich auch sagen, dass es
00:43:53
Speaker
Wichtig ist, modellspezifisch zu sein und zu sagen, eben nicht von Bildgeneratoren zu sprechen und zu sagen, Bildgeneratoren machen X, Bildgeneratoren machen Y und sind deswegen schwierig oder gut oder interessant, weil die Unterschiede zwischen den einzelnen Modellen,
00:44:09
Speaker
Und selbst die Unterschiede von dem gleichen Modell, trainiert anhand von unterschiedlichen Daten, so groß sind, dass man die tatsächlich berücksichtigen muss, finde ich, in der Debatte um künstliche Intelligenz.
00:44:20
Speaker
Ganz generell und auch bei generativen Bildern im Besonderen.
00:44:24
Speaker
Da sollte man schon ganz klar sagen, Stable Diffusion 2.1, 2.1 macht bestimmte Sachen, die sind interessant oder problematisch und darüber müssen wir reden.
00:44:34
Speaker
Das finde ich ganz spannend, weil du vorhin ja auch meintest, die machen keine Fehler in Anführungszeichen, aber man kann sie ja auch durch diese Promps dazu bringen, zu entlarven, was sie nicht können oder was nicht möglich ist.
00:44:46
Speaker
Ich hatte mit Stable Diffusion experimentiert, um Bilder zu generieren für eine Präsentation.
00:44:54
Speaker
Und ich wollte auch einfach mal schauen, ob wirklich alles möglich ist.
00:44:58
Speaker
Und was man zum Beispiel in Tierdokumentationen kennt, sind Löwen, die Zebras fressen.
00:45:04
Speaker
Es war aber nicht möglich, ein Bild zu generieren von Löwen, die Zebras fressen.
00:45:08
Speaker
Menschen konnten da alles essen, die ganz aufschneiden, drangieren, sonst irgendwas.
00:45:12
Speaker
Das heißt, irgendwo wurde bei den Trainingsdaten alles, was sehr blutrünstig ist, was hin zum Splatter auch geht oder sehr naturnah ist, wie bei Tierdokumentationen, irgendwo rausgelöscht.
00:45:23
Speaker
Es wurde...
00:45:24
Speaker
anscheinend abgeschwächt, weil besonders kritische Sachen oder auch Pornografie nicht generiert wird.
00:45:30
Speaker
Also wenn wir dann wieder über solche Modelle sprechen, wie Stable Diffusion, wie DALI, sind auch gewisse neue Gesellschaftsbilder mit verbunden oder auch ein neuer Kanon, weil sie auch nur das wiedergeben, was schon im Internet ist.
00:45:44
Speaker
Das heißt, wenn wir wieder in die Kunst reinkommen, nur Sammlungen oder Museen, kleine Institutionen, die ihre Bilder auch online zur Verfügung gestellt haben,
00:45:53
Speaker
haben ihre Werke in den weltweiten Kanon des Bildwissens reingegeben und als Trainingsdaten reingegeben.
00:45:59
Speaker
Das heißt auch nur, diese Stile, diese Kunstwerke können da verarbeitet werden.
00:46:06
Speaker
Ja, da sprichst du einen ganz wichtigen Punkt an.
00:46:09
Speaker
Es gibt im Grunde drei Ebenen, auf denen diese Art von, vielleicht könnte man sogar sagen, impliziter Zensur stattfindet.
00:46:18
Speaker
Und die erste ist die Dillenz, also natürlich
00:46:22
Speaker
Die Modelle können nur kennen, was es im Internet gibt.
00:46:25
Speaker
Was es im Internet gibt, ist ein Bruchteil dessen, was Menschen an Bildern produziert haben.
00:46:29
Speaker
Und selbst die Bilder, die wir haben als Kanon, sind genau das, nämlich ein Kanon, eine Auswahl aus den Bildern, die eben historisch überliefert sind.

Bias und Kritik in KI-Modellen

00:46:38
Speaker
alles, was das Modell kennen kann, ist eine absolute Spitze der Spitze der Spitze des Eisbergs.
00:46:42
Speaker
Ja, das ist ganz klar und das ist ja auch in der Wissenschaft mittlerweile Konsens, dass wenn wir über KI sprechen oder über Bildmodelle sprechen, zum Beispiel Digital Humanities, das gilt für Text übrigens ganz genauso, dann sprechen wir über ganz bestimmte
00:46:58
Speaker
ausgewählte Datenmengen und ganz bestimmte Ausgewählte, einen ganz bestimmten Kanon, der teilweise international und teilweise historisch zufällig eben entstanden ist.
00:47:09
Speaker
Das ist also die eine Ebene, auf der Wissen einfach nicht vorhanden ist.
00:47:14
Speaker
Aber die anderen beiden Ebenen sind eigentlich noch interessanter.
00:47:16
Speaker
Zum einen, und das sprichst du an, wenn du sagst, es gibt eben bestimmte Bilder, die sich nicht produzieren lassen.
00:47:22
Speaker
Da gibt es einen Konflikt zwischen dem Versprechen dieser Modelle, nämlich jedes Bild zu produzieren, dem, was wirklich geht.
00:47:28
Speaker
Zum einen steckt dahinter eine tatsächliche Zensur.
00:47:32
Speaker
Alle Bilder von blutigen Begegnungen zweier Tiere oder von Pornografie oder von Gewalt wurden aus den Trainingsdaten automatisch rausgelöscht und das Modell kennt sie einfach nicht.
00:47:43
Speaker
Jetzt könnte man jetzt sagen, okay, das ist kein Problem, wollen wir auch sowieso nicht sehen, aber natürlich ist das ein Eingriff in die Modellierung der Daten.
00:47:53
Speaker
Man kann also nicht mehr sagen, okay, hier ist die Ecke des Internets, die das Modell gelernt hat und hier ist das Modell und dementsprechend gibt es eine Korrelation zwischen dem, was wir produzieren können jetzt und dem, was das Modell gesehen hat.
00:48:03
Speaker
Man muss also mit einbeziehen, dass OpenAI hingegangen ist, bestimmte Dinge einfach rausgefiltert hat.
00:48:09
Speaker
Aber etwas auch, das Sie nicht gesagt haben.
00:48:10
Speaker
Also das passiert im Hintergrund, unbewusst.
00:48:15
Speaker
Genau, das passiert im Hintergrund.
00:48:17
Speaker
Das wird manchmal erwähnt in der technischen Dokumentation.
00:48:20
Speaker
Ganz hinten, ganz unten steht dann, wir haben dieses große Dataset genommen, minus alles, was wir fanden, was nicht geeignet ist für unser Modell.
00:48:30
Speaker
Und dann gibt es aber auch eigentlich nicht das Gegenteil, sondern den umgekehrten Fall,
00:48:36
Speaker
wo das Modell biased ist, zum Beispiel racially biased, also nur Bilder von weißen Menschen produziert, zum Beispiel, wenn man fragt, gib mir ein Bild von einem Arzt, jetzt auf Englisch, image of a doctor, dann kommt immer ein weißer Mann raus in einem weißen Kittel.
00:48:54
Speaker
Und da gibt es dann auch wieder Beispiele,
00:48:57
Speaker
Möglichkeiten, das auszugleichen, die aber auch nicht explizit erwähnt werden oft.
00:49:04
Speaker
Und ein Beispiel, das ich ganz interessant finde, habe ich mit einer Kollegin zugearbeitet vor kurzem noch, ist, dass OpenAI zum Beispiel an die Prompts für Daily 2 ganz lange racialized keywords drangehängt hat.
00:49:21
Speaker
Also wenn ich was eingegeben habe, dann hat OpenAI hinten heimlich Black oder Female oder Asian
00:49:28
Speaker
oder andere Minority Keywords drangehängt, um den Eindruck zu erwecken, dass dieser Bias eben nicht existiert, dass das Modell neutraler ist in der Herstellung von Bildern.
00:49:38
Speaker
Aber ohne das zu sagen, ja, so OpenAI hat uns im Grunde als Nutzerinnen und Nutzer
00:49:43
Speaker
Worte in den Mund gelegt, die wir so nicht gesagt haben.
00:49:46
Speaker
Es geht also auch in die andere Richtung, dass da wiederum eine Art von seltsamer, umgekehrter Zensur Sachen dann eingegeben werden, die wir eigentlich gar nicht eingegeben haben.
00:49:56
Speaker
Und dann eine dritte Sache, die ich auch noch besonders interessant finde, ist das
00:50:00
Speaker
Das natürlich auch gilt nicht nur für, sagen wir mal, Themen oder Motive, also was ist im Bild zu sehen, sondern es gilt auch ganz besonders für Stile und für Medien.
00:50:10
Speaker
Ich kann zum Beispiel nicht, trotz des Versprechens, dass diese Bitmodelle alles, alle Bilder, die es gibt, generieren können, ich kann zum Beispiel nicht historische Bilder produzieren.
00:50:22
Speaker
Medien stattfinden.
00:50:23
Speaker
Ich kann also nicht sagen, gib mir ein Bild aus dem Jahr 1920 und das Bild ist dann nicht schwarz-weiß.
00:50:30
Speaker
Oder ich kann nicht sagen, hier ist ein Bild aus dem antiken Rom und das ist keine Statue.
00:50:35
Speaker
Ich übertreibe jetzt, es gibt Möglichkeiten, das ein bisschen besser zu tunen, aber das ist dann mehr Arbeit.
00:50:39
Speaker
Aber der Default ist immer, dass eben Bilder aus einer bestimmten Zeit auch in dem entsprechenden historischen Medium dann präsentiert werden.
00:50:47
Speaker
Da komme ich also auch nur mit Mühe darüber hinweg.
00:50:49
Speaker
Und genau herauszuarbeiten, was eben diese manchmal expliziten, zum Beispiel durch Zensur, aber manchmal auch impliziten durch die Struktur des Modells oder die Art und Weise, wie gelernt wird, diese Dinge, diese Einschränkungen rauszufinden und zu beschreiben.
00:51:03
Speaker
Ich glaube, das ist auch der Job, den man so als Geisteswissenschaftlerin und Geisteswissenschaftler hat im Moment, wenn man sich mit KI beschäftigt.
00:51:10
Speaker
Ja, als Geisteswissenschaftlerin und als Geisteswissenschaftler, aber auch, wenn man AI-Art macht.
00:51:15
Speaker
Also es gibt jetzt auch viele, die genau diesen Bias wieder zum Thema machen, der in diesen Modellen drin steckt.
00:51:22
Speaker
Ja.
00:51:23
Speaker
Würdest du auch sagen, dass das so die wichtigen nächsten Schritte sind, die vielleicht auch dann aus der Kunstwelt hinaus wieder zurück in die Technik gehen?
00:51:30
Speaker
Also durchs Offensichtlichmachen von...
00:51:35
Speaker
von technischen Problemen, von Vorurteilen, von einer wieder zu engen Kanonbildung, die in künstlerischen Arbeiten thematisiert wird, kann sich ja dann hoffentlich auch wieder die Technik orientieren, diese rauszurechnen, zu ändern, oder?
00:51:52
Speaker
Ja, wobei das natürlich die Rolle der Kunst auch ein bisschen einschränkt auf so den Stichwortgeber für die Technik.
00:51:59
Speaker
Also ich glaube, da gibt es schon auch noch mehr interessante Möglichkeiten, KI-Systeme zu nutzen für die künstliche Produktion.
00:52:05
Speaker
Aber natürlich, das ist ein Teil davon und
00:52:07
Speaker
Es gibt auch Vorbilder dafür, zum Beispiel Trevor Paglans ImageNet Roulette, das zu Hochzeiten der früheren CNNs, der Klassifizierungsmodelle, gezeigt hat, was eigentlich für Quatsch in diesem Dataset drin ist.
00:52:20
Speaker
Was für absurde Vorstellungen, absurde Konzepte, absurde Bilder eigentlich darin aufkommen.
00:52:25
Speaker
Das war eine künstlerische Arbeit, die darauf hingewiesen hat, das, was falsch läuft in der Technik, das gibt es, das muss es auch geben und das wird es auch weiterhin geben.
00:52:33
Speaker
Aber ich glaube, es gibt auch
00:52:34
Speaker
gibt auch ein großes Potenzial, mit diesen Modellen wirklich was Interessantes zu machen, interessante Dinge über unsere visuelle Kultur zu sagen und einfach eine neue Perspektive auf unsere visuelle Kultur zu liefern.
00:52:48
Speaker
Beobachtest du gerade KünstlerInnen, die in dem Bereich unterwegs sind?
00:52:53
Speaker
Ja, das ist natürlich auch immer schwierig, weil was gehört dazu, was gehört nicht dazu?
00:52:58
Speaker
Ja, also eine Künstlerin, deren Arbeit ich sehr gerne mag, die tatsächlich eine Kollegin von mir ist hier in Kalifornien an der UCSB, Sarah Brady, die hat große Webarbeiten gemacht mit GAN generierten Bildern, wo sich diese glitchy Pixel-Asthetik der GANs übersetzen lässt in die Feinstruktur des Mediums, das sie gewählt hat.
00:53:24
Speaker
Und die finde ich sehr gut und sehr interessant,
00:53:26
Speaker
Eben auch, weil es nicht nur Ausdrücke sind von digitalen Bildern oder digital präsentierte Bilder, sondern was Neues machen mit dem Material oder mit dem neuen Material an diese Bilder herangehen und an die seltsamen Eigenheiten der KI-Modelle herangehen.
00:53:41
Speaker
Nur als ein Beispiel.
00:53:43
Speaker
Jetzt kann man diese generativen Modelle für ganz unterschiedliche Dinge einsetzen.
00:53:47
Speaker
Man kann sie einsetzen zum Kunstmachen, aber auch zum Kunst erforschen.
00:53:51
Speaker
Welche Chancen und Möglichkeiten gibt es denn in der digitalen Kunstgeschichte mit diesen neuen Verfahren zu forschen?
00:53:59
Speaker
Ja, das ist eine interessante Frage, mit der ich mich natürlich auch beruflich auseinandersetze und auch beruflich auseinandersetzen muss.
00:54:07
Speaker
Und natürlich gibt es eine ganze Reihe von Möglichkeiten,
00:54:11
Speaker
vortrainierte Modelle einzusetzen, zum Beispiel, um Bilder zu finden, ja, also um Bilder aus einem großen Korpus zu finden, der vielleicht nicht verschlagwortet ist, für den es keine Metadaten gibt, ganz klar, ein Einsatzbereich ist, ähnliche Bilder zu finden, so eine Art Recommendation Engine für
00:54:29
Speaker
Künstlerische Sammlungen oder für museale Sammlungen zum Beispiel.
00:54:33
Speaker
Es gibt eine ganze Reihe von möglichen Anwendungen und das ist auch gerade, habe ich jetzt wieder gesehen auf der großen DH-Konferenz in Graz, dass das tatsächlich auch gemacht wird, mehr und mehr, dass tatsächlich diese großen Modelle zum Einsatz kommen oder Teile davon.
00:54:48
Speaker
Was ich aber glaube ist, und das ist auch Teil von meiner Arbeit gerade, das aufzuschreiben, dass damit so eine Art Verpflichtung einhergeht, auch Modellkritik automatisch zu betreiben.
00:55:00
Speaker
Dass man nicht die tollen Dinge, die man mit den großen KI-Modellen machen kann, einfach so nutzen kann, sondern dass das einen verpflichtet, immer auch darüber zu sprechen, was eigentlich funktioniert.
00:55:11
Speaker
der Blick auf die Welt ist, der da implizit in diesen Modellen dann mit in die Arbeit einfließt.
00:55:17
Speaker
Ich kann nicht Clip, das ist zum einen beispielhaft ein großes Modell, mit dem man zum Beispiel Bilder suchen kann, sehr gut, dass auch Prompts auch reagiert.
00:55:27
Speaker
Ich kann also sagen, gib mir alle Bilder von Stühlen in der Sammlung des Museum of Modern Art New York und man bekommt eine sehr gute Auswahl, wirklich alle Stühle in dem Dataset.
00:55:36
Speaker
Ich kann mir das aber nicht zu Nutzen machen, ohne nicht auch gleichzeitig zu sagen, dass Clip eben auch ein ganz bestimmtes Konzept von Stuhl und Möbelstück und allen anderen Dingen auch hat.
00:55:44
Speaker
Da arbeite ich gerade an einem Projekt mit einem Kollegen von mir, Leo Imped, wo wir Clip,
00:55:51
Speaker
gefragt haben, was es zu Street View Bildern aus Paris sagt, hin auf den Prompt A Photo of Paris.
00:55:59
Speaker
Wir schicken also alle Bilder oder geben alle Bilder von Google Street View, die Paris zeigen, auf einem regulären Intervall gesampelt, geben wir Clip zu sehen und sagen, ist das A Photo of Paris und mappen dann, welche Fotos of Paris the most Paris sind von diesen Fotos.
00:56:15
Speaker
Also welche Fotos von Paris das Modell denkt, wirklich essentiell Fotos von Paris sind.
00:56:20
Speaker
Und in meiner Vorstellung sind das schöne kleine Cafés, immer wenn man die Spitze vom Eiffelturm sieht oder diese großen Prachtstraßen.
00:56:29
Speaker
Genau, das ist auch tatsächlich der Fall.
00:56:32
Speaker
Je mehr Eiffelturm, desto mehr Paris.
00:56:34
Speaker
Und das heißt aber natürlich auch, dass Klipp eine ganz bestimmte Vorstellung davon hat.
00:56:37
Speaker
Und alle Banlieues zum Beispiel, also alles jenseits der Peripherik, wo gerade im Moment eben auch die politischen Spannungen stattfinden, das ist nicht Paris in den Augen von Klipp, wenn man das mal so sagen kann.
00:56:50
Speaker
Das heißt, es ist ein ganz klarer Begriff davon, was diese Stadt ausmacht, der bestimmte Dinge ausschließt.
00:56:57
Speaker
Und das muss man thematisieren, wenn man die Möglichkeiten von Clip nutzen will.
00:57:02
Speaker
Es gibt ein witziges Beispiel, wenn man nämlich dann fragt nach einem Foto von Los Angeles, ich wohne ja in der Nähe von L.A., und aber auch die Fotos von Paris eingibt, dann kommt eben die Peripherie.
00:57:13
Speaker
Dann kommen die Hochhäuser, dann kommen die Autobahnen, dann kommen die Umgehungsstraßen um Paris herum.
00:57:19
Speaker
Und auch da gibt es also einen ganz klaren Begriff der Stadt.
00:57:22
Speaker
Was ich damit sagen will,
00:57:24
Speaker
Man muss, glaube ich, wirklich immer auch, wenn man diese Methoden einsetzt, wenn man diese Modelle einsetzt, gleichzeitig versuchen, sich möglichst klar darüber zu werden, was damit einhergeht und welche Begriffe, welche Sichtweisen, welche Perspektiven auf die visuelle Welt man sich damit einkauft.
00:57:43
Speaker
Und ich glaube, das wird die digitale Kunstgeschichte tatsächlich und sollte die digitale Kunstgeschichte tatsächlich verändern in den nächsten

Integration von KI in den Alltag

00:57:50
Speaker
Jahren.
00:57:50
Speaker
Und es wird ja jetzt noch wichtiger, wenn durch die Interfaces auch die Nutzbarkeit von künstlicher Intelligenz im Alltag ermöglicht wurde.
00:58:00
Speaker
Also jetzt nimmt jeder diese DALI, JGPT und wie sie nicht alle heißen und arbeitet damit, ohne zu wissen, was eigentlich dahinter steckt.
00:58:09
Speaker
Ja, genau.
00:58:10
Speaker
Und das passiert ja übrigens auch schon ganz lange.
00:58:12
Speaker
Also das iPhone macht schon ganz lange keine neutralen Fotos mehr von dem, was man so fotografiert.
00:58:18
Speaker
Wer das überhaupt jemals gegolten hat für die Fotografie, dass es ein Abbild ist der Wirklichkeit.
00:58:24
Speaker
Das wird aber zunehmen.
00:58:25
Speaker
Es gibt dieses schöne Beispiel, dass ich glaube ein Samsung-Telefon oder ein LG-Telefon auf jeden Fall kein iPhone aussieht.
00:58:31
Speaker
extrem gute Fotos macht vom Vollmond, die viel zu gut sind, wenn man das schon mal versucht hat, den Mond zu fotografieren.
00:58:37
Speaker
Das klappt nie, ist immer ein kleiner Punkt irgendwo am Himmel, alles verschwommen.
00:58:40
Speaker
Und wenn man aber eben dieses bestimmte Telefon benutzt, dann sieht man die einzelnen Krater und die einzelnen Mare.
00:58:46
Speaker
Und das ist ein KI-Modell, was einfach Großaufnahmen des Monds gesehen hat und die einfach darüber liegt.
00:58:51
Speaker
Das heißt, es wird immer mehr auch Teil des Alltags, nicht nur der Wissenschaft oder der...
00:58:57
Speaker
des Experimentierens in der Wissenschaft und dementsprechend hat das, glaube ich, auch Konsequenzen dann für unseren Alltag.
00:59:20
Speaker
Wenn das eigene Smartphone so gute Fotos produziert, die über das eigene Fotografietalent oder physikalische Grenzen hinausgeht, sollte man skeptisch werden.
00:59:30
Speaker
Es zeigt sich im Gespräch mit Fabian, dass der Umgang mit den Verfahren, die in dem Oberbegriff künstliche Intelligenz versammelt sind, eben keine Zauberei sind.
00:59:40
Speaker
AI-Art als Kunstproduktion bietet nicht nur neue Perspektiven auf unsere digitale visuelle Kultur.
00:59:48
Speaker
Es ist eine spannende Kunstform, die mit der Weiterentwicklung der Technik sich stetig gewandelt hat.
00:59:53
Speaker
Die Zeit wird zeigen, welche Werke und Künstlerinnen in der Geschichte der Kunst und AI-Art bestehen bleiben.
01:00:00
Speaker
Im Blogbeitrag zu dieser Folge findest du eine Liste der genannten Personen und Werke.
01:00:05
Speaker
Den Link dazu gibt es in den Shownotes.
01:00:09
Speaker
In dieser Folge sind wir jedoch weit über das Thema AI-Art hinausgegangen.
01:00:13
Speaker
Die gleichen Verfahren, die für die Kunstproduktion genutzt werden können, ermöglichen eine Vielzahl von Anwendungsszenarien für die kunsthistorische Forschung.
01:00:23
Speaker
Die Modelle wurden jedoch häufig für andere Szenarien trainiert und erstellt.
01:00:28
Speaker
Fabian betont, dass wir als WissenschaftlerInnen neben der Entwicklung von Methoden und Anwendungen auch die Verantwortung haben, wissend und kritisch diesen Technikeinsatz zu begleiten.
01:00:42
Speaker
Darum kümmert sich das Forschungsfeld Critical Machine Vision.
01:00:46
Speaker
Wir befinden uns gerade in einer Verhandlungsphase, was den Einsatz von künstlicher Intelligenz im Alltag und in der Forschung angeht.
01:00:54
Speaker
Wir als KunsthistorikerInnen müssen Teil dieser Debatte sein.
01:00:58
Speaker
Mit einem Blick auf die Geschichte unseres Faches haben wir schon ganz andere Medieninnovationen, Medientechniken wissenschaftlich begleitet.
01:01:06
Speaker
Man denke nur an den Kopienstreit im 19.
01:01:08
Speaker
Jahrhundert oder das Aufkommen der Fotografie, des Films, an den Einsatz von Fotografien statt Zeichnungen und Stichen in der kunsthistorischen Lehre und jüngst den Siegeszug der Beamer gegen die Diaprojektoren, den älteren Kolleginnen manchmal immer noch melancholisch nachtrauern.
01:01:26
Speaker
Da werden wir doch mit so ein bisschen KI-Modellen zurechtkommen.
01:01:31
Speaker
Parallel dazu werden die Debatten natürlich auch in anderen Disziplinen geführt.
01:01:36
Speaker
Die Modelle generativer Bildproduktion werden mit Millionen von Bildern aus dem Internet gefüttert.
01:01:42
Speaker
Auch mit Bildern von KünstlerInnen, die dem nicht zugestimmt haben.
01:01:46
Speaker
Die ersten Prozesse gegen die großen KI-Firmen sind schon im Gange.
01:01:51
Speaker
Wie verhalten sich die generativen Bilder zu denen als Trainingsdaten verwendeten Bildern?
01:01:57
Speaker
Wie viel Ähnlichkeit ist zulässig, ohne das Urheberrecht einer anderen Person zu beschneiden?
01:02:02
Speaker
Der Einsatz dieser Technik und generell der Umgang mit digitalen Bildern wirft viele juristische Fragen auf.
01:02:09
Speaker
Aber das ist eine andere Folge.
01:02:22
Speaker
Diese Folge wurde von Jacqueline Klusig-Eckert produziert im Auftrag des Arbeitskreises Digitale Kunstgeschichte.
01:02:28
Speaker
Unterstützt wird sie dabei von der Redaktion der Arbeitskreismitglieder Peter Bell, Lisa Diekmann, Peggy Große, Waltraud von Pippich und Holger Siemann.
01:02:37
Speaker
Finanziert wird AdHistocast, der Podcast zur digitalen Kunstgeschichte von NFDI for Culture, dem Konsortium in der nationalen Forschungsdateninfrastruktur, das sich mit Forschungsdaten zu materiellen und immateriellen Kulturgütern befasst.
01:02:52
Speaker
Unterstützt wird AdHistocast durch den Deutschen Verband für Kunstgeschichte.
01:02:58
Speaker
Du hast noch eine Frage oder Anregungen?
01:03:01
Speaker
Kontaktiere uns einfach unter podcast.digitale-kunstgeschichte.de