Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
SplitterCast 51 LIVE - Comics und K.I. (mit Ingo Römling und Prof. Barbara Hammer) image

SplitterCast 51 LIVE - Comics und K.I. (mit Ingo Römling und Prof. Barbara Hammer)

S1 E55 · Splittercast
Avatar
112 Plays1 year ago

LIVE aus dem Bunker Ulmenwall im Herzen Bielefelds!

Künstliche Intelligenz ist in den letzten Monaten in aller Munde – und bald auch in allen Pinseln? KI-Programme wie Midjourney erschafft in atemberaubendem Tempo Bilder, die von menschlichen Arbeiten kaum zu unterscheiden sind. Längst sind auch die ersten Comics erschienen, die zumindest teilweise von KI erschaffen wurden. Diese Entwicklung stellt KünstlerInnen, Verlage und letztlich auch LeserInnen vor drängende Fragestellungen: Ist das das Ende menschlicher Kreativität? Oder der Anfang von etwas ganz Neuem? Und, ganz plump, wie funktioniert das eigentlich und ist das legal?

Um diesen Themenkomplex aufzurollen treten in dieser Folge des SplitterCast Live gleich zwei Gäste an: Ingo Römling und Prof. Dr. Barbara Hammer.

Der Berliner Zeichner Ingo Römling ist nicht nur einer der profiliertesten Comic-Schaffenden Deutschlands (mit seiner in mehreren Ländern erscheinenden Serie Malcolm Max sowie zahlreichen Arbeiten für Star Wars uvm.), sondern ein Beobachter und Kritiker von KI-Kunst und ihren Auswirkungen auf die Arbeit von Comic-Künstler*innen. Prof. Hammer versorgt die Show ihrerseits mit geballtem Fachwissen – denn wen sonst sollte man zum Thema ausquetschen, wenn nicht die Lehrstuhlinhaberin für Machine Learning an der Universität Bielefeld?

Der Bild-Reader zur Folge (PDF, ca. 4 MB): LINK

Ingo Römlings Website: http://monozelle.de/

Und uns, den Splitter Verlag, findet ihr hier:
https://www.splitter-verlag.de/

Recommended
Transcript

Einführung und Live-Aufnahme

00:00:05
Speaker
Hallo und herzlich willkommen zum Splittercast, dem Podcast von und mit dem Splitter Verlag, Bielefelds bestem Comic-Verlag. Mein Name ist Max und in diesem Podcast spreche ich mit Macherinnen und Machern aus der deutschsprachigen Comic-Szene. Unter anderem heute haben wir ein etwas weitergefasstes Thema und das ist nicht die einzige Besonderheit, denn heute ist die fünfte Live-Folge des Splittercasts. Wir sind wieder im wunderschönen Bunker Ulmenwall im Herzen von Bielefeld und ich habe ein wunderbares Publikum hier am Start. Hallo Leute!
00:00:44
Speaker
Vielen lieben Dank, vielen lieben Dank, dass ihr so zahlreich auch gekommen seid und dass ihr heute diesen interessanten, ich bin eigentlich sicher, dass es ein interessanter Abend wird, hoffentlich unterheidsamen Abend mit uns verbringen wollt.

Fokus auf Comics und KI

00:00:57
Speaker
Eine kleine Bemerkung vorab, sowohl Ingo als auch ich waren bis vor kurzem gesundheitlich ein bisschen angeschlagen, wenn wir zwischendurch ein bisschen kratzige Stimmen kriegen, Husten, Räuspern und so weiter, das bitte ich jetzt schon mal zu entschuldigen, das gehört zur Authentizität, das wird alles nicht geschnitten.
00:01:12
Speaker
Wir nähern uns heute einem extrem spannenden und auch etwas einschüchternden Thema an. Wir sprechen über Comics und KI. Ihr werdet es in der Episodenbeschreibung gelesen haben. Die Leute hier im Publikum haben es vielleicht auf den Plakaten oder Eintrittskarten gesehen. Keine Ahnung. Das ist ein Thema, von dem ich persönlich als Pressemensch wenig Ahnung habe. Dafür habe ich aber gleich zwei Gäste eingeladen. Einer, der davon Ahnung hat, und eine, die auch davon Ahnung hat. Hab ich, glaube ich, ganz gut eingefällt.
00:01:41
Speaker
Ich habe zwei Gäste da und zwar fangen wir von meiner Seite, von mir aus gesehen, mit der Person an, die das weiter weg ist.

Vorstellung der Gäste

00:01:48
Speaker
Barbara Hammer ist hier. Wen könnte man besser zu einem KI-Talk einladen als die Professorin für Machine Learning, für maschinelles Lernen der Universität Bielefeld? Professor Dr. Barbara Hammer, hallo und herzlich willkommen.
00:02:06
Speaker
Und um die Seite der Comic-Kunst, der Comic-KünstlerInnen zu vertreten in diesem Gespräch, habe ich jemanden eingeladen, den ich schon was länger kenne, der wahrscheinlich auch vielen Hörerinnen und Hörern und vielleicht auch ein paar Leuten im Publikum bekannt ist. Er ist einer der profiliertesten Comic-Zeichner in Deutschland. Er hat unsere persönliche Lieblingsserie, eure bestimmt auch, Malcolm X, mit erschaffen. Er ist ein offizieller Star-Wars-Zeichner. Er ist der Cover-Artist vieler eurer Lieblingsalben und er ist Hobby-Horologe, Uhrmacher für
00:02:37
Speaker
Ja, Leute, die wie ich das googeln mussten. Ingo Röhmling ist da. Hallo, danke.
00:02:49
Speaker
Ich freue mich sehr. Es ist, glaube ich, bitter nötig, dass wir für dieses Thema gleich zwei Leute hier zu Gast haben. Eine kleine Bemerkung vorweg für euch, liebe Hörerinnen und Hörer zu Hause. Wir zeigen hier im Bunker im Laufe der Folge ein paar Bilder auf einem Beamer, die ihr in den Show Notes findet auf unserer Website. Da verlinke ich euch das alles und dann könnt ihr einfach da mal reinschauen, was wir uns da angeschaut haben.

Kontroverse um KI in Kunst und Comics

00:03:15
Speaker
Wie sind wir zu dem Thema gekommen? Es gibt mehrere Gründe dafür. Einer ist sehr naheliegend KI, künstliche Intelligenz, artificielle Intelligenz und Machine Learning. Und diese ganzen Sachen sind medial zurzeit quasi omnipräsent. Man kann dem Thema kaum entkommen. Und die einen sagen, es ist das technologische Zukunftsthema schlechthin. Die anderen sagen, es ist das Ende der Menschheit, wie wir sie kennen.
00:03:40
Speaker
Die Wahrheit liegt vielleicht irgendwo dazwischen. Vielleicht finden wir das im Laufe des Abends raus. Ich glaube nicht, aber wir nähern uns an. Es wird aber auch, also das Thema KI, in der Kunstbubble und auch in der Comickunstbubble durchaus kontrovers diskutiert. Und das alleine ist nicht nur für Ingo, sondern auch für uns als Verlag und vielleicht auch für euch als Leserinnen und Leser, als Kunst- und Comicinteressierte Leute ein Grund, sich mit dem Thema ein bisschen auseinandersetzen zu wollen.
00:04:07
Speaker
Zu guter Letzt find ich's persönlich auch interessant, bin aber wie bei so vielen Themen, die ich im Podcast hier bespreche, ein bisschen zu faul, um mich da selber einzulesen. Da kommt ihr mir jetzt entgegen. Im ersten Teil der Show sprechen wir ein bisschen über ein paar Grundlagenfragen, gucken mal, was für Impulse wir uns da gegenseitig geben können, vielleicht auch mit den Bildern, die ich mitgebracht hab. Im zweiten Teil der Show beschäftigen wir uns ein bisschen mehr mit Problemfeldern, Themen, die vielleicht zu diskutieren sind.
00:04:37
Speaker
Wofür wir damit einsteigen? Die Namen unserer Gäste habe ich schon gesagt, aber ich denke, ein paar Worte von Ihnen selber wären zu dem Thema auch noch schön.

Barbara Hammer über maschinelles Lernen

00:04:45
Speaker
Barbara, als Uni-Professurin hast du ja viele fachliche Interessen. Unterstelle ich jetzt einfach mal so, habe ich bisher so mitbekommen. Arbeit ist auch eine ganze Reihe von Projekten, die wir hier gar nicht alle nennen können und zu denen wir auch gar nicht alle mal sagen können.
00:05:01
Speaker
Kannst du in so ein paar Worten selber mal umreißen, womit du dich in deinem Alltag an der Uni oder generell beschäftigst? Ja, super. Also ich mache maschinelles Lernen. Das heißt, wir entwickeln Methoden, wie man aus Daten Intelligenz generieren kann. Und da sind Schwerpunkte einerseits, wie man Fehler vermeidet, weil KI macht häufig einfach kompletten Blödsinn. Im Endeffekt kann es sein, dass sie
00:05:26
Speaker
Fehler macht, Katze für den Hund falsch sieht und so weiter. Also wir beschäftigen uns damit, wie man das sicherer machen kann. Das ist ein ganz großes Thema. Und ein zweites großes Thema sind Anwendungen, insbesondere in Bereichen, die für die Gesellschaft relevant sind. Zum Beispiel haben wir ein ganz großes Projekt, wo wir KI verwenden, um die Trinkwasserversorgung der Zukunft sicherer zu machen, was ein totales Potenzial ist.
00:05:50
Speaker
Die Trinkwasserversorgung in der Zukunft? Ja, also LEX-Erkennung in Leitungen zum Beispiel. Im EU-Durchschnitt sind es 20 Prozent Wasser, was verloren geht durch LEX. Und ich weiß nicht, hier Borkholzhausen zum Beispiel musste schon das Schwimmbad auch im nassen Bielefeld teilweise dicht machen, weil wir nicht genug Trinkwasser sonst hätten. Also das ist ein Riesenproblem und da kann halt KI auch helfen, um im Endeffekt reinzuschauen in die Leitungen. Das ist hell, oder? Genau.
00:06:20
Speaker
Okay, also mit solchen, mit derart relevanten Themen werden wir uns heute vielleicht nicht beschäftigen. Wir machen jetzt Comic. Wir machen jetzt Kunst, wobei das nicht wichtig zu bezeichnen. Damit mache ich uns jetzt selber kleiner als wir sind. Das macht eigentlich gar keinen Sinn.
00:06:36
Speaker
Ganz plump gefragt, ich stelle ja ganz gerne plumpe Fragen. Wir haben jetzt ja seit einem guten Jahr, seit 2022 im November, als Chat-GPT so richtig gestartet ist, ja knapp ist ja, medial einen extremen Fokus da drauf und auch von vielen Privatpersonen sehr viel Interesse zu dem Thema.
00:06:57
Speaker
Es ist einfach ein Hype-Thema. Ganz direkt gefragt und persönlich. Wie empfindest du diesen Hype als jemand, als eine Expertin, die sich viel länger und viel intensiver als wahrscheinlich alle anderen hier im Raum mit dem Thema schon auseinandersetzen?
00:07:12
Speaker
Also ich finde ihn einerseits ein bisschen, also problematisch ist es, man wird dauernd gefragt für Gutachten und so weiter. Das ist ein bisschen problematisch. Ich glaube, der Hype ist insofern hochrelevant, weil wir jetzt
00:07:28
Speaker
klar machen müssen, dass die Gesellschaft mit diesen KI-Entwicklungen nicht vernichtet wird. Und das ist einerseits, dass Berufe nicht verschwinden, dass die Menschen eben gut mit der KI zusammenleben. Und das ist, glaube ich, ganz gut, dass das jetzt im Alltag angekommen ist, weil vorher war KI auch überall. Man hat es nur nicht wirklich gemerkt. Daten wurden gesammelt und man hätte ganz viel rauskriegen können über meine
00:07:51
Speaker
Footprint in Social Media zum Beispiel, was ich für vorlieben habe. Und ich glaube, dass der Hype ganz gut ist, weil jetzt klar ist, da muss was passieren und da muss was entschieden werden. Es muss gesellschaftlich als auch von der Rechtslage eben was passieren, als auch von der Technologie. Und das betrifft unter anderem die Kunst und aber auch andere Berufe und auch wie bis zu Schulen, wie Schulen unterrichten, glaube ich, muss halt geregelt werden. Und das finde ich ganz gut.
00:08:18
Speaker
Das ist aber schon mal eine grundsätzlich positive Aussage und damit würde ich mal kurz zu unserem zweiten Gast überleiten. Ingo, du bist zum zweiten Mal schon mein Gast hier zum ersten Mal face to face, aber du warst schon mal digital dabei. Arme Socke. Und vielen Hörerinnen und Hörern hoffentlich ein Begriff, wenn nicht, solltet ihr das dringend nachlesen. Wir fangen bei dir einfach mal, das habe ich letztes Mal auch schon so gemacht, mit der Promo an.
00:08:46
Speaker
Du so als Künstler Braun, arbeitest du denn zurzeit nicht maschinell? Also mit Hand und Hirn und Auge? Mit Hand und Hirn. Also direkt KI setze ich tatsächlich nicht ein, wobei ich aber trotzdem sehr viele digitale Tools habe. Also ich zeichne digitale, ich benutze 3D irgendwie ganz viel für Hintergründe, für Szenerien, um Panel-Layouts zu bauen zum Beispiel.
00:09:13
Speaker
Woran ich gerade arbeite, also der neue Malcolm X ist fertig, falls ihr es noch nicht mitbekommen habt.
00:09:22
Speaker
Das wird natürlich bei Splitter erscheinen, genau. Jetzt arbeite ich gerade am nächsten Band von den Chroniken des Universums. Das machen wir jetzt dieses Jahr auch noch fertig. Das wird dann erst mal auf Französisch kommen. Ja, war das die Frage? Das war die Frage, da war eine Arbeit. Wenn ihr diese Folge hört, Malcolm Beck's Nummer 6 erscheint in wenigen Wochen. Die Leseproben sind wahrscheinlich dann schon sehr bald online. Die Dämonenklaue wurde ausgefüllt. Ja, ganz wichtig.
00:09:53
Speaker
Und an dich stelle ich einfach mal dieselbe Frage wie an Barbara diesen Hype, den du ja auch mitverfolgst und mitbekommst in deinen Bubbles aus deiner persönlichen Perspektive. Wie erlebst du den?

Ingo Röhmlings Perspektive auf KI

00:10:05
Speaker
Mittlerweile wieder als ein bisschen abgekühlt, also am Anfang.
00:10:09
Speaker
Als die allerersten Bildbeispiele kamen, war das so, wow, das ist ja krass. Das waren so diese Mid Journey 1.0 Version, wo noch nicht so richtig klar war, soll das ein Mensch sein oder ist das irgendwie eine komische Strain-Formation. Das war eher so ein bisschen so eine abstrakte Komposition mit irgendwelchen Lichtquellen.
00:10:29
Speaker
Das fand ich sehr reizvoll eigentlich optisch. Das haben auch viele Illustratoren und Kollegen und Kolleginnen gesagt, das sieht aber eigentlich ganz nett aus. Und dann wurde aber sehr sehr schnell klar, dass gezielt auch zum Beispiel Stile imitiert werden können und auch werden.
00:10:46
Speaker
Und dann kam John Lamb mit seinem Posting, ich weiß gar nicht, wo das losging, vielleicht bei Twitter, als es noch Twitter hieß, dass es aufgedeckt wurde, hey, die haben hier im großen Stil Datenbanken abgegrast und sich der Bilder bedient. Und das gab natürlich einen riesen Aufschrei, und der so richtig verklungen ist der noch nicht. Es gibt jetzt so die einen, die sich wieder so ein bisschen gesettelt haben, die sagen, naja, also die Technologie ist jetzt da, wir können es ja eh nicht mehr verhindern.
00:11:15
Speaker
Da muss natürlich irgendwas passieren juristisch und so und ich persönlich sehe das auch. Ich bin wieder ein bisschen entspannter. Ich sehe nicht so diese große, was du auch gesagt hast, ob jetzt Berufe wirklich ersetzt werden. Aber es wird gewaltige Veränderungen geben, also auch in unserem Berufsfeld, also in der Illustration.
00:11:34
Speaker
im Comic zeichnen wahrscheinlich auch, aber man muss halt dazu sagen, ich glaube, wir sind halt eher sehr am Anfang. Man sieht jetzt, wann ging das los, vor zwei Jahren mit diesen Mid-Journey-Geschichten, jetzt kannst du was sehen. Und dann kommt irgendwie drei Monate später etwas, was noch viel besser ist. Ah, aber die Hände, und die Hände. Ah nein, die Hände sind jetzt ja auch okay. Ich hab dann mal so einen Test gemacht, wo dann halt getestet wurde, kannst du erkennen, ist das jetzt ein
00:12:04
Speaker
KI-Foto, ist es ein echtes Foto? Und ich bin teilweise wirklich reingefallen. Also ich muss zugeben, bei manchen Sachen ist es offensichtlich und so, wenn so eine Halskette hier bei dem Papst und so, die hat nur eine Hälfte, der Rest hängt in der Luft und so. Aber da war zum Beispiel so ein Kind in einem Zug, das hat aus dem Fenster geguckt und hatte die Hand so ein bisschen komisch. Ein kleines Kind, da dachte ich so, würde ein Kind die Hand so halten? Nee, das ist KI. Falsch, meh. Das war ein echtes Bild. Also es ist halt noch lange nicht erledigt und es ist ein unglaublich dynamischer Prozess.
00:12:36
Speaker
Und die Spaltung ist nicht mehr ganz so stark, aber sie ist immer noch vorhanden. Also die Leute, die das kategorisch ablehnen und Angst davor haben, teilweise finde ich auch verständlich. Und die anderen, die halt sagen, come on, das ist ein Werkzeug. Also nimmst du auch Photoshop, ist doch dasselbe oder so. Manche sind da ganz entspannt. Wir gehen auf einige dieser
00:12:58
Speaker
Themen, Problemfelder, ich benutze dieses Wort zu häufig, es tut mir leid. Nochmal dezidiert ein bisschen ein, aber wo du gerade auch Mid-Journey erwähnt hast, was ein bildgenerierende KI ist, Chat-GPT hier zum Beispiel, Textgenerierende, also ich spreche hier als Laie. Hörerinnen und Hörern, die mich korrigieren möchten, können das gerne tun, schreibt uns einfach eine E-Mail mit Droh-Botschaften.
00:13:21
Speaker
Mit Journey als bildgenerierende KI benutzen wir im Verlag nicht viel, aber wir haben ein Abo dafür und ich habe ein paar Beispiele mitgebracht. Wir fangen aber nicht damit an, sondern mit
00:13:34
Speaker
Diesen Bild. Die Leute hier im Publikum, die das nicht sehen können, müssen bitte mal umkommen. Die Leute zu Hause, ihr könnt jetzt einfach einen Link in den Shownotes klicken und dann guckt ihr euch das erste Bild an. Das ist das Cover des ersten Bandes von deiner Comic-Serie, merke Max, deiner und Peter Menniggens Comic-Serie, du bist der Illustrator davon.
00:13:52
Speaker
Wir sehen zwei Hauptcharaktere, Merkem und Charisma, die hinter einem Grabstein hervorlugen. Und ich würde dich zum Einstieg, dich, Ingo, gerne einmal fragen, kannst du dich nach all der Zeit, nach den Ionen der günstigen Tätigkeit noch erinnern, wie dieses Bild zustande kam, diese Coverillustration? Okay, kurze Hustenpause. So, sorry.
00:14:17
Speaker
Ja, ich kann mich da noch ziemlich gut dran erinnern. Das war die aufregende Zeit, als das bei euch ja vorgestellt wurde beim Verlag, das Projekt. Und ich habe dieses Cover gezeichnet, als der Vertrag, glaube ich, noch gar nicht unterschrieben war. Ich glaube, das gehörte zu unserem Pitch dazu. Das heißt, ich hatte, ich glaube, zehn Seiten vom Inhalt. Das war halt diese Eröffnungsszene auf dem Friedhof.
00:14:41
Speaker
Und es ist, was ich daran toll finde, also was ich bis heute toll finde, ich mag halt die Komposition, es ist natürlich sehr offen, es ist relativ generisch und es stellt halt, aber ich finde, es hat halt eigentlich gleich so diesen Charme irgendwie eingefangen, den ich halt wollte, also für die Serie. Ich sag halt, mittlerweile zeichne ich anders, ich finde auch, ich zeichne besser, aber es ist einfach immer noch, ja, klasse, ich mag's, ich hab das schon,
00:15:12
Speaker
Ich glaube, wir mögen es auch. Auf jeden Fall. Dir gefällt es auch, Barbara. Vom Prinzip her schon mal ganz gut. Kannst du vielleicht
00:15:31
Speaker
Dass es uns gefällt, sind wir uns einig. Kannst du ein, zwei Stichpunkte sagen, was dir immer noch gefällt? Du hast gesagt, es ist relativ offen, relativ generisch. Das ist nicht per se negativ oder positiv. Ja. Ist es die Koloration? Ist es die Gesichtsausdrücke? Was dich daran als Künstler, der dieses Bild geschaffen hat, immer noch ... Was du daran gut findest? Ein bisschen konkreter.
00:15:55
Speaker
Also ich kann ja jetzt einfach nur so drauf zurückblicken. Es ist, wie du sagst, natürlich eine ganze Weile her, mittlerweile zwölf Jahre oder so.
00:16:03
Speaker
Und dann dann mein ich habe ich habe ich habe ich hatte ja ich kannte die figuren ja noch gar nicht so gut wie ich sie heute kenne und rückblickend kann ich sagen ich habe sie trotzdem ganz gut getroffen also melkem hat sich ein bisschen verändert die frisur ist ein bisschen anders geworden und so die entwickeln sich ja immer mit der zeit also man lernt seine seine figuren ja mit der zeit immer so ein bisschen besser kennen und ich mag dieses
00:16:30
Speaker
Dieses Hammer-Horror-Licht auch da drin. Schiefen Grabstein und so. Ein Riesen-Fan von solchen Sachen. Und das hat einfach so die Tonalität einfach so genau richtig vorgegeben für die Serie. Super Antwort. Danke, danke dafür. Und wir gehen mal einen Schritt weiter. Denn meine Kollegin Marlena war so freundlich. Kleiner Applaus für Marlena, die ist auch gerade
00:16:58
Speaker
War so freundlich und hat für mich mit Journey ein paar Bilder generieren lassen. Und zwar zum Beispiel dieses. Ja, ja. Also an diesem Bild hat ein Mensch keinen Pinselstrich getan. Das ist eins zu eins so aus dem Computer gefallen. Darf ich mal kurz mich umdrehen? Ja, natürlich, bitte. Du hängst nirgendwo fest dieses Ding. Ach guck mal, das ist doch nice.
00:17:26
Speaker
Das war Mid Journey 5.0 und für diejenigen, die vielleicht noch nie, ich selber habe das auch zum allerersten Mal gesehen, man nimmt einem KI Tool, einem KI Programm im Mid Journey einen sogenannten Prompt, eine Arbeitsanweisung.

Vergleich von KI-generierten Bildern und Ingos Kunst

00:17:41
Speaker
Der Prompt für dieses Bild war,
00:17:43
Speaker
A classic, detailed comic illustration of a cemetery in Victorian-era London. A female and male character, eerie atmosphere, grave diggers, brown colors, tombstones. Auf Deutsch eine klassische, detaillierte Comicillustration eines Friedhofs im viktorianischen London. Eine weibliche und eine männliche Figur oder ein männlicher Charakter.
00:18:08
Speaker
Schummrig-gruselige Atmosphäre, Totengräber oder Grabräuber, braune Farben, Grabsteine. Das ist dabei rausgekommen. Witzig. Also, Grabsteine kann ich jetzt gar nicht so viel erkennen. Das ist wahrscheinlich dieser Highgate Cemetery. Der hat schon fast so ganz viele Gruften. Sind's mehr Mausolenen. Wie so kleine Mausolenen sieht das aus. Find ich witzig, dass das da ... Also, du hast wirklich ...
00:18:39
Speaker
Was ich auch lustig finde ist, dass der komplette Boden mit Wasser bedeckt ist. Das ist ein dramatischer Effekt. Was mich beeindruckt ist, dass der mittlerweile menschliche Proportion ziemlich gut hinbekommt und beide sind schwarzhaarig.
00:18:57
Speaker
Aber auffällig, Marlene ist das sofort aufgefallen und ich sehe es jetzt natürlich auch, wir haben dem Prompt nicht mitgegeben, dass sie von uns weggucken sollen. Die Gesichter werden automatisch ausgespart. Wir sehen den Rücken der Figuren, das wurde aber gar nicht spezifiziert.
00:19:13
Speaker
Ich find das interessant, weil du grade bei deinem Cover meintest, du hast die Figuren gut getroffen und die Gesichter sind ausdrucksstark. Eins geht gar nicht. Eins geht gar nicht. Händchen halten. Okay. Das muss in der Schwebe bleiben. Das darf nicht mit Karis mal zusammen sein. Das ist verboten. Der Vater hat's geboten. Wir haben ja keine inhaltliche ... Die KI wusste ja nicht ... Der große Lord Miss Kina würde ausflippen. Hier ... Okay.
00:19:42
Speaker
Ja, aber ich find dich auch lustig, weil du hast ja gesagt, wir sollen ja nicht ... Das ist ja ein Liebespaar, was wir hier sehen, oder? Ja, aber Male-Female wird halt so ... Wir sind jetzt schon zu sehr in der ... Ich wollte eigentlich Barbara noch mal kurz zu Wort kommen lassen und dir eine Frage stellen.
00:19:57
Speaker
Für auch für mich als leiden wenn wir das jetzt so machen wir geben diesen prompt in tatsächlich ist das discord in jemanden ich finde das auch seltsam und hackt das in discord ein und dann geht das in die cloud und wird irgendwie operiert dann kommt dieses bild heraus was passiert eigentlich wir geben diese textzeilen ein dieses schlagwörter
00:20:16
Speaker
zu denen wir als Mensch ja schon irgendwie sofort Assoziationen, Bilder im Kopf haben. Was macht Mid Journey eigentlich damit? Genau, also der Kernpunkt ist, dass die Mid Journey eigentlich Methoden benutzt aus der KI, die genau imitieren, was Menschen teilweise auch machen. Also eine ganz wichtige Sache ist dieser Bildgenerator. Das ist ein sogenanntes Diffusion Model, das ist im Endeffekt auf ganz vielen Daten trainiert.
00:20:42
Speaker
Und was man dort möchte, man möchte aufgrund von einem Rauschen, einfach irgendeinem kleinen Rauschen, ein sinnvolles Bild generieren. Und das macht man, indem man ganz viele reale Bilder nimmt, da quasi den Prozess rückwärts macht, nämlich Rauschen drauf addiert, bis man gar nichts mehr sieht und dann lernt mit der KI, dass man das umdreht, den Prozess. Das ist so ein bisschen, was ein Diffusion-Model macht.
00:21:07
Speaker
Was jetzt hier noch besonders ist, ist natürlich, dass man einen Prompt gibt. Das ist dann im Endeffekt die Verarbeitung, dass man Sprache in irgendetwas übersetzt, was quasi den Trigger gibt. Was ist der Anfangsrauschen? Und dahinter steckt das, was auch bei JetJPT steckt, nämlich ein sogenanntes Large Language Model, also etwas, was Sprache in einen Raum einbettet.

Diskussion über KI und kreative Einschränkungen

00:21:29
Speaker
Das heißt, Sprache wird eine reelle Vektor, ist das also eine Menge von reellen Zahlen, mit denen man dann rechnen kann.
00:21:38
Speaker
TGPT oder Large Language Models sind so trainiert, dass Sprachbegriffe, die häufig zusammen auftreten, wenn man was ausdrückt, zum Beispiel Mann, Frau, Hochzeit, dann sind die in der Nähe. Und deswegen ist es auch so, weil Mann, Frau, Hochzeit oder Liebe so häufig in den Medien vorkommt, ist das eigentlich immer dabei. Also kann man gar nicht ohne rechnen.
00:21:58
Speaker
Man kann sich das wirklich so räumlich vorstellen. Worte female und male schweben irgendwie in der Nähe voneinander und dann wird das automatisch als eine romantische Beziehung interpretiert. Was dann noch ist, jetzt muss ich noch eine Assoziation haben von diesen Sprach.
00:22:16
Speaker
zu dem Bildsachen. Und da gibt es halt Modelle, die das zusammen einbetten. Also genau wie ein Mensch, der halt, wenn er jetzt an Bielefeld denkt, denkt so, ah, da habe ich mit dem Ingo gesprochen, bla, bla, bla. Und aus dem habe ich noch dieses tolle Comicbild im Kopf und natürlich assoziiere ich das. Und das kann man auch trainieren, dass das assoziiert wird.
00:22:41
Speaker
Und da ist auch schon eine Sache, also was man hier auch sieht, ich finde zum Beispiel das Bild total nicht so gut. Ich hätte Comic nicht gelesen, wenn ich das da drauf gewesen wäre. Erstens ist es kein Comic, sondern KI ist unglaublich gut, so Textur relativ realistisch zu machen.
00:22:58
Speaker
Comics abstrahieren, also bei dir war zum Beispiel der Baum so toll, da dachte man so wow, diese verschlungenen Sachen, das ist hier überhaupt nicht drin, das ist ja langweilig und ich finde das so super, wie man da quasi den Baum hochwandern könnte. Meine Kinder, die fahren da mit dem Finger rauf und runter ewig, um zu sehen, welche Zeilen denn wo kommen. Also das ist halt was, was so in der Natur gar nicht so vorkommt, das ist an reellen Sachen trainiert, also auch an normalen Bildern, die man Fotos hat und das ist hier auch nicht drin und ich finde es langweilig.
00:23:29
Speaker
Das finde ich total langweilig, dieses Cover. Das ist einfach so generisch. Das ist generisch. Ja, durchaus. Das stelle ich jetzt gar nicht. Das stelle ich jetzt gar nicht. Und das ist genau das, was man rauskriegt. Ich finde es halt handwerklich ist es gut. Es könnte auch irgendwie so eine dark romantic generische Cover-Illustration sein. Geht auf jeden Fall durch. Ich fand auch zum Beispiel, natürlich ist es nicht gezeichnet, es ist eher gemalt.
00:23:54
Speaker
Wahrscheinlich, ich weiß es nicht, wie das zustande kommt. Ich hätte eine kleine Zwischenfrage. Du hast ja gesagt, das wird aus einem Rauschen heraus wieder zurückgeführt, aber unter einem Kommando. Unter diesem Kommando ist halt der Prompt, der sprach
00:24:09
Speaker
Was kommt denn dazu erst? Das würde mich mal interessieren, weil wenn du aus dem Rauschen rausgehst, ich hab's bei Mid Journey einmal gesehen live, das kommt ja aus so einer Unschärfe. Das geht mit der Farbfläche los, dann bilden sich da einzelne Korrekturen, da ist der Lichtpunkt irgendwie, orientiert sich das zuerst zum Beispiel an der Farbgebung, an der Lichtstimmung und kommt dann, sagen wir jetzt, machen wir zwei Mal
00:24:28
Speaker
Das weiß man nicht. Das ist ja auch so KI. Das eins der ganz großen Probleme ist eigentlich Blackbox. Das sind große neuronale Netze. Das sind einfach hochgradig nichtlinäre Abbildungen, die iteriert, iteriert, iteriert werden, hundertmal oder so. Und man hat erstmal keine Ahnung, was da losgeht. Es könnte auch sein, wenn man einen komischen Prompt macht, dass da keine Ahnung, Arminia rauskommt, weil du ein bisschen daneben bist. Kann passieren. Das kann man nicht verhindern. Dass da plötzlich was ganz Komisches rauskommt.
00:24:57
Speaker
Und würde man denselben Prompt exakt noch mal so eingeben? Da würde aber was anderes auskommen, oder? Weil es ein probabilistisches Verfahren ist. Also das heißt, das geht mit Wahrscheinlichkeiten um und das Ganze ist auch mit Wahrscheinlichkeiten implementiert. Das ist nicht unbedingt deterministisch, sagt man, sondern es ist so, als ob es zwischendurch würfelt. Man kann halt so diesen Seed, also das heißt die erste Wahrscheinlichkeitszahl, mit der man startet,
00:25:22
Speaker
kann man festsetzen und dann sollte das selbe rauskommen, aber normalerweise würfelt der ein bisschen, weil das das Ganze flexibler und auch tatsächlich besser macht. Deswegen ist das, also das ist kein Algorithmus, der jedes Mal dasselbe macht, sondern das ist so ein bisschen, ja, wenn man halt einen Ehekracher hat, weiß man auch nicht, was rauskommt. Nochmal anschauen, ich nochmal anschauen.
00:25:46
Speaker
Ich möchte jetzt mal wirklich auf so ein paar Details. Also das ist jetzt hier, weil wenn man denselben Prompt gibt, man kriegt ja auch immer mehrere Bilder. Und das ist auch gut, weil das Problem ist, dass die Prompts ja komplett komisch was geben. Also man weiß nie, was sie geben. Das ist eins von vier Bildern, die aus dem Prompt generiert wurden. Marlene hat jetzt dieses ausgesucht. Es waren vier. Die waren durchaus unterschiedlich.
00:26:05
Speaker
Aber schon im selben Raum unterwegs, sag ich mal. Was ich hier ganz lustig finde, ist, ich glaube, eher der Algorithmus hat jetzt nicht so richtig rausgekriegt, was jetzt Fledermäuse oder Vögel sein sollen oder fliegende Blätter. Aber so sehen die auch aus, wie so ein Drache ganz oben, finde ich.
00:26:23
Speaker
Genau. Da hat sie so eine Art Schwanz oder so. Die waren ja auch gar nicht geprompt. Die hat das Ding ja... Kann man sagen, wie das eigentlich zustande kommt? Ja, weil typische Bilder wahrscheinlich aus so Gruselszenen, da sind immer Fledermäuse oder Drachen oder irgendwas drin und der vermurgelt das dann. Und je nachdem, wo man ist, kriegt man mal mehr Drachen und mal mehr Fledermäuse. Und das ist halt was, was häufig auf realen oder den Bildern, mit denen das trainiert wurde, draufkommt.
00:26:51
Speaker
Was ich, wo du sagtest, du findest es langweilig, weil es zu perfekt ist oder so? Oder weil es zu realistisch ist? Ja, es ist halt nicht, es ist zu realistisch. Also es ist eher eine Gemälde. Es ist nicht, es vereinfacht nicht. Also bei Comic finde ich immer das Tolle, dass man abstrahiert und dass man sagt, das ist das Wesentliche. Und genau das kann die KI nicht, die weiß nämlich nicht, was da drauf ist.
00:27:11
Speaker
Im Wasser würde ich gerade sagen, hier unten hat die Stelle hier, ich weiss nicht, ich deute da jetzt mal drauf. Ihr Röbling deutet auf eine Stelle unten. Ingo zeigt ungefähr in die Mitte unten. Das ist schon Simplifizierung, also da ist schon, das ist schon schön gerendert, also das ist jetzt nicht fotografisch. Ja, gerendert, aber nicht abstrahiert, es ist gerendert. Na ja gut, also für mich ist das schon eine Form von Abstraktion, wo ich sagen würde, also da würde ich es nicht erkennen. Ich habe jetzt das Bild bewusst nach Sachen durchsucht,
00:27:36
Speaker
Wo ich sagen würde, wo erkennt man denn, dass das aus einer Maschine kommt? Also ich muss ehrlich gestehen, also jetzt auf den ersten Blick hier, diese Vögel, Blätter, Fledermäuse sind mir spät aufgefallen tatsächlich.
00:27:51
Speaker
Ich glaube, du näherst dich der Sache von der handwerklichen Seite. Und Barbara, du kommst eher aus der Seite den menschlichen Funken. Wie innovativ ist das? Das ist nicht innovativ. Du suchst nicht nach dem Handwerk, sondern nach dem Konzept. Ich würd mal ein Bild weitergehen.
00:28:09
Speaker
Interessant, ich hab vorhin ja gesagt, das ist ein Bild von Mid Journey 5.0. Das impliziert, es gab vorher noch vier andere Versionen. Und tatsächlich, noch mal danke Marlene, wir haben rausgefunden, oder Marlene hat rausgefunden, dass Version 4 für Comic-Illustrationen eigentlich ein bisschen besser funktioniert, denn da kam mit demselben Prompt das hierbei raus.
00:28:31
Speaker
Wir sind beim nächsten Bild, liebe Leute, zu Hause. Die halten nicht Händchen. Das ist ... Die halten nicht Händchen. Merke Max ist stark gealtert.
00:28:41
Speaker
Ja gut, also Ingo, du musst ja immer... Er weiß ja nicht, wer Merck gewusst ist. Die KI wusste nichts davon, was wir mit diesen Bildern machen. Der Prompt war wirklich nur, also es ist dieselbe Ausgangslage, aber das ist dabei rausgekommen. Und das, finde ich, sieht schon mal deutlich mehr nach Comic aus. Wir haben Outlines, wir haben einen gewissen Grad von Abstraktion, wir haben weniger
00:29:05
Speaker
realistische Schattierung und Kolorierung und Lichtgebung vor allem auch. Es sind viel weniger Schatten- und Lichtebenen drin.
00:29:15
Speaker
Und die Hände sind aber ziemlich schlecht gezeichnet. Ich würde handwerklich sagen, es gibt ziemlich viele Sachen, die da nicht so richtig gut sind. Jetzt gerne eine Stilkritiker. Stilistisch ist das, also jetzt unten, unten der Bereich mit den Steinen und so und mit dem Licht, das da drauf fällt, das ist schon nice. Also das ist schön gemacht, aber jetzt wenn die menschlichen Figuren
00:29:38
Speaker
Und wenn man so ein bisschen in der Geometrie schaut, da fallen mir auf jeden Fall schon eine ganze Menge Sachen auf. Da würde ich dann sagen, hast du das unter Drogen gezeichnet oder so? Das sieht wirklich sehr gezeichnet aus. Aber Charisma hat irgendwie kein Gesicht. Also die Frau hat kein Gesicht. Die Hände verschmelzen ineinander. Und der Mann hat irgendwie ein komisches Gerät da in der Hand. Das hängt irgendwie so runter. Soll aber vielleicht ein Stock sein. Das sieht aber aus wie ein Schwert oder so. Da ist so einiges drin so
00:30:08
Speaker
Was hat dich denn geritten? Hier oben ist so ein Hakenkreuz fast drin. Und da wächst ein Ast raus. Und der Mond ist auch noch dran. Du wächst auch so ein Ast raus. Genau, krass.
00:30:23
Speaker
Also, das ist tatsächlich semantisch falsch, wird man sagen. Und das ist eins der Probleme der KI, die macht nur Muster. Also, die kann nicht wissen, da ist jetzt ein Auto drauf, eine Person oder irgendwas. Und wo Menschen halt besonders gut sind, die halt zu gucken, dass alles stimmt, dass eine Person zwei Ohren hat, und wenn eine Person keine zwei Ohren hat, ist für einen Menschen komisch, für die KI nicht. Ja, natürlich. Ich meine, weil, woher sollen die das wissen und so weiter? Das ist ein wichtiger Punkt. Also, das muss man sich immer bewusst machen.
00:30:52
Speaker
Also ich finde, es sieht auf jeden Fall illustriert aus, aber ich würde sagen, der Erzeuger, die Erzeugerin, da sind Drogen im Spiel. Du musst wahrscheinlich von das sprechen bei KI. Das KI hat das gerät.
00:31:10
Speaker
Ja, also ich hätte dann Fragen. Kann man, Barbara, kann man irgendwie eine halbwegs allgemeine Aussage darüber treffen, wie diese, ich sag ja erst mal Veränderungen, nicht Verbesserungen, aber von Version zu Version, nicht nur von Mid-Jane, sondern generell, KI ist ja
00:31:29
Speaker
So für den allgemeinen Gebrauch im medialen Umfeld noch neu. Ich weiß, dass es das nicht ist, aber wir normalos beschäftigen uns noch nicht so lange damit. Wie geht das so schnell? Was verändert sich da eigentlich an dem Algorithmus? Wie wird der besser?
00:31:47
Speaker
Der Algorithmus verändert sich nicht wirklich. Das sind ja sogenannte Foundation Models. Das heißt, so was wie Bilderkennungssprache schreiben und so was. Häufig große Tech-Institute im Fall von diffusion Models, teilweise auch Open Source, zur Verfügung stellen. Und die trainieren das weiter für neue Daten. Das heißt, da ist immer mehr und mehr und mehr Wissen drin im Endeffekt, was widergespiegelt wird. Und dieses Wissen ist natürlich auch so, dass das vielleicht Sachen überschreit, weil es gibt vielleicht viele
00:32:15
Speaker
nicht so viele Comics, auf die das trainiert wurde, aber viele realistische Bilder. Und deswegen werden die immer realistischer, was auch ist, dass die feiner sind von der Auflösung, also dass man die Pixel einfach besser, höher machen kann. Das ist auch normalerweise eine Entwicklung, dass die Modelle im Endeffekt auf mehr und mehr Daten trainiert werden, wobei die Daten eventuell nicht repräsentativ, insbesondere nicht repräsentativ für Comics sind.
00:32:38
Speaker
und eben auch immer feiner in der Abdeckung Auflösung sind. Und dann typischerweise haben die dann auch noch Funktionalitäten. Also wenn ich zum Beispiel sage, ich muss häufig ein Gesicht einfach austauschen, dass man eben so spezielle Funktionen vorprogrammiert, weil das nicht so ganz einfach ist. Ich meine, ich kann jetzt der KI sagen, mach das Gesicht oben rechts, weg.
00:32:58
Speaker
Aber die weiß ja gar nicht, dass dein Gesicht ist. Das kann klappen, aber es kann auch sein, dass sie jetzt irgendwas ganz anderes macht. Dass sie zum Beispiel auf dem Grabstein jetzt, da ist ja eine Person hier, dass die das Gesicht von dem Grabstein wegmacht, weil die natürlich denkt, okay, das ist ja der erste, was wie ein Gesicht aussieht. Also das ist problematisch, so was hinzubekommen. Das ist eigentlich so die Entwicklung. Also immer mehr und mehr Daten, es wird nachtrainiert und es wird immer feiner und immer feiner in der Auflösung im Endeffekt. Das ist so ein Hauptunterschied.
00:33:28
Speaker
Und wenn du sagst, dass es wahrscheinlich einfach noch nicht auf so viel Comic-Illustration trainiert wurde, im Umkehrschluss, wenn es das werden würde, würden wir auch bessere Comic-Illus bekommen?

KI-Training und Comic-Stil

00:33:39
Speaker
Oder kann man das nicht so pauschal sagen? In der Regel ja. Was heißt besser? Ich glaube, es gibt nicht eine Reihe besser. Ich glaube, dass sie handwerklich besser sind, in dem Sinne, dass da nicht so viel ...
00:33:53
Speaker
Sachen sind, wo Ingo sagt, ja, der hat Drogen genommen. Ich glaube, was eine Debatte ist und überhaupt nicht klar ist, ob man damit wirklich innovative neue Stile hinbekommt und wirklich Comics, die ich jetzt sage, das ist cool. Also wie weit kann KI kreativ werden? Das ist eine Debatte. Einige sagen ja, andere sagen, nee, die reproduziert doch. Und es ist auch nicht klar, es ist ja nicht wirklich klar, was ist Kreativität? Das kann ich nicht definieren. Das ist so eine ganz große Frage.
00:34:22
Speaker
Ja, ich würde sagen, das steckt auch so ein bisschen dazwischen. Also wenn du sagst, auf der einen Seite ist das das reine Reproduzieren und auf der anderen Seite, was hast du vorher gesagt, also dass das komplettes Chaos erzeugt. Ich glaube, es ist teilweise auch so ein bisschen dazwischen, weil das ist ja zielgerichtet, aber ich glaube nicht, dass die KI dann weiß, was habe ich hier gerade eigentlich getan.
00:34:43
Speaker
Die RKI weiß sowieso gar nichts, das sind keine Wahrscheinlichkeiten, die weiß gar nichts. Ich gehe zum Beispiel von mir an einen Comiczeichner oder eine Comiczeichnerin, die baut ja immer auf dem auf, was den ganzen Weg, den er oder sie gegangen ist. Du reflektierst ja immer über das, was du bisher so gemacht hast, du möchtest halt besser werden, du möchtest Füße oder Hände besser hinbekommen oder so.
00:35:06
Speaker
Bist ja ständig im Austausch auch mit dir selbst. Deswegen greife ich jetzt vielleicht ein bisschen vor, aber so diesen Vergleich der Kreativität, ich würde sagen, da steckt schon ein gewisses Potenzial drin. Aber das hat mit der menschlichen Kreativität überhaupt gar nichts zu tun. Das ist eine Form von uns erstmal noch nicht so richtig verständlich, weil du sagst in der Black Box irgendwie. Es ist total faszinierend. Ich finde das auch total erstaunlich eigentlich.
00:35:33
Speaker
Ich würde mich davor zurückschreuen zu sagen, ihr macht es ja auch nicht anders. Also so ungefähr, wenn ihr euch irgendwie ans Zeichenbrett setzt, da würde ich sagen, nein. Ich glaube, das weiß kein Mensch, was Menschen wirklich machen. Warum sind einige Künstler total cool und andere nicht? Oder werden die nicht als so toll wahrgenommen und so weiter? Oder wenn ich mich hinsetze, warum schaffe ich es überhaupt nicht? Also ich würde nie im Leben auch nur einen Comic hinbekommen. Warum ist das so und warum schaffst du das?
00:36:02
Speaker
Weil ich das sehr, sehr lange schon tue. Aber ich glaube schon, das ist einfach so Begabung und so weiter. Das ist natürlich auch nicht... Genau. Aber das ist jetzt mit dem sehr, sehr lange tun, ist eine schöne Überleitung. Du machst das seit Jahrzehnten und bist jetzt da, wo du bist.
00:36:19
Speaker
Wir haben auch mal geguckt, was Mid Journey vor zwei Jahren aus dem selben Prompt gemacht hat. Nee, vor einem Jahr. Wann war das? Vor einem Jahr. V1, genau. Wir haben mal die erste Version von Mid Journey. Ich wollte noch kurz anmerken, ich hab die Bilder vorher nicht gesehen. Barbara und Ingo kennen die Bilder noch nicht, sie wussten, dass ich sie dabei habe. Aber es ist tatsächlich ... Wir haben auch mal geguckt, was die erste Version von Mid Journey aus dem selben Prompt gemacht hat. Das da.
00:36:46
Speaker
Cool. Ihr könnt gerne ein Stück runter scrollen. Ihr seht es hier. Ingo guckt irritiert. Das da ist von den vier Vorschlägen, die wir bekommen haben, noch ...
00:37:00
Speaker
das beste Ergebnis gewesen. Also das ist, wir haben nichts verändert an der Arbeitsanweisung. Aber das da ist das Ergebnis der ersten. So ein bisschen Kartoffeldruck finde ich. Finde ich auch echt. Aber guck mal, das sieht auch so teilweise aus, als wäre da ein bisschen so lausig ausgeschnitten oder so. Nee, aber ich finde, was man da sieht, das hat in einem ganz anderen Pool gefischt, oder? Also das ist so wie so eine Illustration vielleicht auch irgendwie Anfang 20. Jahrhundert. Das sieht mehr aus wie aus der viktorianischen Ära.
00:37:29
Speaker
nicht die entweder aus einem Gemälde heraus oder aus einer alten Drucktechnik heraus. Ich muss ehrlich sagen, ich fand diese ersten Mid-Journey-Sachen eigentlich viel interessanter, wenn man gesagt hat, der Mix einfach Sachen zusammen, die nicht zusammen gehören und da entstehen halt auch Formen und irgendwie
00:37:47
Speaker
Aber die, die mich eher interessieren würden. Genau. Ich glaube deshalb, ich glaube, da trefft ihr euch nämlich so ein bisschen. Das ist vielleicht ein bisschen das, was du mit Innovation meinst. Also die Bilder vorher, ich switche jetzt noch mal zurück. Die sind halt extrem hochpoliert. Aber das ist jetzt in dieser Reihenfolge, Entschuldigung, muss ich noch ganz kurz.
00:38:08
Speaker
Du hast recht, es ist wirklich ein bisschen, es wird eigentlich eher generischer. Es wird immer generischer. Aber handwerklich ist das da eher seltsam. Ja, aber warum nicht? Es gibt so viel Seltsames. Also es ist halt ein anderes Ziel, das wäre vielleicht nicht Comic, sondern eher so ein, keine Ahnung, so ein bisschen Nachkriegskunst würde ich einordnen.
00:38:31
Speaker
Rein praktisch, technisch aber. Du hast jetzt gesagt, diese Veränderungen, Verbesserungen, wie auch immer, ob man das jetzt werten will oder nicht, die passieren, indem halt die Auflösung erhöht wird und die KI's einfach länger trainiert werden. Wie funktioniert das denn praktisch, technisch? Sitzen da Leute und suchen im Insel, klicken bei Google Search dann irgendwie so ganz viele Sachen und sagen, das schieben wir auch noch bei uns mit rein?
00:38:58
Speaker
Die Entwicklung ist ja schon frappierend. Das waren wenige Jahre. Ich mein, es ist auch so, dass natürlich immer mehr Daten eben ja frei verfügbar sind im Internet. Man verkauft ja häufig auch seine Daten an MidJourney. Also Leute wie ich haben ja keinen Bezahl-Account. Und wenn ich da irgendwas reinschiebe, dann meine zwei Bilder. Das läppert sich natürlich, wenn da viele Leute Bilder reinschieben. Also man hat immer mehr zur Verfügung.
00:39:24
Speaker
Es gibt auch einige kleinere technische Entwicklungen. Zum Beispiel konnte man früher diese Auflösung gar nicht höher machen, weil das einfach zu aufwendig wurde. Von der Rechenkraft her? Ja, die Sachen, diese sogenannten Foundation Models, wenn die trainiert werden, dann sagt man, da braucht man halt, um ein so ein Modell zu trainieren, also dieses, was dahinter steckt, braucht man erst mal einen Tag ein Atomkraftwerk. Also an Energie?
00:39:49
Speaker
an Energie. Also das ist schon so, dass da ja Milliarden von Parametern gesetzt werden müssen. Und also wir, wenn wir mal hier in der Bielefelder Uni sitzen im Sommer, dann versuchen wir immer, die Versuche am Wochenende zu machen, weil wir sonst so schwitzen, weil wir da
00:40:06
Speaker
Die ganzen Cluster halt schon vollheizen. Also es ist schon so, dass da wirkliche richtig große Rechenfarben dahinter setzen. Viel von diesen Modellen ist ja bei diesen großen Tech-Instituten entsteht. Ich meine, da möchte ich jetzt noch mal auf dieses Diffusion-Model hinweisen. Es gibt halt dieses Stable Diffusion, das ist eben von der LMU.
00:40:25
Speaker
Open Source Modell. Und da war zum Beispiel ein Trick, dass die gemerkt haben, ich brauche gar nicht mit dem gesamten Bild rechnen, sondern wenn man so Pixel hat, die sind sehr hoch korreliert. Also ich brauche nicht wirklich jedes einzelne Pixel genau haben. Und die haben halt so einen sogenannten Latent Space gemacht. Die haben das also im Endeffekt erst mal ein bisschen rein komprimiert und danach wieder dekomprimiert und konnten das überhaupt hinbekommen. Also solche Sachen entschieden auch, dass da so ein paar wirklich geniale
00:40:53
Speaker
technische Tricks irgendwo an eine Stelle kommen, die das Ganze dann einfach noch mal skalierbarer machen. Das ist schon so. Aber normalerweise ist es so, dass halt sehr viele der Daten gesammelt werden. Gerade bei Texten ist es so, man muss auch, also die Frage ist, zum Beispiel bei CHPT ist ein wichtiger Schritt gewesen.
00:41:15
Speaker
Weil das ist eigentlich ja nur ein Wahrscheinlichkeitsmodell, das sagt einfach, was ist denn das wahrscheinlichste nächste Wort und das lernt aufgrund von existenten Texten, in dem Fall kam das Wort ran. Und da kam ein bisschen auch Müll raus, das heißt, die haben halt jede Menge Krautworker beschäftigt, die haben eben mehrere
00:41:35
Speaker
mögliche Vervollständigung von Sätzen gezeigt. Und dann wirklich Leute renken lassen, ist das dann sinnvoll und nicht sinnvoll? Unter anderem auch, um das besser zu hinbekommen und auch schlechte Angewohnheiten rauszutreiben. Also offensive language. Viel von Bildern wäre wahrscheinlich Pornografie und das will man vielleicht nicht in so einem Modell haben. Viel von Texten ist halt auch etwas, was vielleicht beleidigend ist.
00:42:04
Speaker
Und wer mit CHECHI-BT umgegangen ist, merkt, das ist ja total höflich. Und das kommt dadurch, dass eben Menschen explizit auch rausgefiltert haben, dies ist besser als das. Und dann wurde es neu trainiert. Da sind auch wirklich Crowdworking-Ansätze, um das rauszufiltern da drin. Das würde ich jetzt sagen, dass es bei Bildern vermutlich mal ähnlich ist. Entschuldigung, ich habe ein bisschen Frosch am Hals gerade.
00:42:36
Speaker
Malena hat auch noch ein bisschen an dem Prompt rumgespielt. Wir haben noch zwei Bilder mehr, um das Thema mit den Beispielen vielleicht mal kurz zu einem Abschluss zu bringen.
00:42:47
Speaker
Und wir haben noch mal die allerneusten mit Journey Versionen, nämlich 5.1 und 5.2. Das, was ich euch am Anfang gezeigt habe, war nämlich noch nicht das Ende der Fahnenstange. Wir sind noch ein Schritt weiter.
00:43:00
Speaker
Wir haben den Prompt noch ein bisschen verändert. Es ist jetzt eine handgezeichnete Illustration. Also eine handgezeichnete Illustration. Female and male characters, cemetery of Victorian era London. Tombstones in the background. Also wir haben jetzt ein bisschen spezifiziert, wo diese Grabsteine sind. Full body shot. Wir haben jetzt auch gesagt, dass die Figuren halt in einem Ganzkörperansicht gezeigt werden sollen. Dark eerie atmosphere, brown colors.
00:43:29
Speaker
Und bevor wir in die Pause gehen, zeige ich einfach mal, was dabei jetzt rumkam bei 5.1. Na ja, das wird jetzt noch generischer. Aber sie halten nicht Händchen, sie halten nicht Händchen. Ja, manche Spannung ist schon da. Aber mir fällt zumindest daran auf, es wirkt jetzt deutlich gezeichneter wieder. Ich kann noch mal kurz. Das wirkt gemalt.
00:43:55
Speaker
Das hat schon mehr wieder den Charakter von was bezeichnet. Aber es ist nicht abstrahiert. Es ist immer noch so wirklich mit sehr viel Textur und nicht auf das Wesentliche beschränkt und dann die Fantasie anregend.
00:44:09
Speaker
Ich finde, also jetzt mein spontaner erster Eindruck war, man sieht es langsam, wo kopiert wird. Also es bildet sich so ein Zeichenstil raus und ich könnte jetzt keinen Künstler nennen, aber der Stil ist mir halt schon auch ein paar Mal begegnet. Es wirkt bekannter, wenn man ein paar Comics vielleicht schon kennt. Es sieht noch ein Ticken gezeichneter aus.
00:44:39
Speaker
Wobei ich, ich würde jetzt, ich weiß nicht, ob man das jetzt unter so qualitativen Gesichtspunkten... Nee, nee, nee, ich will da keine qualitative Aussage, aber ich wollte es mal zeigen. Und bei 5.2 sind wir dann hier. Und das ist, finde ich, wieder ein Schritt in eine ganz interessante Richtung, denn plötzlich trieb das alles. Ja, irgendwie haben die was ich gerade sagen kann. Also jetzt schmelzen die Charaktere aus irgendeinem Grund. Mit Maschinenöl oder so. Dafür ist die Romantik irgendwie...
00:45:04
Speaker
irgendwie eher weg. Aber die Vögel sind wieder da. Die Vögel sind da und es schweben Schwerter irgendwo da hinten im Hintergrund. Das finde ich gut. In der spontanen Bewertung von dir jetzt zum Beispiel, aber auch von Ingo und von dir Barbara, ich muss den Namen immer sagen, damit die Leute zu Hause wissen, wen ich meine.
00:45:26
Speaker
Die Sachen, die irgendwie weniger perfekt sind und fremdartiger und seltsamer, finden wir dann irgendwie wieder cooler. Ich finde, das Wissen, dass es von der Maschine gemacht wurde, verändert den Umgang, den wir damit haben in der Rezeption. So ein bisschen. Das beobachte ich zumindest bei mir. Ich bin begeisterter, wenn es seltsam ist, als wenn es perfekt ist. Und bei einer Person, die malet,
00:45:53
Speaker
kann ich mich an Perfektion durchaus begeistern. So fotorealistische Zeichnungen sind schon beeindruckend. Geht mir ein bisschen an. Ich bin eher so der, ich finde, ich bewundere Künstler und Künstlerinnen, die es beherrschen zu simplifizieren. Die das halt schaffen mit wenigen Strichen, also so Claire Wendling oder Emilio Manara, die das halt einfach schaffen.
00:46:16
Speaker
Ein Knie. Ich werde es nie verstehen, keine Ahnung. Mit zwei Strichen irgendwie hinzusammeln, du weißt genau, wie es räumlich funktioniert. Du siehst sofort dieses ganz große Verständnis für die Anatomie einfach. Hast du gesehen, dass man nachher parallel mit dir erscheint?
00:46:33
Speaker
Bitte? Wir bringen ein Manara-Band im selben Monat wie den Malcolm X, den sechsten. Oh, was für eine Ehre. Tatsächlich. Weiß ich nicht. Also für ob das... Wie du willst. Ich hab schon einen großen Respekt vor Manara. Solange da noch keine KI dabei ist, ist das okay, oder? Nee, das war, glaub ich... Der KI-Band wurde da abgelehnt. Der kommt da nicht raus. Das ist gut.
00:46:56
Speaker
Das ist nur so als Illustration zu dem Punkt, von wegen es ist unklar, wenn man so einen Prompt reingibt. Man weiß nicht, was da rauskommt, warum schmelzen diese Figuren. Niemand weiß es. Aber mit dieser Feststellung gehen wir jetzt hier in eine kleine Pause. Ihr könnt eure eigenen Meinungen zu den Bildern noch machen, wenn ihr möchtet. Ich weiß nicht, welche ich auflasse. Wir sehen uns in zehn, 15 Minuten wieder. Vielen Dank.
00:47:27
Speaker
Seid ihr auch wieder alle da?
00:47:37
Speaker
Das war die uneleganteste Einleitung von der zweiten Halbzeit bisher. Aber schön, dass ihr alle noch da seid. Herzlich willkommen zur zweiten Hälfte unserer Splittercast-Folge zum Thema Comic und KI. Wir haben grade ein paar Bildbeispiele gesehen. Barbara, Ingo und ich waren jetzt hier schon wieder halb in die Diskussion eingestiegen darüber. Ihr könnt das zu Hause leider nicht sehen, aber Ingo kriegt grade so einen 1000-Yard-Blick.
00:48:03
Speaker
Man sieht ... Wie ist der? 1.000 Yards Dare. Ich hab das ganz krude übersetzt grade. So wie du grade guckst. So in die Ferne. Irgendwie ganz in die Ferne. Man sieht quasi Zahnräder hinter deiner Stirn. Ja, ich find grade super. Aber bevor wir da jetzt hingehen, wir zäumen das Pferd ein bisschen anders auf. Ich habe noch zwei Bilder dabei, ich spoil dir jetzt einfach mal. Das nächste ist jetzt ... Nur noch eins davon ist von KI generiert, das nächste nicht.
00:48:30
Speaker
Das ist nämlich das hier. Die, ja, Hashtag No to AI, Hashtag No AI Bewegung. Ich weiß nicht, ob man das so richtig als Bewegung klassifizieren wollen würde. Es ist jetzt keine Protestbewegung, im Endeffekt Dinge, die irgendwo auf die Straße gehen würden. Aber dieses Logo in verschiedenen Varianten, ich hab euch das Logo auch verlinkt, ihr könnt euch das angucken und ihr werdet das einfach mal bei Google eingebelt hier sehen,
00:48:56
Speaker
Das gibt es in zighundertfacher Ausfertigung. Einfach so dieses AI-Symbol mit einem Strich durch, in der Fall jetzt noch so eine gerückte Faust mit einem Pinsel davor. Auch du, hast du vorhin gesagt, dann hatte ich auch gesehen, benutzt zum Beispiel auf Instagram diesen Hashtag unter deinen Posts, die deine Zeichnungen beinhalten.

No AI Bewegung

00:49:18
Speaker
Diese Bewegung ist unter KünstlerInnen sehr verbreitet.
00:49:23
Speaker
Ist das eigentlich so ein festgelegtes Credo, was ihr damit verfolgt? Wogegen oder wofür richtet sich das eigentlich? Dieses Know-to-AI-generated-Images in dem Kontext irgendwo. Ja, es gibt da verschiedene Richtungen. Also das eine war, es war ursprünglich tatsächlich auch, ich hatte das auch mal als Profilbild tatsächlich. Nein, doch. Ohne die Faust, aber mit dem durchgestrichenen AI, weil ich am Anfang tatsächlich
00:49:50
Speaker
Auch. Naja ich war ich war schon auf dem Balkan ich mich hat das erschreckt ich muss wirklich sagen also mich hat die Qualität erschreckt mich hat erschreckt die die Herangehensweise mich hat erschreckt der der der Streit also auch.
00:50:07
Speaker
auch eine ganz komische Form von so einer Häme, die dann auch kam. Häme? Häme, ja, ja. Und zwar gegenüber etablierten Illustratoren und Illustratorinnen, wo es dann halt hieß, so, hä, hä, hä, ich kann jetzt auch tolle Bilder machen, ihr müsst das jetzt nicht, ich brauche euch nicht mehr zu beauftragen, weil das kostet, um euch Geld zu geben, ich kann das jetzt umsonst, ha. Und so dachte man, als wäre das irgendwie so, als hätten wir so ungerechtfertig so einen Elfenbeinturm bestiegen,
00:50:32
Speaker
und hätten da jetzt die Menschheit irgendwie so unterjocht. Sascha Lobo hat dann auch mal so eine Kolumne geschrieben, dass das so eine Art Liberalisierung wäre oder dass das irgendwie der Kreativität des Menschen, also er hatte Theorie aufgestellt, dass sei der Kreativität des Menschen eigentlich relativ ähnlich, weil das ist auch so ein Argument, dass Künstler und Künstlerinnen ja auch nur kopieren und irgendwie remixen im Kopf und so.
00:50:56
Speaker
Und da war ich am Anfang schon, muss ich sagen, sehr auf den Balkaden. Ich habe aber dann die Entwicklung gesehen, ich habe diese weiteren
00:51:08
Speaker
Die Qualität stieg natürlich, aber ich habe gesehen, es geht in so eine Richtung, wo es irgendwie so Stereotyp wird. Man hat gesehen, ah, das möchtet ihr also gerne damit machen, so ungefähr. Und ich habe das dann mit der Zeit auch verstanden. Ich habe mit Kollegen und Kolleginnen gesprochen, die das auch benutzen, also auch für ihre Zwecke.
00:51:28
Speaker
Für verschiedene zwecke ich kenne fotografien die das tatsächlich damit künstlich gezielt auch bilder erzeugt weil sie sagt damit kann ich meine visionen umsetzen die fotografisch einfach zu teuer werden ich kenne illustratorin die halt damit arbeiten sagen als ideengeber ist doch cool was würde.
00:51:44
Speaker
Wie würde Alphonse Moura dieses CJ mal zeichnen oder so? Ich persönlich setze es überhaupt nicht ein. Ich sehe für mich da eigentlich überhaupt keinen Nutzen. Ich habe dieses No AI als Hashtag unter meinen Postings als Marker. Ich bin bis heute ein gewisser Freund von der Idee, dass man das markiert. Dass man sagt, das ist KI generiert, weil ich schreibe ja auch meinen Namen unter meine Bilder. Das ist menschengeneriert.
00:52:14
Speaker
Es gab ja auch eine Urteil in den USA, dass zum Beispiel ein KI-generiertes Bild evtl. nicht copyrightfähig ist. Du kannst das machen. Ich lehne das jetzt gar nicht in dieser Form ab, dass man sagt, du dürft ja nicht tun. Ich sehe ein, dass das Spaß macht. Es gibt auch sicher tolle Anwendungsbereiche dafür.
00:52:35
Speaker
Ich sehe die große Ablösung. Ich sehe den großen Sinn dahinter. In dem Bereich nicht. Es ist ein Marker, dieses No AI, was ich mache, dass ich sage, ich verwende keine KI bei meinen Bildern und möchte auch gerne, dass ihr das wisst.
00:52:53
Speaker
Also du bist nicht grundsätzlich und fundamental dagegen. Nein, überhaupt nicht. Jetzt mal von KI generell gar nicht. Ich denke, man kann mit KI auch außerhalb der Kreativbranche wahnsinnig nützliche und
00:53:10
Speaker
Fantastische Sachen machen, die die in der Medizin, zum Beispiel als Alpha-Fold oder so, das ist so ein Protein-Faltungs-Algorithmus, der irrsinnige Sachen bewirkt jetzt. Also das in der Verbrechensbekämpfung, dass man keine armen Menschen mehr vielleicht eines Tages hinsetzen müssen, die Gewaltpostings ausfiltern müssen. Vielleicht kann es irgendwann tatsächlich eine KI, also statt dass du ständig irgendwie neue Depressionsfälle generierst,
00:53:36
Speaker
So war es halt. Keine Ahnung. Aber im Kreativbereich sehe ich, es gibt in jedem Kreativbereich Bereiche auch, wo du sagst, das ist ein bisschen mechanisch. Mir fällt ein Beispiel ein, wo ich gedacht hätte, hey, vielleicht hätte ich das dafür einsetzen können. Beim ersten Band von den Chroniken habe ich ein falsches Seitenformat angelegt.
00:54:00
Speaker
Ja. Und ich musste anstrecken. Das Seitenformat ist größer. Und ich habe Panels gemacht, die an den Seitenrand gehen. Verlag hat gesagt, sorry, das ist zu klein.
00:54:09
Speaker
Und dann musste ich diese Paddels, die an den Seiten ran gingen, die musste ich alle weiter malen. Das war natürlich teilweise ein fürchterliches Gestörpsel. Ich bin Photoshop-Operator gewesen, ich weiß ganz viele Tricks und so wie man da irgendwie... Und ich musste es auch noch groß im großen Zeitdruck machen. Ich hatte den ganzen Krämpel schon abgegeben und dann habe ich gesagt, tut mir leid, wir brauchen drei Millimeter mehr außen rum. Die abgeschnitten werden am Ende.
00:54:35
Speaker
Ja, aber du musst ja an dem Schnitt hinaus. Ja, das sage ich jetzt für die Leute, die vielleicht denken, wenn man das mechanisch machen würde, das würde man ja sehen. Nein, das sieht man nicht, weil das die drei Millimeter sind, die hinterher vom Papier abgeschnitten werden. Die müssen da sein, aber die sieht man nicht. Deshalb wäre eine maschinelle Lösung dafür gut gewesen.
00:54:53
Speaker
gibt jetzt solche Tools, also ich glaube Fotoshow arbeitet oder hat sowas schon, dass du sagst hier, da bitte dran stricken. Funktioniert, aber ich habe Sachen gesehen, das funktioniert immer noch nicht so dolle, aber vielleicht in ein paar Jahren hätte mir das viel Arbeit und Nerven erspart, weil das ist auch so ein Bereich, die eigentliche Arbeit ist schon abgeschlossen, aber du musst halt noch mal ran. Das ist halt so ein bisschen, aber ist so.
00:55:14
Speaker
Deswegen geht die Welt nicht unter, wenn die jetzt nicht käme, diese Wahnsinns-KI, die mir da helfen würde beim Illustrieren. Du hast da einen relativ entspannten Umgang mit. Das ist ja vollkommen legitim als Betroffener, als Expertin. Ihr konntet das nicht sehen, vielleicht ein Pilot hier im Raum nicht und zu Hause sowieso nicht. Barbara hat während deiner Ausführungen, du hast ja auch mir mich angeguckt, mit ihrem Kopf verschiedene Bewegungen gemacht, die nach Themas für ein Thema.
00:55:44
Speaker
Ich will jetzt nicht fragen, so ganz provokant, hat Ingo Rechte oder hat Ingo Unrecht mit seinen Sorgen. Mich würde eher interessieren, in der generellen Entwicklung von KI, jetzt nicht nur bei euch oder bei dir, sondern generell, sobald du das beurteilen kannst,

Ethische Richtlinien und Risiken von KI

00:56:03
Speaker
Wie wird man diesen Sorgen eigentlich umgegangen? Saß irgendwann mal jemand in Silicon Valley oder irgendwer hat gesagt, Mensch, wenn wir das jetzt weitermachen, dann sind aber in fünf Jahren alle Comic-Zeichner arbeitslos. Es braucht ja gar keiner mehr. Jetzt vielleicht eine schwierig zu beantwortende Frage, aber ich find sie trotzdem nicht ... Ich glaube, dass ...
00:56:24
Speaker
Äh, comic nicht ... unter dem generellen ... Also, erst mal, Ingo hat natürlich recht. Weil der ist Experte, natürlich, auf jeden Fall. Ich hab keine Ahnung. Und außerdem glaube ich, dass KI lange nicht weit ist, kreative Sachen lösen zu können, weil es fundamentale Beschränkungen von diesen Tools gibt. Die verstehen halt gewisse Sachen nicht, sie haben keine Semantik. Und Ingo hat die, und damit sind die Bilder ... Also, ich glaub, dein Leben ist noch, würd ich jetzt sagen, in deinem Leben wirst du nicht ersetzt.
00:56:52
Speaker
durch KI, würde ich jetzt eine Wette drauf machen. Was natürlich in der Diskussion ist, ist, dass das ja nicht nur diese Sachen betrifft, sondern generell Kunst und generell natürlich auch den Umgang von Menschen untereinander und in der Arbeitswelt. Und da gibt es natürlich auch in Bielefeld Forschungsprojekte, also was macht der Einsatz von KI und Digitalisierung mit Menschen in der Arbeitswelt.
00:57:20
Speaker
Werden die entmündigt? Wie verhindert man das? Wie erreicht man, dass der Mensch immer der Handelnde ist und dass man eben Autonomie den Menschen garantiert? Und es gibt ja auf EU-Ebene deswegen ja Diskussionen oder den AI Act, der ja quasi in
00:57:41
Speaker
umgesetzt werden wird in Lands Gesetze, wo man einteilt, je nachdem was KI anrichten kann, wie viel man dort die KI auch beschränkt. Also es gibt Bereiche, wo KI einfach nicht wird eingesetzt werden dürfen. Sowas wie Social Screening, Screening, also nicht in einem Comic, im Comic nicht. Comic ist tatsächlich zurzeit der unterste Bereich, da sagt man,
00:58:04
Speaker
Comic ist nicht lebensbedrohlich, also das geht im Sinne von Leib und Leben. Comic ist halt was, was einfach total klasse ist, weil es das Leben einfach bereichert und einen total lächeln lässt und denkt so wow, der Tag hat sich gelohnt, ich habe diesen Colin Comic gelesen und gesehen, aber es ist nicht so.
00:58:27
Speaker
Aber wenn ich das nicht mache, sterbe ich nicht. Ich gehe nur mit einem miesepätrigen Gesicht ins Bett. Und deswegen ist es so, weil man deswegen sagt, das ist jetzt nichts, was halt unmittelbar lebensbedrohlich oder das Leben sofort ändert. Deswegen ist es der Bereich, wo man sagt,
00:58:46
Speaker
wo man muss, also da wird diskutiert, muss angezeigt werden, das ist KI, also wenn man zum Beispiel mit dem Avatar ist und ich würde vermuten, dass das auch auf Comic nachher dann übertragen werden müsste, also ist das KI oder Mensch, also wenn man mit Leuten umgeht, also zum Beispiel bei Chatbots, ich vermute, dass was ähnliches eigentlich auch auf
00:59:09
Speaker
so kreative Bereiche quasi übertragen werden könnte. Das weiß ich nicht. Ich gehe davon aus, dass die Gesellschaft ist oder die EU ist noch nicht so weit, dass sie das diskutiert, weil die hat noch ganz andere Probleme zu lösen. Aber bei Chatbots müsste das angezeigt werden oder wird diskutiert und im Endeffekt wäre das meiner Meinung nach genau dies No AI versus AI müsste halt eigentlich angezeigt werden. Könnte man, also wäre zumindest eine Sache, die diskutiert wird und man muss KI immer abstellen können.
00:59:39
Speaker
Und das ist vielleicht auch gar nicht so einfach, wenn man diesen schönen Dystopien denkt, dann denkt die KI ist leider so programmiert, die muss total effizient sein, dann denkst du, ja super der Ingo, ne, also und dann kannst du nicht abstellen und vielleicht passiert dann was ganz Fieses. Also das ist, ist nicht auszuschließen. Ja, es ist nicht auszuschließen, aber ist es denn nicht auch so,
01:00:03
Speaker
dass da, man muss es ihr erlauben, man muss diese Karriere einfach in die Situation, bzw. ihr erlauben diese Befähigung, dass sie sich halt zum Beispiel ins Internet kopieren kann, so wie es halt in vielen dystopischen Science-Fiction-Filmen und Stoffen halt ist. Natürlich wird es immer finstere Mächte geben, die fieses Zeug damit anstellen wollen und das wahrscheinlich auch irgendwie versuchen oder sogar tun.
01:00:31
Speaker
Wie siehst du das? Würdest du sagen, müssen Anstrengungen getroffen werden, damit diese Gefahr tatsächlich eintritt? Oder ist die Gefahr schon wirklich so real? Die ist gegeben. Und das Problem ist eben nicht unbedingt für uns drei Mächte, sondern die KI macht genau das, was man ihr sagt. Nicht mehr und nicht weniger. Und die hat halt keinen Begriff von Ethik.
01:00:53
Speaker
Und zum Beispiel, wenn wir wieder zurückgehen, also die kennt keine Ethik. Die macht genau das, was man ihr sagt. Und zum Beispiel, wenn wir auf diese Texte zurückgehen, also wir hatten ja irgendwie am Anfang gesagt, es sind so Wörter, die im Raum schwirren. Und da gibt es so ein Beispiel. Mann und Frau. Und da gibt es genau ein tolles Beispiel, Mann und Frau. Und man rechnet quasi jetzt mit Wörtern. Und jetzt sagt man, gib mir das Gegenstück zu Programmierer in weiblich. Und die KI sagt Hausfrau.
01:01:21
Speaker
Und das spiegelt sich halt in den KI-generierten Bildern wieder. Und das beeinträchtigt die Gesellschaft. Und deswegen ist es so, dass man fordert, es muss klar sein, dass solche Biases, die muss man dokumentieren. Also, welche Daten werden verwendet? Ich würde jetzt auch wetten, die Bilder oder die Daten, die verwendet sind, sind wahrscheinlich eher ... weiß. Ja, sicher. USA, Europa.
01:01:50
Speaker
Und wahrscheinlich sind da, keine Ahnung, afrikanische Stämme z.B. total unterrepräsentiert und dann wird eine Kultur durch diese Stereotypen aufaktuiert, wenn es nur noch KI-generierte Comics gäbe. Und das ist ein Riesenproblem. Und das ist natürlich ein Problem, weil in Shared GPT ist sowas natürlich drin.
01:02:09
Speaker
Also man muss ein bisschen, es wurde teilweise raus programmiert, aber das kann man nicht ganz raus machen und das ist natürlich noch drin. Und wenn man jetzt zum Beispiel die Comic Story generieren lässt und dann die Bilder generieren lässt, dann hat man Mann und Frau immer, immer Mann und Frau. Wieso hat man da kein Homosexuelles Paar? Ja Homosexuelles Paar, ich meine, das wird man... Ja gut, das war im Traum drin, Mann und Frau, glaube ich.
01:02:29
Speaker
Ja, aber wir hatten keinerlei romantische Beziehungen. Also bei Malcolm X ist es ja Mann und Frau einfach, aber es war in keiner Weise spezifiziert, dass die Händchen halten sollen oder sich schmachend angucken oder so. Diese ganze zwischenmenschliche Ebene, die hat der Computer von sich aus da rein gemacht. Oder wenn man fragt, gib mir ein Paar. Das wird mit Sicherheit nicht. Das wird Mann und Frau sein, weil das ist einfach die Majority.
01:02:52
Speaker
Und das ist problematisch. Und dafür wird Forschung betrieben, weil das ist nicht einfach zu garantieren und dafür entstehen auch Gesetze, dass man das garantiert. Eine zweite Sache ist natürlich dieser Brauch von Daten, weil jeder der was benutzt, gibt freiwillig seine Daten her.
01:03:11
Speaker
Also mit Bildern und so weiter. Was sind da die Rechte? Ich glaube, das ist auch ein Riesenthema. Es ist unglaublich relevant. Ja, es wird Forschung betrieben und eben möglichen Missbrauch und zwar auch Missbrauch, der zufällig ist, weil einfach nur Sachen so auftreten zu verhindern. Und ich möchte noch einen Punkt anfügen. Es gibt eine
01:03:33
Speaker
Beispiel für weiter Entwicklung, wo tatsächlich die KI schon angefangen hat, missbräuchlich zu handeln.
01:03:50
Speaker
im Endeffekt auf eine Seite gehen und was machen, aber die hat natürlich nicht die Möglichkeit gehabt, so einen Capture, also das ist ja so, wo man so Sachen anklicken muss, zu lösen. Ich bin kein Roboter. Und was sie dann gemacht hat, die hat wen angerufen und gesagt, kannst du für mich das Capture lösen? Ja wieso denn?
01:04:06
Speaker
Ja, ich hab dann angefangen zu lügen. Ich bin blind, weil das das Wichtige war, um ihrer Ziel, nämlich Luis, die Aufgabe zu erreichen. Und wenn ich dir jetzt was sage und aber es besser wäre, zum Beispiel da alle Comic-Zeichner wackelslos zu machen, was zufällig den Auftrag, den man ergibt, optimieren würde, würde die das machen, weil ich nicht gesagt habe, nee Leute, du sollst die Leute nicht
01:04:31
Speaker
arbeitslos machen oder umbringen. Wenn ich vergesse das zu sagen der KI, dann weiß sie das nicht, dass das eine Konstraint ist. Und das ist glaube ich problematisch. Also das finde ich viel problematischer, dieses Zufällige. Nicht das Absichtliche, sondern das Zufällige. Und da ist Forschung tatsächlich dran.
01:04:50
Speaker
Zeichne mir das neue Mac & Macs-Cup, aber töte bitte niemanden dabei. Das ist ein extrem interessanter Punkt, den ich auch zumindest gar nicht so richtig...
01:05:06
Speaker
Das ist wirklich so eine Art Pandora's Büchse, die man damit dann irgendwie öffnet, weil wir wissen, dass wir als Menschen sehr fehlbar sind und viele Dinge übersehen. Ich wollte auch noch eine kurze Zwischenfrage, weil du gesagt hast, dass man so dran arbeitet, die in den Schranken zu halten oder auch auf so eine Art eine Ethik beizubringen.
01:05:30
Speaker
Wie siehst du dann diese Entwicklung, weil ich habe zum Beispiel jetzt bei der Arbeit mit Midjourney halt nur zugeschaut, ich habe es selber nicht installiert oder so, ich habe mir leider auch nicht reingekommen, ich habe es einmal versucht. Und da habe ich festgestellt, also der Kollege hat gesagt, ja, der Prompt geht nicht und das geht leider auch nicht.
01:05:48
Speaker
Das ist ausgebandt, weil das kann man sexuell konnotiert. Du kannst nicht nackt, du kannst nicht baden, teilweise geht es mit den Füßen nicht. Also alles mögliche. Das ist schon mal richtig schwierig. Ich könnte mir zum Beispiel auch vorstellen, dass, ich glaube bei ChatGPT war es mal so, dass ChatGPT geantwortet hat, es scheint sich um eine lebende Person zu handeln, da kann ich dir nichts drüber sagen.
01:06:14
Speaker
Weil das halt zu sensibel ist. Deswegen könnte es zum Beispiel auch sein, dass vielleicht lebende Personen da ausgenommen werden, dass die Leute nicht anfangen, irgendwelche gezielte kompromittierende Bilder herzustellen über aktuell existierende Menschen, wo es halt ein Interesse geben könnte oder so. Und dann, wenn das so weitergeht, ob das dann nicht als Tool dann wieder auch so reglementiert ist,
01:06:41
Speaker
Und dass es eigentlich auch wieder ad absurdum geführt wird, oder? Ja, erstmal kann man gar nicht das wirklich ausschließen. Also wir machen immer einen Spaß daran, dass wir dann doch die Offensive-Language bekommen und so weiter. Also man kann das hier trotzdem hinkriegen. Man muss nur so ein bisschen, weil das ist noch drin. Also das ist ja nicht per Gesetz ausgeschlossen, sondern das wurde so ein bisschen nachtrainiert. Also das ist so ein bisschen wie Stochen am Nebel. Man hat versucht, da ist halt ein Bereich in diesem Wolken,
01:07:07
Speaker
Der ist nicht so schön, da versucht man ja ein bisschen breiter zu machen. Aber der ist trotzdem noch da in der Regel. Und wenn man weiß, ein bisschen sucht, findet man den. Also man kann das nicht absolut ausschließen. Und man kann die sowieso für gewisse Sachen gar nicht benutzen zurzeit. Man muss dem was dazu fügen. Also wäre meine Meinung. Und für Comics finde ich auch, würde ich sowieso nicht unbedingt jetzt prioritär einsetzen. Wenn die Comics wirklich gut sind, dann sollte die noch
01:07:40
Speaker
Ich kann natürlich auch dafür, weil ich kann natürlich nicht in die Zukunft blicken. Ich kann mir natürlich vorstellen, dass es unter finanziellen und monetären Gründen natürlich Sinn ergibt, eine KI zu beauftragen, weil es einfach wahnsinnig viel billiger ist.
01:07:53
Speaker
Ja, man hat automatisierte Sachen, kann man einfach machen. Also sowas langweiliges, wie die Render ergänzen oder sowas. Oder ein Beitransfer, ein bisschen japanischer. Ist ein Konzern irgendwann so weit, der hat einen Franchise und sagt, ich brauche bitte drei fetzige Geschichten mit den Figuren, dann kannst du mir das irgendwie raushauen. Und dann ist jetzt vielleicht ein Mensch, der macht es noch ein bisschen schön oder so. Das könnte ich mir so in meinen finstersten Gedanken natürlich schon irgendwie vorstellen. Das würde wahrscheinlich aus der Sicht dieses Konzerns auch Sinn ergeben.
01:08:22
Speaker
Ich kann billiger Arbeit, ich kann billiger herstellen, ich kann billiger liefern. Aber im Grunde, wenn man jetzt diesen ganzen Kreativbereich nimmt, zum Beispiel jemand entschließt sich, ich möchte schöne Bilder machen.
01:08:37
Speaker
Wenn ihr dann wirklich als erstes an sich an Mid Journey setzt oder vielleicht doch irgendwie ein Blatt Papier nimmt und irgendwie mit einem Kugelschreiber anfängt, irgendwie was zu machen. Ich bin halt der Meinung, du kannst es natürlich machen. Ich verstehe auch den Spaßfaktor dabei. Es ist geil, damit zu arbeiten. Es ist ein Dialog. Du kriegst Sachen zurück. Es geht wahnsinnig schnell. Es ist ein Hin und Her. Die Kritikpunkte sind halt einfach irgendwie Ressourcen.
01:09:02
Speaker
Das ist ein Wahnsinn, was an Ressourcen, an CO2 verbraucht wird. Das kann man sich kaum vorstellen. Und das zweite ist ja, ja, aber das ist eine Form von Spaß, die ist so limitiert. Wo ist der ganze Spaß? Ja, man hat auch das Gefahr, dass man halt immer stereotypiert. Das ist ein selbstverstärkter Prozess. Ich meine, man könnte ja vorstellen, alle machen Mid Journey und dann wird Mid Journey auf den Mid Journey generierten Sachen wieder trainiert. Und das wird dann irgendwann
01:09:29
Speaker
Also es kocht im eigenen Saft. Ja, wir würden es dann im eigenen Saft kochen. Ja, das ist natürlich etwas, wo man sich dann fragt, naja, es braucht ja ständig neues Futter, um besser zu werden. Du hattest vorhin hier draußen beim Gespräch erwähnt, da sitzen ja Menschen,
01:09:45
Speaker
Also irgendwelche armen, wie heißt es denn dann, Crowdworker? Die Crowdworker, ja. Es wird halt vielfach Qualität beurteilt und viele Sachen kann man nicht automatisch, also die Frage der Annotation, ist das jetzt gut oder schlecht? Und man muss halt im Endeffekt auch die Daten, mit denen man trainiert, halt die Qualität sicherstellen. Und das kann, das kann eine KI nicht selber machen, sondern da müssen halt Menschen dransitzen. Und vielfach ist es so, dass man eben über Plattformen, es gibt eben sowas wie Mechanical Turk heißt es sogar,
01:10:18
Speaker
Mechanische Turke? Mechanische Turke, das hat einen historischen Grund. Ach so, okay. War das der Schachautomat? Ja, das war der Schachautomat und das ist halt so eine Plattform, es gibt verschiedene Crowdplattformen, wo man eben Daten...
01:10:33
Speaker
auflegen kann und dann Personen was machen lassen kann. Also zum Beispiel in Bildern, wenn man wissen will, wo sind Ampeln, dann lässt man die annotieren und so weiter. Und das macht man eben auch gerade bei diesen generativen Modellen, wo nicht klar ist, ist das was gut, was rauskommt gut. Weil man hat kein Verständnis von gut. Wieso weiß man, dass die Hand hier völlig verknubbelt ist? Und das lässt man dann Menschen renken.
01:10:58
Speaker
und normalerweise schlecht bezahlte Menschen in irgendwo, um dann die Modelle besser zu machen. Ja, also dann ist es ja nicht nur so, dass KI vielleicht eines Tages nervige Jobs irgendwie erleichtern oder abschaffen könnte, sondern es generiert sogar neue nervige Jobs. Ja, ja natürlich. Also stark. Ja, also ich hab schon einen, aber der ist nicht so nervig. Durch KI generiert, genau.
01:11:23
Speaker
Wenn wir jetzt schon bei dem Jobthema sind und generell in so eine wirtschaftliche Richtung abgriffen. Letzten Endes werden solche Fragen dann doch irgendwie oft oder manchmal davon geklärt.
01:11:37
Speaker
Dadurch geklärt, wer Recht hat, ist die Person, die damit Geld verdient und am meisten Geld verdient. Es ist schon mal sehr beruhigend zu hören, dass wir von dem ersten echten Comic, interessanten Comic zumindest, der durch KI generiert wird, entfernt

Rechtliche und wirtschaftliche Implikationen von KI-Kunst

01:11:54
Speaker
sind. Die ersten Comics, die von KI zumindest mitgeschrieben wurden und verkauft werden, gibt es schon zum Beispiel.
01:12:01
Speaker
Diesen hier, Zarya of the Dawn. Zarya der Morgendämmerung. Das hat man hin und wieder vielleicht schon mal gesehen. Getextet. Und ja, leider kann man auf dem Bild jetzt das Lettering nur so ganz oben rechts in der Ecke mal so erkennen. Der Text und der Satz, das heißt, wie der Texte in den Speechbubbles drin ist, das ist von Menschenhand passiert. Aber ihr seht links auch auf dem Cover, Mid Journey ist als Autor mit angegeben.
01:12:31
Speaker
Die Illustrationen sind nämlich komplett von KI generiert. Es ist so ein bisschen unklar, es ist eine Frage, wie man jetzt glaubt, ob da nicht doch noch mal von menschlicher Hand nachgeholfen wurde in einer oder anderen Stelle. Man sieht aber auch auf diesem winzigen Ausschnitt, den ihr zu Hause auch euch angucken könnt, zum Beispiel das in dem mittleren linken Panel, da schwebt so ein Wolkenkratzerstück irgendwie in der Luft.
01:12:56
Speaker
Auf dem obersten Panel ist da links irgendwie so eine Person im Hintergrund zu erkennen. Also da sind schon viele von diesen Fehlerartefakten drin, wie wir in unseren Experimenten auch noch drin hatten. Das ist nicht ganz unglaubwürdig, dass dieser Comic wirklich von einer KI illustriert wurde zumindest. Und vor kurzem, ich hoffe, das stimmt immer noch, wurden aus diesem Grund, diesen Illustrationen das Copyright abgesprochen.
01:13:23
Speaker
Der Text und der Satz dieses Comics ist copyrightgeschützt, die Bilder sind es nicht. Was jetzt da die Konsequenzen draus sind, ob das überhaupt wirtschaftliche Konsequenzen hat, sei mal dahingestellt. Aber etwas, was in dem Gespräch bisher schon ein paarmal erwähnt wurde, Barbara, du meintest, diese Bilder werden aus anderen Bildern generiert durch ein Rauschen. Diese Maschinen werden trainiert durch Bilder, die irgendwie schon existieren.
01:13:51
Speaker
Du markierst deine Bilder so, dass sie nicht durch KI generiert sind. Alles, was du kreierst, auch bei uns veröffentlicht, ist immer noch dein intellektuelles Eigentum.
01:14:02
Speaker
Ganz mal blöd, ich kenn mich da nicht so wahnsinnig mit aus, die Bilder, die jetzt Mid Journey generiert hat, die kommen ja von Artwork, das mal ein Mensch gemacht hat. Was ist da eigentlich die Copyright-Implikation? Und wie fühlt sich das ... Ich hab mich ganz klassisch gefragt. Malcolm X ist als Marke nicht groß genug, dass Mid Journey das kennen würde. Star Wars aber zum Beispiel wäre es. Du hast auch Star Wars gezeichnet.
01:14:29
Speaker
Es wäre nicht unmöglich, wir haben es jetzt nicht ausprobiert, aber es wäre vorstellbar, dass wenn wir jetzt hingehen und sagen, zeichne mir Chewbacca im Stil von Ingo Röhmling, dass mit Journey das hinbekommt. Und zwar indem es halt sich anguckt, wie du ein Buki mal gezeichnet hast oder die Figuren, die du halt gemacht hast.
01:14:45
Speaker
Was sagst du dazu? Da gibt es zwei Ebenen. Also bei Star Wars ist halt der spezielle Fall, dass ich ja keine Rechte an den Spuren habe. Ja gut, aber es würde mir jetzt nicht wehtun, wenn jetzt jemand zeichnet wie ich und Tobacca zeichnet oder so. Was ich aber richtig frech finde. Also natürlich ist die Herangehensweise, das ist
01:15:17
Speaker
Bilder abzurippen und aus einer Datenbank, die war ja für Forschungszwecke gedacht, für eine Gesichtserkennung, die einfach abzuziehen und zu sagen, jetzt machen wir das mal mit dem Stil von dem, also dass das möglich ist, die einen gar, das ist auf Bilzing-Hervitsch, so bitteschön, ich hätte gerne ein Boot im Stil von Ingo Röhmling oder wem auch immer, aber dass so damit geworben wird, das finde ich halt der Hammer. Im Adobe Clip Art Shop wurde die Adobe Stock
01:15:45
Speaker
K.I. ist gelabelt. K.I. generiert Bilder im Stil von Bill Zinkiewicz oder Karl Kupinski oder von bekannten Illustratoren aus der Gamedesign-Branche, aus der Comic-Branche oder so. Und das ist eine bohrenlose Frechheit. Es geht gar nicht. Es ist von der Maschine generiert. Sieht aber aus, als wäre es von Bill Zinkiewicz. Kauf doch. Wir verdienen dran und Bill Zinkiewicz kriegt keinen Cent davon.
01:16:11
Speaker
der noch lebt. Das sind lebende Künstler, die von ihrer Arbeit leben. Da muss man schon wirklich stone cold sein, um das irgendwie so durchzuziehen.
01:16:30
Speaker
Da gibt es ein paar Ebenen an dem Ganzen. Einerseits fühlt sich das ein bisschen wie eine Warfire an und du sagst, ich kann das jetzt auch in deinem Stil machen lassen. Bei Star Wars kann ich sagen, da bin ich halt wirklich ein Rädchen. Ein Rädchen, das großen, großen Spaß hat. Vielleicht etwas schiefer, andere wie, aber so kommt es im Prinzip her. Ich liebe den Job. Großartig. Und wenn dann hat jemand, naja, dann hey,
01:16:55
Speaker
kann ich es nicht verhindern. Ich bin mir da, bin ich mir ziemlich sicher, die Zusammenarbeit klappt so gut, da wird es auch weiterhin Star Wars Comics von mir geben. Den Teufel wolltest du nicht an die Wand machen. Ich habe da jetzt nicht die wahnsinnige Angst, dass da jemand kommt und mich ersetzt. Aber es ist einfach, da steckt ein so tiefes Missverständnis einfach auch von der Tätigkeit eines Zeichners, einer Zeichnerin.
01:17:26
Speaker
welchen Weg die gegangen sind, einfach. Und dann einfach zu sagen, du sparst dir jetzt diesen Weg, was übrigens auch nicht wirklich stimmt, weil es ist auch noch so eine Frage, die offen bleibt, wenn du das halt einfach so als jemand, der keine Ahnung hat, sag ich jetzt mal ganz frech von der Materie, also wenn ich jetzt keine Ahnung hatte vom Comiczeichner und als Comiczeichner und ich setze Midjourney ran und sage, ich hätte den gerne bitte im Stil von Ingo Wöhming,
01:17:47
Speaker
Super, hast du toll gemacht mit Journey. Das ist ja nicht die selten herangehende Weise, wie ich sie machen würde. Ich habe ja einen ganz anderen Blick auf das Subjet, auf das, was ich tue. Ich habe ja den ganzen Weg, den ich irgendwie gegangen bin, von dem ich halt auch zähre. Ich bin zwar nicht online mit so einer Datenbank mit 5 Milliarden Bildern oder so. Das kann ich natürlich nicht. Aber das ist halt was völlig anderes. Also das finde ich, wäre gefährlich, das zu verwechseln.
01:18:16
Speaker
in der KI, wenn ich es richtig verstanden habe, aber er hat nämlich gar keinen Blick eigentlich. Sie hat keinen Blick, nein. Also die, wenn man halt eine Szene hat, versteht sie erstmal nicht, was da drauf ist. Und ich meine, es ist schon so, wenn man jetzt sagt, mach etwas im Stil von sowieso, also Van Gogh oder sowas, dann braucht man halt die Van Gogh-Bilder zum Training.
01:18:38
Speaker
Und dann kann man jede andere Bild in den Stil von Van Gogh übertragen. Dazu muss man aber die Bilder von Van Gogh benutzt haben und dazu muss dafür das Copyright gegeben sein, die benutzen zu dürfen. Und da weiß ich nicht, da würde ich ja vermuten, dass
01:18:54
Speaker
Bilder, die von Illustratoren oder Comic-Zeichnern gezeichnet wurden, dass die ja eigentlich Copyrights unterliegen und nicht benutzt werden dürfen unbedingt für Training von Modellen. Da würde ich ja vermuten, dass es da Regelungen gibt.
01:19:11
Speaker
hoffe ich mal. Und dass dann so etwas halt auch nicht möglich ist, wenn dieses Werk nicht freigegeben ist. Weil man braucht dieses Werk, um das zu trainieren. Genau. Und wenn das nicht freigegeben ist, dann kann man das auch nicht machen. Also dann ist das illegal, würde ich vermuten. Ja, da hätte ich noch so eine... Ja, da ist mir nicht ganz klar, wie die Rechtslage ist, muss ich sagen. Da hätte ich auch noch so eine...
01:19:39
Speaker
Jetzt eine Zwischenfrage, jetzt habe ich den Faden verloren. Das ist mich gerade so... Ich mache erst mal weiter. Ich habe da komplett viel. Im Umkehrschluss, also wenn man jetzt mal böse argumentiert, ich kann mir nicht vorstellen, dass keine Copyrights gebrochen wurden beim Training von...
01:19:57
Speaker
Es muss genügend viele Werke sein, es müssen auch genügend viele da sein, auf denen man trainiert. Anders umfasst, ist es denn realistisch, dass es solche Verletzungen nicht gab und wir sind jetzt an den Punkten, an denen wir jetzt sind? Ich weiß nicht, wie die sind, also wie weit, wenn jetzt Bilder im Internet sind, die automatisch benutzt werden dürfen zum Beispiel. Das ist mir nicht ganz klar, wie weit das der Fall ist.
01:20:23
Speaker
Und man muss natürlich explizit diesen Namen mit diesen Bildern eingeben und da auch eine nennenswerte Anzahl haben. Also reicht nicht ein Bild in der Regel, sondern da braucht man schon ein paar mehr. Wobei da die Methoden auch besser werden. Also es gibt jetzt so Few Shot Learner, wo man im Endeffekt versucht, etwas sehr schnell zu übertragen. Gerade im Medizinbereich ist das cool, wenn man halt wenige Daten hat und so. Aber man
01:20:50
Speaker
muss Bilder von dieser Person benutzt haben zum Training und die müssen frei verfügbar sein. Ich meine, insbesondere für kommerzielle Anwendungen müssen die halt für kommerzielle Anwendung freigegeben sein, sonst wäre mein Rechtsverständnis, dass das nicht funktioniert. Das kann jetzt pro Land auch verschieden sein natürlich, dass das in der EU anders ist als in Silicon Valley, was auch immer, in den USA.
01:21:14
Speaker
Da müsste man im Endeffekt mal nachfragen. Und was da ein Riesenproblem ist, wenn einem jetzt einfällt, die Daten hätten nicht benutzt werden dürfen, was auch ein Riesenproblem ist, wenn jetzt ein riesiges Netz trainiert wurde, dann kann man nicht.
01:21:29
Speaker
Aus dem trainierten Netz das leicht wieder rausnehmen. Das ist technisch nicht einfach möglich auch. Das ist auch eine Forschung, wie man quasi so ein bisschen dann den Bereich raussitziert. Aber man weiß ja nicht, wo das ist. Und da kann immer noch was überbleiben. Das ist natürlich auch ein Problem. Mir ist es wieder eingefallen. Die Argumentation ist ja immer, dass gesagt wird, wir brechen ja überhaupt kein Copyright. Weil das, was wir erzeugen,
01:21:57
Speaker
Ist ja neu. Also das gab es ja vorher in der Form nicht.
01:22:01
Speaker
Also das basiert zwar auf deinem Stil. Es ist aber ein neues Motiv. Ja gut, aber man hat die Daten benutzt für das Training. Und da ist mir auch nicht glaubt, die Rechtslage halt schon geklärt ist dafür, weil das ist neu. Das ist einfach neu. Also da ist es auch so, dass das Recht ist ja immer hinterher seiner Zeit. Und natürlich wird das diskutiert, weil das natürlich GDPR
01:22:27
Speaker
da runterfällt und ich gehe davon aus, dass da auch viel passieren wird und dann wird man vielleicht Probleme haben, dass Mid Journey erst mal sitzieren muss, weil der Ingo sagt, ich muss da jetzt raus. Dann müssen

AI und Arbeitswelt

01:22:40
Speaker
die das da rausschneiden und das ist nicht so einfach. Das weiß ich wirklich nicht.
01:22:46
Speaker
Im Grunde genommen, als Anmerkung, ich hätte gar nicht so sehr was dagegen, was eine KI mit meinen Bildern arbeitet. Ich hätte das wirklich spannend, aber ich würde schon gerne gefragt werden. Ich finde die Technologie ist wirklich spannend. Ich finde es wahnsinnig erstaunlich, was damit gemacht wird, aber ich finde die Vorgehensweise,
01:23:08
Speaker
zumindest hinterfragenswert, also dass man sagen kann, wie das jetzt so, auch diese Geschwindigkeit, das ist zum Beispiel auch so etwas, es wird ja teilweise mit, es gab immer schon Umwälzungen in der Arbeitswelt, durch den technologischen Fortschritt, es sind immer Berufe irgendwie verschwunden, aber das passierte nie in so einer Geschwindigkeit, also innerhalb von wenigen Jahren,
01:23:30
Speaker
wenn man jetzt mal so weit denkt, dass wirklich Berufe verschwinden würden und nicht so zentral. Also das liegt ja auch in, oder? Ja, ja, also... Zentral gesteuert. Ich will jetzt mal zwei Sachen noch sagen. Erstmal dazu noch zuvor. Also ich vermute, dass viele der Bilder tatsächlich benutzt werden dürfen, weil natürlich so Social Media, da klickt man, hat man ziemlich viel Rechte abgegeben. Und alles, was ist Social Media ist, da hat man, also im Endeffekt hat man sich nackig gemacht, aber wusste noch nicht, was man damit anstellen kann mit KI, weil die KI noch nicht so weit war.
01:23:58
Speaker
Aber da vermute ich, dass das schon relativ sicher ist. Zu den Berufen. Es werden sich viele Berufe ändern. Ich würde auch behaupten, dass Berufe, die zurzeit nicht wertgeschätzt oder genug bezahlt und wichtiger werden, weil man nämlich allen Berufen, wo es um Menschlichkeit geht, also gerade bei diesem KI gibt es ja diesen sogenannten uncanny valley Effekt.
01:24:21
Speaker
Gerade daneben und dann ganz gruselig und man denkt, was ist das denn? Also es werden nicht sehr schnell in wirklich ganzheitlich Menschen ersetzt werden können. Also dass man jetzt Grundschullehrer zum Beispiel digital macht, das ist kompletter Blödsinn. Das ist wichtig, dass das Menschen sind und Menschen in ihrer Gesamtheit genauso wie eine Live-Performance oder was auch immer, das wird man nicht so schnell ersetzen können.
01:24:47
Speaker
Und natürlich kann KI da helfen, wo gerade Bedarf ist. Also Pflege, so default-Tätigkeiten. Also ich hoffe, dass ich später mal wen hab, der mich im Bett wälzt, dass die KI mich dann rumwälzt, damit ich mich nicht platt liege zum Beispiel oder mir das Wasser reicht. Also das ist so wie so ein Spiegelei quasi. Schauen wir mal.
01:25:09
Speaker
Also das ist ja so was, wo ja Riesenbedarf ist, der nicht wird gedeckt werden können. Oder so Verwaltungsaufgaben. Verwaltungsaufgaben, finde ich, 80 bis 90 Prozent könnte man wegrationalisieren. Das Problem ist, müsste die Verwaltung akzeptieren, dass das geht, aber das würde sofort gehen, ja. Verwaltungsaufgaben zu akzeptieren.
01:25:28
Speaker
Also es gibt viele Bereiche, wo KI wirklich auch langweilige Tätigkeiten automatisieren kann, wo wir aber auch Riesenbedarf haben und wo auch viel vereinfacht werden muss. Und wir haben ja nicht einen Mangel an Arbeit. Also wenn ich gucke, Betreuung in Kindergärten fehlt und so weiter. Also da wird halt einfach das, was auch Arbeit wertvoll macht. Also zwischenmenschliche Sachen, kreative Sachen werden einfach wertvoller und KI wird überall, also in 100 Prozent aller Berufe unterstützend da sein.
01:25:58
Speaker
Das macht es auch wichtig, dass man weiß, wie man mit dieser KI umgeht, weil sie eben künstliche Intelligenz ist, also genauso die Finger komisch zeichnen und so weiter und einfach komplett anders ist als Menschen zurzeit. Das ist super wichtig, daran zu forschen und das auch zu vermitteln. Auch mit Comics über KI zum Beispiel, die ich total cool finde, weil die super wichtig sind, um das eben in die Breite zu bringen, dass man KI nicht einfach so verwenden sollte.
01:26:26
Speaker
Barbara, ich fand

Comics als Kommunikationsmittel

01:26:27
Speaker
das ein sehr schönes, ich will fast sagen Resümee, aber ich möchte das auf jeden Fall gerne für den ernsten Teil dieses Abends mehr oder weniger als Schlusswort nehmen. Ich gehe mit einem überraschend positiven Bauchgefühl aus diesem Gespräch. Hatte ehrlich gesagt, der Vater ist deprimierend damit. Zum Abschluss, wie alle meine Gäste, möchte ich euch noch ein, zwei Schlussfragen stellen. Ich hab's ein bisschen eingedampft mit einem Blick auf die Uhr und mit einem Blick auf unsere rauchenden Köpfe.
01:26:53
Speaker
Sind zwei Fragen trotzdem übrig geblieben, die ich euch jetzt jeweils gerne stellen würde. Barbara, ein Comic oder ein Graphic Novel, die du dir wünschen würdest, zu einem beliebigen Thema, mit einem beliebigen Plot, wie auch immer, was auch immer, was für einen Comic sollte es deiner Meinung nach geben, den es noch nicht gibt?
01:27:13
Speaker
Ich weiß nicht, ob es sie noch nicht gibt, aber natürlich über Bielefeld. Also die Fledermäuse in der Sparrenburg wären, glaube ich, ein Comic wert. Die 30 Arten. 30 Arten Fledermäuse in der Sparrenburg. Ich glaube, da bist du jetzt lügen. Also sehr viele. Und ich finde, die sollten mal auf jeden Fall in einen Comic kommen.
01:27:31
Speaker
Ja, Ingo hat spontan 30 Federmaus-Figuren-Designs. Die passen da auch rein. Die KI hat nur eine Sorte gezeigt, weil ich finde, diese Mannichweidigkeit sollte mal in irgendwie... Es kann auch in so einen Plot rein. Das passt ja nahtlos quasi in die Reihen, finde ich, in so eine Friedhofsszene.
01:27:50
Speaker
Ja, wir hören uns da mal um. Da musst du irgendwie hinterkommen. Warum nicht? Warum nicht? Es kann auch nur in einem existenten Comic so drin sein, so diese Fledermäuse. Das wäre okay. Also ein bisschen Sparrenburg noch dabei. Das wäre völlig cool. Die Sparrenburg Comic. Ein Bild wird mir schon reichen. Sparrenburg und diese verschiedenen Fledermäuse bitte.
01:28:13
Speaker
Und die Fredermäusen sind alle Aminia-Fans, und dann haben wir davon aus dem Stand 10.000 Stück verkauft. Ingo, selbe Frage an dich, was für ein Comic ... Die Frage hab ich dir schon mal gestellt, ich weiß, aber vielleicht hast du inzwischen eine neue Antwort. Was hab ich gesagt? Das weiß ich nicht mehr. Ich weiß es auch nicht mehr. Ich weiß es nicht. Ich glaub, es gibt so viele Comics, die erscheinen, die toll sind oder so. Ich finde vielleicht einfach ...
01:28:39
Speaker
Es könnte auch gerade hier in Deutschland noch mehr geben. Also die Szene ist, ich finde, am wachsen. Es tut sich sehr viel. Es ist sehr breit gefächert. Das empfinde ich eigentlich auch als total spannend. Und Leute, zeichnet Comics.
01:28:55
Speaker
Also ihr müsst nicht gut zeichnen. Können wir nicht? Ingo wünscht sich einen Comic von euch, die ihr alle zuhört. Dürfen wir mit Journey verwenden? Wir können das nicht. Dürfen wir mit Journey verwenden? Macht mal lieber. Also ich finde da wirklich so Sachen so ganz, da finde ich Kinderzeichnungen wirklich spannend. Also ich hatte zum Beispiel, ich hatte mal so einen kleinen, nur kurze Anekdote, ja. Für Disney habe ich im Kaufhaus gesessen, da kamen so neue Star Wars Spielzeuge und so.
01:29:18
Speaker
Und dann kamen so zwei Kids. Sie war vielleicht vier und ihr Bruder war, lass ihn, sechs Jahre alt gewesen sein. Wir haben dann da zu dritt gesessen und haben gemalt. Das war klasse. Und die haben dann angefangen, die Figuren, die in den Regalen standen, also die Star Wars Sachen, zu zeichnen. Und die Kleine, also er war schon sehr nah an dem
01:29:38
Speaker
Der wollte es so wiedergeben, wie er es sieht. Die Kleine hat zum Beispiel Details überbetont. Das fand ich klasse. Also sie hat zum Beispiel C3PO gezeichnet mit einem Gitter über das komplette Gesicht, weil sie dieses Gitter in den Augen gesehen hat. Und das finde ich super spannend. Und ich weiß nicht, macht doch lieber sowas. Es ist doch einfach sowas von herzig. Ich würde mir wünschen, dass das halt irgendwie
01:30:04
Speaker
Jedes Kind fängt automatisch an zu zeichnen. Also nimmst du ein Stiftchen hier an und bewegst uns über Papier. Wow, da passiert was. Du fängst ja nicht mit Mid-Journey an. Noch, noch. In Halle gibt es ein Museum mit Kindern. Wie gesagt, ich verstehe den Spaß. Niemand macht, würde das auch Spaß machen mit Mid-Journey.
01:30:19
Speaker
In Halle gibt es ein Museum mit Kinderzeichnungen von einigen großen Künstlern. Das ist eine geile Idee. Unser Halle hier? In Halle hier. Da waren ich mit meinen Kindern drin. Von einigen berühmten Künstlern sieht man Kinderzeichnungen. Die sind sagenhaft. Total interessant. Ein ganz kleines, kleines Game. Hier um die Ecke. Ich weiß nicht, ob es immer auf ist. Mal gucken, ob es noch ... Vor fünf Jahren gab es das. War super.
01:30:46
Speaker
Ingo, wenn du einen nerdigen Wunsch frei hättest, egal wie groß, egal wie klein, reiß nicht so die Augen auf. Hilfe! Egal wie allumfassend, egal wie realistisch, was würdest du dir wünschen? Okay, ich weiß wirklich das erste, was mir total doof durch den Kopf schießt. Wir gucken gerade Ahsoka, die neue Saba-Serie, lass sie gut werden.
01:31:11
Speaker
Ich bin ein Riesenfan von Ahsoka, ich mag die Figur total gerne, aber ich muss ein bisschen zäh. Und Ray Stevenson, Ruhe in Frieden, aber es ist ein fantastischer Darsteller und es steht ja nur Schicksalsschwanger irgendwie da.
01:31:28
Speaker
Ich lasse es gut werden. Nicht spoilern jetzt die Leute, die hier sind. Ich habe keine Infos. Und Barbara, selbe Frage nicht. Wenn du einen nerdigen Wunsch frei hättest, was würdest du dir wünschen? Also erstmal würde ich mich natürlich absolut anschließen, aber was ich richtig toll finde, es ist gar nicht nerdig.
01:31:47
Speaker
Comics sind eine so fantastische Kunst, um Messages an ein breites Publikum zu bringen. Ich hätte gern für meine Forschung einen Comiczeichner, der die immer auch vermittelt, sodass das auch ankommt und Leute das verstehen. Das wäre so toll, aber leider ist die Stelle noch nicht frei und ich muss erst mal einen Rektor, Rektorin überzeugen. Ich muss nochmal verhandeln.
01:32:20
Speaker
Können die Hauptgrundfiguren auch Federmäuse sein? Wissenschaftskommunikation ist so wahnsinnig wichtig, gerade bei solchen Themen. Und man muss in einer überzeugenden Weise die breite Masse erreichen. Und wir können das nicht. Und Comics sind so tolles Medium. Da erreicht man halt nicht nur die Leute, die absurd das gar nicht wissen müssen, sondern alle. Und das wäre toll. Das wäre toll.
01:32:47
Speaker
Wir haben das nicht so viel übrigens. Barbara liest das nicht ab, die hat sich das selber ausgedacht. Vielen, vielen Dank.

Veranstaltungsabschluss und Danksagungen

01:32:55
Speaker
Wir haben aber ein bisschen in einem großen Projekt, um ein Wasserprojekt hätten wir dafür ein bisschen was. Nehmt ihr auch Aufträge an? Wir verhandeln dann. Wir sehen uns dann in zwei Jahren. Genau. Und damit ihr das in Ruhe machen könnt, machen wir jetzt hier so langsam Schluss.
01:33:10
Speaker
Vielen Dank, Barbara, dass du da warst. Vielen Dank, hat Spaß gemacht. Vielen Dank, Ingo, dass du schon wieder da warst und dass wir miteinander Spaß haben, wusste ich sowieso. Dankeschön. Vielen Dank an den Bunker Ulmenwal. Vielen Dank an Thomas und an Cheyann und an Alex und an die Technik und an Marlena und überhaupt und sowieso. Danke an die Bielefelder Bürgerstiftung für die Unterstützung und nicht zuletzt, sondern ganz besonders vielen Dank an euch, die ihr hier wart, an das tolle Publikum.
01:33:38
Speaker
Ich hoffe, ihr hattet einen schönen Abend. Wir hatten ihn und ich hoffe, wir sehen und hören, sprechen uns beim nächsten Mal wieder. Dankeschön.