Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
Special #3: NFDI4Culture Cultural Community Plenary 2024, Podiumsdiskussion "Generative KI-Modelle und Forschungsdaten: Chancen und Herausforderungen" image

Special #3: NFDI4Culture Cultural Community Plenary 2024, Podiumsdiskussion "Generative KI-Modelle und Forschungsdaten: Chancen und Herausforderungen"

S1 E13 · #arthistoCast – der Podcast zur Digitalen Kunstgeschichte
Avatar
183 Plays4 months ago

In dieser Sonderfolge des #arthistoCast sendet Jacqueline Klusik-Eckert live von der virtuellen Podiumsdiskussion mit ihren Gästen Miriam Akkermann, Susanne Kurz und Sonja Thiel, die im Rahmen des 4. Culture Community Plenary von NDFI4Culture am 6. Juni 2024 stattgefunden hat. Unter dem Motto „Generative KI-Modelle und Forschungsdaten: Chancen und Herausforderungen“ diskutierte sie mit den Expertinnen die aktuellen Entwicklungen im GLAM-Bereich (Galerien, Bibliotheken, Archive, Museen). Dabei bot das Gespräch wertvolle Einblicke aus dem Bereich Museum, Musikwissenschaft und Forschungsdaten.

Ein zentrales Thema war die Frage, wie generative KI-Modelle in der Kulturforschung eingesetzt werden können, ohne die Kontrolle und Transparenz zu verlieren. Es wurde betont, dass es wichtig sei, die technischen Prozesse und die Daten, die hinter diesen Modellen stehen, zu verstehen und zu hinterfragen, um eine aufgeklärte Nutzung zu gewährleisten. Dies verlangt sowohl die Entwicklung passgenauer Modelle als auch die Etablierung benutzerfreundlicher Anwendungen.

Das Gespräch beleuchtete die vielseitigen Anwendungsmöglichkeiten von KI-Systemen im Kulturbereich. Ein weiteres zentrales Thema war die Bedeutung von Vertrauen in die Arbeit von Institutionen beim Umgang mit digitalen Objekten, insbesondere im Hinblick auf generierte Medien. Die Diskussion verdeutlichte, dass generative KI-Modelle nicht nur neue Möglichkeiten eröffnen, sondern auch neue Fragen aufwerfen, die einen kritischen Diskurs und eine aufgeklärte Nutzung erfordern. Die Expertinnen forderten eine realistische Betrachtung der Technologie und ihrer Möglichkeiten sowie eine kontinuierliche Reflexion über die ethischen Implikationen ihres Einsatzes.

Prof. Dr. Miriam Akkermann ist empirische Musikwissenschaftlerin und hat an der FU Berlin die Ernst-von-Siemens Musikstiftungsprofessur übernommen.

Susanne Kurz M.A. ist Dozentin für Medieninformatik und Digital Humanities an der Universität zu Köln.

Sonja Thiel M.A. ist freiberufliche Wissenschaftlerin und war als digitaler Katalysator für Künstliche Intelligenz am Badischen Landesmuseum in Karlsruhe tätig.


Begleitmaterial zu den Folgen findest du auf der Homepage unter https://www.arthistoricum.net/themen/podcasts/arthistocast

Alle Folgen des Podcasts werden bei heidICON mit Metadaten und persistentem Identifier gespeichert. Die Folgen haben die Creative-Commons-Lizenz CC BY 4.0 und können heruntergeladen werden. Du findest sie unter

https://doi.org/10.11588/heidicon/1738702

Bei Fragen, Anregungen, Kritik und gerne auch Lob kannst du gerne per Mail an uns schicken unter

[email protected]

Recommended
Transcript

Einführung in ArtistoCast und NFDI für Kultur

00:00:07
Speaker
ArtistoCast, der Podcast zur digitalen Kunstgeschichte. Hallo und herzlich willkommen zu einer neuen Folge, zu einer Live-Folge von ArtistoCast, dem Podcast zur digitalen Kunstgeschichte.

Herausforderungen im Datenmanagement

00:00:23
Speaker
Ich bin Jacqueline Klusik-Eckardt und heute der Host dieser besonderen Folge, denn wir sind mit dem Podcast Gast beim Community Plenary von NFDI for Culture.
00:00:33
Speaker
Dort wurde heute schon über Handschriften, Notenschriften, Akten, strukturiertes Maschinengeschriebenes, Sprachen, Materialitäten, Digitales in all seinen Formen gesprochen. Zum Glück behalten da die Leute wenigstens den Überblick. Viele Herausforderungen geht NFDI for Culture an und die Bandbreite von Datenarten, gemischt mit unterschiedlichen Fachtraditionen, ist eben die große Herausforderung. Wenn es um Erfassung, Strukturierung, Sicherung von Daten geht, von Forschung, von
00:01:01
Speaker
und dann am Ende hoffentlich auch wissen, gibt es diese unterschiedlichen Taskforces, die Panels, die Foren, all das steckt in NFDI drinne. Aus diesem Grund hat sich heute die Forschungsgemeinschaft getroffen, um auch mal Feedback aus der Community rauszubekommen. Nicht, dass die da immer nur vor sich hin werkeln und nicht wissen, was wir eigentlich brauchen. Es wurde heute informiert und morgen geht es weiter.

Zukunft der Digitalisierung und KI's Einfluss

00:01:23
Speaker
Es werden jetzt Impulse gesetzt für die nächsten Schritte. Wünsche können geäußert werden, natürlich auch Kritik und Feedback für das Gute, was bereits schon entwickelt wurde.
00:01:32
Speaker
In diesem Rahmen treffen wir uns heute auch in dieser Live-Folge, um nochmal über einen anderen Aspekt zu sprechen. Es soll aber weniger um den aktuellen Stand des Folgeantrags gehen oder was Forschungsdaten, Normdaten und so weiter, wie wir alles brauchen, machen. Nein.
00:01:48
Speaker
Mich interessiert heute vielmehr die Frage, für was machen wir eigentlich diesen ganzen Aufwand und was ist der Mehrwert in den nächsten zehn Jahren?

Vorstellung der Gäste und generative KI

00:01:55
Speaker
Beziehungsweise was hat denn jetzt die künstliche Intelligenz damit zu tun? Mit meinen Gästen möchte ich heute vor allem einen Aspekt herausgreifen, damit das Thema nicht zu groß wird, nicht zu weit. Und das ist Perspektiven einnehmen auf den Bereich generative künstliche Intelligenzen.
00:02:13
Speaker
oder Intelligenz sind, um es genau zu sagen. Um Definitionen hangel ich mich jetzt ein bisschen rum. Damit wollen wir uns nicht aufhalten, weil sonst ist die Stunde so schnell voll. Ich möchte jetzt lieber anfangen mit der Vorstellung meiner Gäste, die mit mir heute diskutieren werden.
00:02:30
Speaker
Wir haben dabei die Professorin Dr. Miriam Ackermann. Sie hat an der FU die Ernst von Siemens Musikstiftungsprofessur übernommen.

KI in Museen: Neues Potential und Herausforderungen

00:02:37
Speaker
Sie hat sich bereits lange mit der Wechselbeziehung von Algorithmus und Improvisation auseinandergesetzt und in ihrer Forschungstätigkeit interessiert sie sich auch für die Archivierung und Aufführbarkeit von Computermusik.
00:02:51
Speaker
Dann ist in unserer Runde noch Susanne Kurz. Sie ist Dozentin für Medieninformatik und Digital Humanities an der Universität zu Köln. In ihrer wissenschaftlichen Arbeit beschäftigt sie sich mit vielschichtigen Repräsentationen, mit Modellierung, technischen Abbildungen von Vertrauen in digitalen Objekten des Kulturerbes sowie den damit verbundenen Herausforderungen für die akademische Forschung auch in frühen postnatalen KI-Gesellschaften.
00:03:19
Speaker
Und die dritte im Bunde ist dann Sonja Thiel. Sie ist freiberufliche Wissenschaftlerin und war als digitaler Katalysator für Künstliche Intelligenz am Badischen Landesmuseum in Karlsruhe tätig. Sie hat einen Hintergrund in Geschichte und Philosophie und war auch als Kuratorin für partizipative Prozesse in Kunsthistorischen und Kulturhistorischen Museen

Integration von KI in kulturelle Institutionen

00:03:39
Speaker
tätig.
00:03:39
Speaker
In ihrer Arbeit konzentriert sie sich auf die Überschneidung zwischen Museologie, partizipativer kuratorischer Praxis und offener digitaler Bildung. Das ist jetzt die akademische Vorstellung von euch allen gewesen. Danke, dass ihr hier seid. Ihr habt ganz unterschiedliche Werdegänge, kommt aus ganz unterschiedlichen Richtungen. Da wir jetzt heute bei NFDI Vokalische auch sehr viel über Clam gesprochen haben, Generaries, Libraries, Archives und Museums, möchte ich zuerst mal dich befragen, Sonja.
00:04:06
Speaker
Ich habe jetzt so die letzten Tagungen ein bisschen beobachtet. Auf der Mai-Tagung oder auch im Winter noch bei der Tagung des Museums im digitalen Zeitalter haben wir es mit ganz vielen Projekten zu tun gehabt, in denen Chatbots vorgekommen sind oder generell über ChatGPT gesprochen wurde, alle möglichen Large-Language-Modelle. Häufig wird auch von Avataren gesprochen, vor allem wenn es in Technikmuseen geht.
00:04:29
Speaker
Wo siehst denn du das größte Potenzial, wenn es um KI-Systeme im Kulturmuseum geht oder auch konkrete generative KI?
00:04:39
Speaker
Ja, danke für die Einladung und für die Vorstellung. Wie immer ein spannendes Thema und genau, also die Frage ist ja immer, reden wir über KI allgemein oder über generative KI-Systeme. Die Mai-Tagung dieses Jahr konnte ich leider nicht verfolgen, deswegen bin ich da gar nicht informiert, was da die neuesten Entwicklungen bei den Chatbots in den Museen sind.

Transformation kuratorischer Praktiken durch KI

00:05:01
Speaker
Also ich glaube, grundsätzlich, und das wurde jetzt ja eigentlich auch ganz gut gemapt in den letzten Jahren, kann man sagen, dass die Potenziale sehr vielseitig sind, was den Einsatz von KI-Systemen in Museen angeht und dass sich bereits jetzt eben
00:05:18
Speaker
im Bezug auf Besucheranalyse, Sammlungserschließungen, Aufbereitungen in Digitalisierungsprozessen, aber eben auch digitales Kuratieren und Vermittlungsmöglichkeiten und sich eben vor allem vieles schon getan hat, auch im künstlerischen Bereich, also in künstlerischen Prozessen.
00:05:36
Speaker
Und als ich glaube kuratorisch gesprochen heißt, dass wir neue Möglichkeiten bekommen, Verbindungen herzustellen und sichtbar zu machen, Bedeutungsebenen neu zu generieren, sichtbar zu machen oder auch zu reflektieren.
00:05:55
Speaker
Und vor allem vielleicht auch das Thema der neuen Kommunikationsform zwischen Mensch und Maschine selbst zum Thema zu machen. Ich denke, das ist das, worum es ja auch ganz zentral geht, wenn wir über KI sprechen. Es geht eigentlich um eine Form von Kommunikation zwischen Mensch und Maschine. Und ich glaube, das ist eines der größten inhaltlich kuratorischen Potenziale, kulturhistorisch
00:06:26
Speaker
vielleicht stärker darüber nachdenken, was es bedeutet, in einer datengetriebenen Gesellschaft zu leben und in einer generativen Bildkultur, also quasi was es eigentlich heißt, dass wir von einem bestimmten Arten von Bildern umgeben sind oder sie selbst generieren und sie vielleicht auch selbst zum Sammlungsgegenstand werden.
00:06:49
Speaker
Also ich glaube, das ist vielleicht auch die Aufgabe, die dann Museen oder eben Kuratorinnen haben, Digitalkuratorinnen.

KI und Musik: Einfluss und Herausforderungen

00:06:59
Speaker
Genau, also das vielleicht mal von der Seite und ich glaube, dann kann man noch über viele andere Aspekte sprechen, also digitalpolitische oder technologische Aspekte, aber vielleicht gebe ich erst mal ab.
00:07:15
Speaker
Ja, du hattest ja jetzt schon viele Sachen gesagt und einiges kennen wir auch aus den klassischen KI-Anwendungssonarien, also gerade wenn es um große Datenbearbeitung geht, da hat man, da greift man auf auch schon die älteren Machine Learning Systeme, Computer Vision Systeme zurück. Spannend, vielleicht würde ich da jetzt gerne noch mal ein bisschen tiefer reingehen, sind ja auch, was du als Mensch-Maschine-Interaktion bezeichnet hast, dieses Kommunizieren mit dem Gerät, mit der Maschine.
00:07:44
Speaker
Ist dann der Chatbot als Ausstellungsbegleiter das einzige Szenario oder sind da jetzt auch schon Einsatzszenarien untergekommen, die darüber hinausgehen? Also in welchem Stadium sind wir gerade? Sind wir am Experimentieren? Sind Sachen schon etabliert? Chatbot oder Chatbot-Kommunikationstechnologien sind vielleicht das, was den meisten Leuten
00:08:13
Speaker
erstmal eingängig erscheint, wenn über KI gesprochen wird, dass es sich um Kommunikationsmedium handelt und dass es sich um neue Interaktionsformate handelt. Technologisch können die auch ganz unterschiedlich eingesetzt werden. Interaktionsformate können auch in anderen Systemen eingesetzt werden und müssen
00:08:38
Speaker
in Chatbot-Systemen eingesetzt werden. Ich glaube, das ist vielleicht ein Disclaimer vorab oder auch noch mal der Appell daran, nicht, wenn wir über KI sprechen, immer nur über, erstens nur über generative KI zu sprechen und zweitens über das Chatbot-Bild hervorzuholen, sondern eben dann vielleicht auch nach hinten in die Technologie zu schauen und zu schauen, was können wir eigentlich alles

Kreativität: Mensch vs. KI in der Musik

00:09:13
Speaker
ein wichtiger Aspekt, dass die Vorstellung von was ist denn jetzt KI sehr eingeschränkt ist und vor allem eben auch durch das Aufkommen von OpenAI und eben diesen großen Boom und den die Sprachmodelle und jetzt eben Multimodale oder Multi-Aktörsmodelle gerade mit sich bringen.
00:09:38
Speaker
Aber ich will einfach nur sagen, die Vorstellung dessen, was wir uns unter KI vorstellen, ist, glaube ich, häufig sehr eng.
00:09:48
Speaker
Ja, das merke ich auch. Also die meisten haben sofort dieses Roboterbildchen im Kopf. Oder man ist dann auch so geprägt von einfach popkulturellen Einflüssen. So ein Wall-E, der irgendwie rumfliegt und mit einem interagiert. Und manchmal sind ja auch so Service-Roboter, die im Einsatz im Museum sind, sehr stark an diese verniedlichende humanoide Roboterform angelehnt und bestärken das ja auch. Also siehst du dann den Einsatz von KI-Systemen im Museum,
00:10:17
Speaker
Also das größere Potenzial hinter den Kulissen, also beim Ausstellung machen oder? Das ist jetzt eine persönliche Meinung. Also ich glaube, es kann verschiedene Bedarfe und Anforderungen geben und es kann, glaube ich, in vielen Bereichen tolle Sachen geben, also eben sowohl künstlerisch als auch eben in der digitalen Vermittlung. Ich persönlich denke, dass sich eine Kombination aus analytischen und generativen Verfahren
00:10:47
Speaker
interessant eignen könnte im Bezug auf Sammlungserschließung und Analyse und dass da eigentlich, also meiner Meinung nach, das größte Potenzial liegt, wenn es darum geht, welchen Zugang haben wir zu Wissen, zu Informationen, wie machen wir Wissen und Informationen zugänglich und ich glaube,
00:11:07
Speaker
ein interessanterer Anwendungsfall als das Chatbot oder ein Avatar, wobei das natürlich eben auch gerade für den Zugang zu Daten und Wissen als Erst-Einstieg ein total wichtiger Aspekt sein kann.
00:11:26
Speaker
Du hast dich ja auch schon stark gemacht über das Museum als kreativen, exploratorischen Raum. Meinst du das dann auch mit dem Zugang? Also siehst du auch die Aufgabe bei Museen, diese Technologien zu vermitteln? Ich denke, das kann auf jeden Fall eine Aufgabe sein. Es ist sicher nicht die einzige.
00:11:45
Speaker
Also Museen haben ein breites Aufgabenspektrum und sehr viele Arbeitsbereiche. Aber ich denke, es ist auf jeden Fall in unserer heutigen Zeit eine Aufgabe, die, sagen wir mal,
00:12:00
Speaker
einen sogenannten kritischen Technologie des Kurs zu führen und auch die Form der Medien oder Medienumwelt, in der wir leben, mit zu reflektieren und besprechbar zu machen. Und manche, also dafür eignet sich nicht jedes Museum oder nicht jede Einrichtung,
00:12:16
Speaker
Also das ist sicherlich auch nicht für alle total nötig oder es müssen jetzt auch nicht alle ein KI-Projekt oder KI-Ausstellungen machen. Da wäre dann andererseits eher mein Plädoyer zu sagen, okay, inwiefern ändern sich vielleicht die Quellen? Und wie müssen wir vielleicht in veränderter Form mit digitalen Quellen umgehen?
00:12:41
Speaker
Da kommt die digital literacy wieder mit rein. Du hattest vorhin noch gemeint, die Herausforderung, der wir uns jetzt auch gegenüber sehen, ist eine, du nanntest es generative Bildkultur. Siehst du Museen gewachsen, diese generative Bildkultur auch aufzunehmen?
00:13:03
Speaker
Weiß man schon, wie man damit umgeht, also wie sie in Sammlungskontext überführt werden? Oder ist das jetzt wirklich noch so ein, oh mein Gott, was machen wir mit diesen neuen Medien?

Kulturelle Produktion und ethische Implikationen von KI

00:13:15
Speaker
Ich kann da nicht für alle sprechen. Also ich denke, es gibt Personen oder Sammlungen, die sich sowieso mit digitalen Medien befassen, also die das auch als Sammlungsgegenstand und nicht als reines Social Media Kommunikationsformat verstehen, sondern
00:13:33
Speaker
die sich Gedanken darüber machen, wie sammeln wir digital und wie gehen wir mit digitalem Kulturgut und mit immateriellem Erbe um.
00:13:46
Speaker
viele Museumssammlungsdokumentationspersonen, die sich Gedanken darüber machen, wie kann das gesammelt und vielleicht auch aufgenommen werden in die Sammlungen. Einerseits und andererseits vielleicht auch Personen, die sich darüber Gedanken machen, wie Sammlungen besser oder anders oder weiterführend erschlossen werden können und welche Konsequenzen das dann hat für Datenstrukturen.
00:14:12
Speaker
Also es ist, wie wahrscheinlich in jedem Feld, mit jedem neuen Technik-Input, der kommt, auch eine sehr heterogene Art und Weise, damit umzugehen. Da mach ich doch jetzt mal geschickt den Übergang zur Musikwissenschaft, Miriam, mit der neuen generierten Musik, die durch die Generativen auch Musikmodelle nun entstehen. Wie geht die Musikforschung damit um? Wie wandern die Reaktionen auf die ersten Anwendungen in dem Bereich, die jetzt auch so ganz leichtfüßig liederdauernd neu machen können?
00:14:43
Speaker
Ja, ich glaube, es ist ein bisschen unterschiedlich, je nachdem, aus welchem Forschungsumfeld die Menschen kommen, wie sie darauf reagieren. Ich würde sagen, die Bereiche, die sich schon länger einfach auch mit generativer Musik oder algorithmischer Komposition
00:15:03
Speaker
und der Einbindung von digitalen Technologien beschäftigt haben. Da war es jetzt nicht so eine große Überraschung. Da war eher die Frage, wie wird es eingesetzt und wie wird das einfach auch in den Musikproduktionen genutzt? Und ich glaube, der größere Überraschungsfaktor war wahrscheinlich bei normalen ZuhörerInnen, die dann eben überrascht waren, dass so etwas plötzlich auftritt, dass
00:15:32
Speaker
wenig Zwischenstufen hatte von dem, was man jetzt gerade auch im Popmusikbereich vielleicht vorher schon gehört hat. Also so, dass so der und die normale Musikhörerin gedacht hat, ich muss doch dann hören, wenn es gemacht ist.
00:15:55
Speaker
Also ich glaube, dass die Zuschreibung, die, ihr hattet vor schon so ein bisschen von dieser Idee von so einem Roboter oder so geredet, also das heißt die Idee, was so Algorithmen in der Musik machen können, ist natürlich sehr davon geprägt, was für Musik man hört und wo man damit in Verbindung kommt.
00:16:13
Speaker
Und je technologisierter die Musik ist, umso mehr sind die Menschen auch daran schon gewöhnt, dass schon ganz viele Technologien da einfach Einfluss haben in diesen Produktionsschritten, dass ganz viele KünstlerInnen einfach Technologien auch schon nutzen, die diese Vorstufen haben. Also es ist jetzt gar nichts, was ganz super nigelnagelneu ist, aber in dieser Ausprägung, dass eben
00:16:38
Speaker
etwas repliziert werden kann, was es in real in ähnlicher Form gibt und diese sehr, sehr nahe quasi scheinbar automatische Reproduktion erlaubt. Das glaube ich ist vielen
00:16:55
Speaker
erst bewusst geworden, als es so ganz plakative Beispiele gab. Und wenn das früher mal passiert ist mit einem Instrument oder mit irgendwelchen hintergründigeren Elementen, die eben nicht die Lead-Voice waren, dann ist das einfach gar nicht so aufgefallen und man hat sich da einfach mit der Zeit auch
00:17:13
Speaker
vielleicht schon so dran gewöhnt gehabt, ohne eigentlich zu wissen, was im Hintergrund passiert. Und ich glaube, das hat diesen Überraschungseffekt mehr ausgemacht als die Tatsache, dass es plötzlich in der Musik dagewesen wäre.

Vertrauen und Authentizität digitaler Objekte

00:17:27
Speaker
Wir sehen ja schon sehr lange generative Verfahren, die jetzt nicht erst in den letzten zwei, drei Jahren irgendwie in der Musik eingesetzt werden, sondern schon sehr, sehr viel länger in den verschiedenen Musikproduktionsprozessen involviert sind.
00:17:42
Speaker
Ja, jetzt wo du es so ausführst, in dem Haus der Musik in Wien gibt es so einen Flügel, der selbst immer neue klassische Musik komponiert und man hört da, oder ich zumindest als nicht reinierte Musikerin,
00:17:58
Speaker
Ich hab das Gefühl, ich höre irgendwelche Brüche und ich könnte mir einbilden, das wäre... natürlich höre ich, dass das generiert ist. Aber ich glaube, ich würde es nicht hören, wenn es irgendwo nebenbei in der Playlist mit reingemogelt ist. Oder auch wenn, ja, wie du sagst, das irgendwo hintendran passiert und nicht in der Melodie oder so.
00:18:15
Speaker
Aber welche Herausforderungen gibt es dann aber trotzdem im Umgang mit dieser generierten Musik? Also wenn man jetzt nicht überrascht wurde, dass es sie überhaupt gibt. Eine Frage ist eben, wird das einmal generiert und dann immer wieder so abgespielt? Also quasi, es wird eine Musik
00:18:35
Speaker
Stück erstellt, generativ. Und das bleibt aber dann immer gleich. Dann haben wir so ein bisschen die Frage, wie wurde es gemacht? Das ist eine neue Frage, die dann auch sehr in die Technik einfach geht. Welche verschiedenen Verfahren wurden da verwendet? Wie ist das genau zusammengebaut? Wo ist auch der Einsatz oder die Entscheidungen, die Menschen getroffen haben? Und warum haben sie die getroffen? Das heißt, wir haben so ein bisschen andere Fragen auf ein dann nur noch ein audio existentes Stück. Also da quasi wir lassen einen Schritt, den vielleicht manche Menschen auch erwarten würden.
00:19:05
Speaker
Wenn wir jetzt auf klassische, also auf Musikstücke blicken, die jetzt eher der klassischen Musik zugeordnet sind, haben wir eben keine Notationen, sondern es wird gleich das Audio generiert. Wenn wir jetzt generative Modelle haben, die da immer weiter machen, also die jetzt nicht nur das einmal generieren, sondern die permanent weitermachen in dem Musikgenerieren, der Musik erzeugen,
00:19:26
Speaker
Dann haben wir natürlich die große Herausforderung, dass es sich immer verändert. Und das ist natürlich auch so ein bisschen der Reiz dieser Modelle, dass sie permanent ähnliche Sachen, die irgendwie zusammenpassen, kreieren, die aber nicht ganz gleich sind. Und wenn wir das natürlich dann analysieren wollen, dann haben wir die Herausforderung, dass die Frage, also dass das Stück oder die Musik, das, was erklingt,
00:19:50
Speaker
nicht mehr ein bestimmtes Ding ist, dass man irgendwie wohl das einen bestimmten Anfang und einen bestimmten Ende hat, sondern wir haben so quasi so einen generellen Strom, für den wir dann eben entscheiden müssen, zu welchen Stellenwert hat das Audio denn im Sinne auch als Quellmaterial und wie
00:20:11
Speaker
betrachtet man es dann auch im Kontext, wenn man eben analytisch daran rangeht.

Ethik und Standards in der KI-Entwicklung

00:20:16
Speaker
Und dann haben wir natürlich alle Folgefragen, die ja auch gerade schon so angeklungen sind, wie archiviert man das dann und welche Teile davon und wo ist sozusagen das, was dann dieses Musikstück ausmacht. Und da geht natürlich der Blick sehr stark auch auf die Technologien und
00:20:34
Speaker
Das ist dann die Herausforderung, die Musikwissenschaft hat, dass sie plötzlich sich auch mit technischen Gegebenheiten beschäftigt oder zu beschäftigen hat, die vielleicht eine sehr, sehr lange Zeit, eine sehr Nischendasein geführt haben und die jetzt in der etwas breiteren Masse der Forschenden gar nicht so wahnsinnig relevant war.
00:20:56
Speaker
aber anscheinend zunehmend relevant wird. Und nur, damit ich es einmal gesagt habe, natürlich auch die Herausforderungen von Urheberschaft. Also das haben wir jetzt natürlich in der Kunst, in der Musik, in allen auch schaffenden Berufen. Das möchte ich aber jetzt nur einmal sagen, damit ich es gesagt habe, da aber niemand von uns rechts Zwischenschaffnerin ist, würde ich diesen Aspekt gerne ausklammern, sonst verrennen wir uns komplett.
00:21:18
Speaker
Was ich ganz spannend fande, dass es auch in der Musik, ähnlich auch wie in der Kunstgeschichte, in der Musikgeschichte, Musikforschung so ein Neuschaffen gab. Also vor ein paar Jahren, das ist auch noch vor der Veröffentlichung der GPTs gewesen, gab es das New Rembrandt Project. Dort wurden alle Rembrandt-Gemälde eingescannt, verarbeitet und es wurde ein neuer Rembrandt auf Stilgrundlage aller existierenden Rembrandts generiert mit einem
00:21:47
Speaker
technisch unglaublich versierten, neu entwickelten Drucker dann auch in Materialität wiedergebracht. Augentäuschend echt als neues Gemälde, als neues Werk. In der Musikgeschichte gab es sowas ja ähnlich auch schon. Beethoven's Zehnte, ein ähnliches Verfahren. Beethoven's Stücke wurden eingelesen, technisch verarbeitet. Der Algorithmus hat dann die Zehnte geschrieben und es wurde dann auch mit Symphonieorchester aufgeführt.
00:22:17
Speaker
Sind das technische Schaustücke? Also nach dem Motto, was können wir machen, weil wir einfach diese Dinge mit sehr viel Energie trainieren können? Oder verbirgen sich dahinter auch

Zukünftige Entwicklungen von KI in Kulturkontexten

00:22:27
Speaker
spannende Forschungsfragen? Es gibt immer spannende Forschungsfragen bei großen Projekten. Die Frage ist, was genau man sich daran anschauen möchte. Beethoven's Zehnte ist ein Projekt, das jetzt auch schon ein bisschen älter ist. Also heutzutage, mit den aktuellen Verfahren, würde man vielleicht auch noch mal ein bisschen anders
00:22:47
Speaker
rangehen können. Und man muss sagen, dass in der Musik sehr viele
00:22:55
Speaker
kleinen Entscheidungen tatsächlich noch auch durch Menschen getroffen werden. Also man kann sich das nicht so vorstellen, dass man füttert das alles rein und dann spuckt der Computer irgendwie eine Dirigentenpartitur mit irgendwie allen Einzelstimmen aus. Also so einfach geht es nicht, sondern da werden
00:23:18
Speaker
beispielsweise Einzelstimmen generiert, die dann natürlich auch wieder zusammengesetzt werden müssen. Also das heißt, wenn es dann wieder einen Transfer in eine Notation oder dann auch zu einem spielbaren Ergebnis für Menschen kommen soll, für MusikerInnen, dann braucht man kleinteiligere Schritte, die
00:23:42
Speaker
Zusätzliche Regeln würden wir sagen, noch einfügen, die jetzt eventuell für eine reine formale Replikation von gelernten Kompositionsregeln gar nicht ausreichen. Also das heißt, wenn man jetzt sagt, man hat eine Orchestrierung oder bestimmten, welche Stimme spielt was, wie wird was gut aufgeteilt oder so, das kann man unter Umständen den
00:24:10
Speaker
Algorithmen gar nicht ganz alleine überlassen, weil die dann auch noch wissen müssen, was kann welcher, also so ganz banale Sachen, wann müssen Menschen atmen, wenn sie was spielen wollen oder wie ist eine Phrase gesetzt für ein bestimmtes Instrument. Das heißt, wir haben sehr, sehr viel zusätzliches Wissen, das da noch hineinfließt, weswegen diese Idee, dass
00:24:33
Speaker
der, in Anführungsstrichen, Algorithmus oder der Bot, das alles alleine macht, da sind wir noch nicht. Vielleicht kommen wir da irgendwann hin. Also das möchte ich jetzt an der Stelle auch nicht ausschließen. Aber wir sind noch nicht an der Stelle, wo man sagt, man füttert das Ding einfach und dann macht es eine perfekte Stilkopie und das kommt dann genauso wieder raus wie in den Formaten, wie es also für uns gedacht war.
00:24:58
Speaker
Da würde ich sagen, interessante Forschungsfragen sind beispielsweise, was kann der Algorithmus noch nicht? Was können diese Systeme noch nicht? Wo muss man ihnen noch helfen als Mensch, damit auch das Ergebnis rauskommt, das man haben möchte? Und andere ganz, ganz spannende Fragen, die schließen an diese Frage auch nach dem Urheberrecht an, weil es ist ja nicht zwingend so, dass
00:25:24
Speaker
wir jetzt in der Musik davon ausgehen würden, dass alle KomponistInnen außer Betrieb gesetzt oder aus dem Betrieb rausfallen, weil plötzlich alle Algorithmen übernehmen, sondern es wird natürlich auch erwartet, dass es eine gewisse Co-Kreativität gibt, das heißt, dass die KünstlerInnen diese neuartigen Technologien entsprechend wieder sich zu eigen machen und damit neue
00:25:49
Speaker
Verfahren entwickeln, neue künstlerische Prozesse entwickeln, um wieder ihr eigenes zu schaffen, ihre eigenen Ideen umzusetzen. Und der Bereich der Co-Kreativität, der ist eben leichter schützenswert als wenn man nur nach dem Ergebnis fragt.
00:26:10
Speaker
Also es ist spannend, weil es auch hier wieder um so eine Mensch-Maschine-Interaktionsprozess geht. Also wir nutzen die Technologie als Assistenzsystem für unsere eigene Kreativität. Ja klar, weil ein generatives Modell würde, wenn es irgendwo brach rumliegt, nichts machen. Man muss schon irgendwie den Prompt schreiben, die Eingaben machen, die Daten reingeben, mit denen gearbeitet werden soll, weil das Ding an sich nichts tut. Es macht ja nichts, es senkt ja nichts, es handelt ja nicht von sich aus.
00:26:40
Speaker
Deswegen fand ich es auch spannend zu beobachten, dass in diesem Rahmen von diesem Streik dieser Writer's Guild of America am Ende als Erfolg gesehen wurde, dass KI-Technologie nicht für die Erstellung von Drehbüchern genutzt werden darf. Das bedeutet auch, es darf nicht fürs Co-Writing genutzt werden. Das Beispiel wurde
00:27:02
Speaker
als Erfolg zitiert, also als Erfolg der Streikenden. Ist es denn wirklich so oder setzen wir uns hier als Kunstschaffenden auch Grenzen, die wir vielleicht nicht bräuchten? Also wie ist das denn mit in der Musik? Gibt es da auch viele MusikerInnen, die mit generativen Modellen schaffen? Wären die von solchen Einschränkungen nicht auch betroffen?
00:27:27
Speaker
Ich glaube, die Frage wäre, was genau ist betroffen? Also, wie gesagt, in der Musik ist man derzeit noch ein Stück davon entfernt, dass ein generatives System oder ein auf Machine Learning basierendes System komplett alles
00:27:46
Speaker
reproduzieren kann, was man aus einem anderen Musikstück lernen kann, wenn es sich um komplexere Regelsätze handelt. Also wenn man jetzt die Regelsätze sehr, sehr einschränkt und dem Algorithmus einen sehr klaren Auftrag gibt, dann klappt das ziemlich gut. Aber in dem Moment, wo man jetzt sagt, keine Ahnung,
00:28:09
Speaker
Alle Playlists werden da mal reingescannt und dann wird das Ding schon machen. Da sind wir noch nicht. Also da braucht es sehr viel mehr zusätzliche Informationen, zusätzlichen Input. Und diese Frage nach, wie sollte das reglementiert werden, die stellt sich, glaube ich, in Bereichen derzeit, in denen die Tasks einfach sehr viel konkreter benennbar sind.
00:28:36
Speaker
Und deswegen würde ich sagen, ist es in der Musik vielleicht auch noch nicht an dem Punkt, wo es so einen ganz klaren Grenzfall gibt. Es gibt zwar schon sehr viele Bereiche, wo man auch generative Musik schon einsetzt, was uns als
00:28:57
Speaker
die HörerInnen gar nicht so stört oder so, was vielleicht also wo es so einen gewissen Umschwung schon gibt und wo es mit Sicherheit auch eben diese Gefahr gibt, dass gewisse Positionen, die von Menschen derzeit besetzt sind, dass die sozusagen an generative Modelle irgendwann übergehen.
00:29:25
Speaker
Aber ich würde hier trennen zwischen Berufsfeldern, die eine sehr klare Ausrichtung haben und künstlerischen Prozessen. Und weil ich glaube, tatsächlich für die, für sehr dezidierte und spezifische Aufgaben besteht die Gefahr auf jeden Fall. Und dann ist da wirklich zu diskutieren. Gibt es Beschränkungen? Wie schauen diese Beschränkungen aus? Und was bewirkt das dann auch? Ein bisschen so on the long run für das ganze Feld oder für den ganzen Betrieb sozusagen.
00:29:54
Speaker
Oder geht es darum, was KünstlerInnen grundlegend mit diesem Verfahren machen können? Und ich würde sagen, für die KünstlerInnen sind wahrscheinlich genauso viele Potenziale wie Gefahren vorhanden. Und da wird man sehen, was sich dann auf der künstlerischen Ebene bewegen wird für so ganz klare Einzeltasks.
00:30:20
Speaker
ist mit Sicherheit eine Gefahr da. Also ich würde sagen, gerade jetzt in der Musik für klar definierte Produktionsprozesse, also das, was ja jetzt auf diesem Writers Diskurs auch
00:30:35
Speaker
Die Grundfrage war es, weil ja nicht werden jetzt irgendwie alle Schauspieler durch KI oder Avatar ersetzt, sondern es ging ja um sehr, sehr klar definierte Einzeltasks, die dann eben entsprechend auch durch gutes Prompting eventuell tatsächlich ein Gefahrenpotenzial für die Arbeit bedeuten, die sonst Menschen gemacht haben bisher.
00:30:59
Speaker
Das heißt, wir müssen da wirklich unsere Augen offen halten und in den Verhandlungsprozess, in dem wir gerade drinstecken, auch einfach schauen, was wir erlauben und was wir nicht erlauben. Das entscheiden wir ja als Menschen, nicht die Produzierenden, diese Verfahren oder diese Anwendungen. Ich möchte jetzt noch mal die Perspektive wechseln von der Musik weg und öffnen in den ganzen Kulturraum.
00:31:25
Speaker
Wir haben jetzt von generierten Bildern gesprochen, von generierter Musik, von unterschiedlichen Anwendungsszenarien, der Techniken. Aber natürlich produzieren diese Sachen auch unterschiedliche Medien. Diese Möglichkeiten sind da. Generierte Medien können auch Inspirationsquelle sein, Muse. Sie fordern aber auch von uns eine gewisse Haltung und Verantwortung. Also wie es jetzt eben gerade angesprochen wurde, was lassen wir eigentlich zu? Wie verhandeln wir die ganzen Sachen?
00:31:54
Speaker
Welche Ansprüche gibt es denn auch an Forschungsdaten im Bezug auf generative Modelle? Susanne, dafür bist du unsere Spezialistin. Ja, vielen Dank, Jolien. Danke auch für die Einladung. Ich habe mich sehr gefreut und gerne möchte ich dazu was erzählen, denn Fake beschäftigt uns ja in der Gesellschaft schon seit einer ganzen Zeit und wir überlegen, wie wir das Fake von dem Original unterscheiden können.
00:32:21
Speaker
Und auch in der geisteswissenschaftlichen Forschung haben wir es schon immer mit Fälschungen zu tun. Wir haben schon immer das Problem der Fälschung tatsächlich gehabt. Aber um Fälschungen anfertigen zu können, war immer sehr großes handwerkliches Geschick notwendig, weil man möchte ja möglichst nah am Original bleiben und man möchte ja das Original möglichst nah auch abbilden.
00:32:47
Speaker
Und das war schon nicht so einfach und dadurch ist die Anzahl der Fälschungen, die wir so haben und kennen, doch relativ gering. Es handelt sich aber um Schätzungen. Wir wissen es nicht genau, weil die richtig gute Fälschung ist ja die Fälschung, die wir nicht erkennen. Das müssen wir uns auch immer klar machen.
00:33:07
Speaker
Die Situation hat sich ein ganz klein bisschen geändert, als wir als Forschungsgrundlage auch in den Geisteswissenschaften nicht mehr in erster Linie an Originalmaterial gearbeitet haben, sondern mit digitalen Abbildern. Wir schaffen also digitale Abbilder von Originalen und unsere Forschung ist dann auf die digitalen Abbilder konzentriert.
00:33:32
Speaker
Und auch da sind natürlich Fälschungen möglich. Wir konnten mit Computerverfahren dann in der Regel über Pixelmanipulation bei Bildern und vergleichbaren Verfahren auch bei anderen Medien Fälschungen, Veränderungen vornehmen. Das war schon immer möglich.
00:33:49
Speaker
Aber mit den Methoden der digitalen Forensik konnte auch das in der Regel aufgespürt werden. Und die Methoden der Forensik, die zielten auch immer darauf ab, wo die Menschen bei der Anfertigung der Fälschungen Fehler gemacht haben. Man hat immer gemerkt, wo sind denn die Pixel manipuliert worden? An welchen Stellen wurden die Veränderungen denn geschaffen?
00:34:16
Speaker
Und das ist der Punkt, wo ich jetzt das Ganze ein bisschen, ja, gefährlich möchte ich es nicht nennen, aber doch beachtenswert finde, dass wir aufpassen müssen, dass die Situation sich jetzt durch die generativen Verfahren verändert hat.
00:34:34
Speaker
Wir können jetzt neue digitale Objekte schaffen und ich möchte die gerne artificielle Objekte nennen, die nicht aus einem Retro-Digitalisierungsprozess hervorgegangen sind. Also ich habe ein Original und ich transformiere dieses Original in einem Digitalisierungsprozess zu einem digitalen Objekt.
00:34:56
Speaker
sondern wir haben das vollständig generiert. Und diese generativen Verfahren, die haben keine Fälschungsmerkmale mehr, weil diese menschliche Fehler beim Verändern nicht mehr auftritt, sondern ich habe eine Vorstellung und möchte gerne, dass ein historisches Objekt in einer bestimmten Art und Weise dargestellt wird. Und ich kann über die generativen Verfahren das jetzt realisieren.
00:35:23
Speaker
Und die Gefahr, die ich dabei sehe, ist, dass wir in eine Ungewissheitssituation kommen, dass wir nicht mehr wissen, ob unsere Forschungsgrundlage tatsächlich ein ordnungsgemäß transformiertes Abbild eines Originals ist oder ob es sich um ein generiertes digitales Objekt, also ein artificielles Objekt handelt, das aufgrund von einer Vorstellung generiert wurde.
00:35:50
Speaker
Das ist ja gerade bei generierten Bildern, also wenn man Kunstwerke hat oder Skulpturen, total spannend. Ich hatte dieses Jahr am Kongress für Kunstgeschichte bei unserem Forum den Touring-Test von Peter Bell dabei. Es war immer ein generiertes Kunstwerk und digitalisiert von einem Original, das wir irgendwie kennen aus dem Kunstgeschichtskanon. Und er ist mittlerweile so gut imprompt, dass es täuschend echte Werke sind.
00:36:14
Speaker
schon verrückt, weil ich denke, ich hab immer gedacht, ich, die da ja auch im Sehen trainiert bin, sehe natürlich, wenn da ein sechster Finger dabei ist oder nur drei Finger. Also man kennt ja diese klassischen Merkmale, wie erkenne ich ein generiertes Bild, falsche Anzahl von Fingern, zu viele Muskeln, zu wenige Muskeln. Aber in dem Moment, in dem Kunststile oder Kunstwerke auch so gut imitiert werden können, dass das eigene Bildgedächtnis ausgetrickst wird,
00:36:39
Speaker
haben wir natürlich, da habe ich zumindest die Sorge, wie kann ich da nicht drauf reinfallen? Also was muss man denn jetzt nun in der Forschungspraxis oder Forschungsdatenpraxis im Kulturbereich tun, dass wir da uns irgendwie sicher sein können? Also nicht, dass ich irgendwie mal durchs Internet
00:36:58
Speaker
wandere und mir denke, ah, das ist doch ein cooles Kunstwerk. Darüber möchte ich mal forschen und bin aber in einen generierten Werk reingefallen. Nicht weil ich jetzt über dieses generierte Werk sprechen möchte, sondern weil ich denke oder gedacht habe, es gibt irgendwo in der Welt ein Original da draußen, über das ich gerne forschen möchte. Also was sind jetzt so die Punkte, die wir machen müssen, um diese Forschungspraxis auch weiter aufrechtzuerhalten, dass wir mit Digitalisaten forschen?
00:37:23
Speaker
Ich denke, wir haben ein ganz großes Vertrauen in die Institutionen im Laufe der Jahre aufgebaut, dass die keine Fälschungen in Verkehr bringen und keine Fälschungen vorrätig halten. Und das haben wir auch in den digitalen Raum übertragen, ohne dass wir das wirklich sicherstellen können. Wir haben also auch bisher immer darauf vertraut, dass das Material, was wir bekommen, wirklich auch ordnungsgemäß ist.
00:37:49
Speaker
Und darauf müssen wir auch weiter vertrauen können. Und das Vertrauen spielt an der Stelle eine ganz große Rolle. Und die Institutionen, die das geisteswissenschaftliche Forschungsmaterial in Verkehr bringen, also Bibliotheken, Museen, Archive,
00:38:08
Speaker
Die müssen jetzt dieser Verantwortung gerecht werden. Und ich bin der Meinung, dass wir als Erstes anfangen müssen, ordnungsgemäß transformiertes Material als solches zu kennzeichnen. Wir haben ja große Bestrebungen, dass das KI-generierte Material gekennzeichnet wird.
00:38:26
Speaker
Und das ist auch sehr verdienstvoll, das ist sehr schön, aber es ist keine verlässliche Grundlage. Denn im Umkehrschluss heißt es ja nicht, dass das Material, was nicht als KI generiert gekennzeichnet ist, automatisch ordnungsgemäß transformiertes Material und nicht generiertes Material ist.
00:38:45
Speaker
Und das ist mein Problem, was ich damit habe und deswegen bin ich der Meinung, dass wir alles Material, was ordnungsgemäß transformiert wurde, vertrauenswürdiges Material als solches kennzeichnen sollten. Das wäre ein erstes großes Vertrauenssignal, was die Institutionen bereitstellen können.
00:39:05
Speaker
Wir können aber auch sicherstellen, von wem das gemacht wurde. Wir haben die Möglichkeit, mit zertifikatsbasierten digitalen Signaturen eindeutig festzulegen, wer hat das gemacht, und wir können damit nachweisen, von wem das kommt. Und das wäre das nächste sehr große Vertrauenssignal, was wir den Forschenden zur Verfügung stellen können.
00:39:29
Speaker
Das große Problem dabei ist aber, dass natürlich auch auf generiertes Material eine solche zertifikatsbasierte digitale Signatur gelegt werden kann. Es setzt immer erst nach dem Transformationsprozess ein.
00:39:45
Speaker
Und da müssen wir uns Gedanken machen, wie wir weitere Vertrauensignale in ein digitales Objekt einbringen können. Denn letzten Endes sind es die Forschenden, die das Vertrauen aufbringen müssen. Das sind diejenigen, die in das Objekt, in die Institution Vertrauen haben müssen.
00:40:06
Speaker
Ganz ohne Vertrauen geht es nicht. Wir können verschiedenste Nachweise bringen, aber letzten Endes müssen die Forschenden das Vertrauen aufbringen. Und jetzt geht es darum, die Vertrauenssignale bereitzustellen. Und da wäre es noch eine Möglichkeit, dass wir weitere fälschungssichere Metadaten in Objekte mit einbringen, die diese Trust Information
00:40:30
Speaker
entsprechend modellieren und ausgeben. Wir könnten technische Systeme bauen, die Trust Information auf unterschiedlichen Leveln auswerten und uns dann zum Beispiel in so einem Star-Ranking zeigen, okay, das hier hat sehr, sehr viel Vertrauensinformation und das ist ein Objekt, in dem man
00:40:53
Speaker
mit sehr geringer Wahrscheinlichkeit seinen Vertrauen falsch investiert oder es ist eins, wo halt die Trustinformationen nicht ganz so umfangreich sind und wo vielleicht dann doch eher mehr Skepsis gefragt ist. Das wäre etwas, was man zukünftig entwickeln könnte und was ein technischer Standard sein könnte, der über den Browser, über elektronische Systeme dann bereitgestellt wird.
00:41:21
Speaker
Was aber auch jetzt dann verlangt von uns, nochmal unsere eigene Wahrnehmung von allem, was wir sehen und hören im Digitalen, dass wir uns da bewusst machen, dass Dinge eben generiert sein können, gemacht sein können auf unterschiedlichen Arten, also dass wir den Wahrheitsgehalt von Bild, Ton, Video grundlegend nochmal hinterfragen in dem Moment, in dem es um digitale Medien oder auch analoge Medien geht. Man konnte auch bei analoger Fotografie schon ziemlich viel Murks machen.
00:41:50
Speaker
Was ich jetzt nochmal machen möchte, ist, euch alle auch ein bisschen ins Gespräch zu bringen. Also wir haben jetzt, jeder von euch hat in seinen Spezialgebieten nun Perspektive eingenommen auf die generativen Modelle. Und ich habe aber noch ein paar Fragen dabei und ich würde einfach gerne wissen, wie ihr das untereinander seht. Und an dieser Stelle auch nochmal ein Hallo an alle, die bei NFD for Culture gerade mithören, in den Zoom-Raum.
00:42:15
Speaker
Ihr habt dort die Möglichkeit, auch Fragen zu stellen. Also benutzt einfach dort den Meeting-Chat im Zoom-Raum und ich versuche dann, eure Fragen auch mit reinzubringen. Wir hatten es gerade, und das ist jetzt auch ein guter Übergang, mit Verantwortung. Was ich mich häufig frage ist, sind wir zu leichtfertig damit als Wissenschaftlerinnen und Wissenschaftler im Verwenden von kommerziellen Modellen? Weil das, was wir jetzt alle gerade nutzen, sind die Chat-GPTs von OpenAI,
00:42:43
Speaker
Stable Diffusion ist so semi. Mid Journey und wie sie nicht alle heißen, also dahinter stecken große Unternehmen. Natürlich auch mit einem gewissen Finanzierungsdruck, der da hinten dran steht. Es bringt dann auch noch das Problem der Intransparenten mit sich. Wir wissen nicht, wie die Trainingsdaten aussehen. Oft wissen wir noch nicht mal, mit welcher Version der Modelle wir gerade arbeiten, die wir in den Anwendungen benutzen.
00:43:09
Speaker
Es passiert dann auch manchmal, dass es Missverständnisse gibt oder Ergebnisse dann rauskommen, die wir nicht interpretieren können, weil wir eben die ganze Pipeline vorher nicht kennen. Also müssten wir nicht eigentlich, wenn wir
00:43:25
Speaker
Gen-AI, also generative Modelle, benutzen, selbst diese Modelle entwickeln mit unseren eigenen Forschungsdaten. Also ist es zu leichtfertig zu sagen, wir nutzen diese generalisierten Modelle von, jetzt nehmen wir es als Beispiel, Open AI, also GPTs und Dullies, oder sehe ich das einfach nur zu kritisch?
00:43:47
Speaker
Also ich würde dann den Aufschlag mal machen. Natürlich hängt es immer an den Trainingsdaten, wie das Ergebnis hinterher aussieht. Und die Trainingsdaten sind natürlich entscheidend für das, was wir haben. Und die Intransparenz der Trainingsdaten ist ein ganz großes Problem für die Forschenden.
00:44:04
Speaker
Aber die Frage ist, sind wir tatsächlich in der Lage, Modelle so zu trainieren, wie wir das wirklich brauchen oder sind wir da nicht doch auch auf die kommerziellen Anbieter mit angewiesen, was Leistungsfähigkeit, Erfahrung und so weiter angeht?
00:44:21
Speaker
Also ich stehe für eine Kooperation zwischen beiden, sodass man die Erfahrung und auch die Leistung, die diese Unternehmen bereitstellen, schon auch nutzt. Aber dass man eine gewisse Kontrolle und eine gewisse Transparenz seitens der Unternehmen dann doch auch hat, das wäre für mich ein wünschenswerter Zustand.
00:44:45
Speaker
Also, ich finde das eine total interessante Frage und Perspektive jetzt auch gerade in der Community der NFDI und vor allem NFDI for Culture, weil es ja hier tatsächlich um hochqualitative, wissenschaftlich fundierte, gesicherte Datengrundlagen geht.
00:45:09
Speaker
einerseits und andererseits auch um bundländerübergreifende Strukturen, die zumindest perspektivisch international in Cloud-Infrastrukturen gedacht werden. Und ich glaube, das ist eigentlich das Potenzial, die Grundlage, um zu sagen, okay, hier kann man quasi in solchen Strukturen
00:45:27
Speaker
ist es möglich, smarte Lösungen zu entwickeln. Ich glaube, das sollte man tun. Ich plädiere immer mal wieder gerne für Forschungs- und Entwicklungsräume, also experimentelle
00:45:54
Speaker
Das hätten Sie mit der LFDI zu sagen, wir haben gute Leute, wir haben gute Daten, wir haben Vernetzung, wir können reingehen und wirklich für die Culture Community sinnvolle Lösungen entwickeln.
00:46:14
Speaker
und da eben auch mit lokal oder federiert experimentieren und entwickeln. Also ich glaube, das ist eigentlich die Chance, die hier liegt. Und das vielleicht auf der einen Seite und auf der anderen Seite dann sich so zusammenzutun, dass Lösungen entwickelt werden, die auch tatsächlich für die, die es nicht können,
00:46:42
Speaker
Wie können Daten aus Museen oder Kultureinrichtungen vielleicht besser gesichert und eben Trust Certified auch aufgenommen werden? Kann so ein Prozess vielleicht automatisiert und gestützt werden? Können Beratungen automatisiert werden? Ich glaube, da gibt es ja verschiedene Perspektiven, wo man reingehen kann und schauen kann, wie da lokal mit den Sachen und den Leuten, die da sind, sinnvolles entwickelt werden kann.
00:47:13
Speaker
Unterscheiden müssen wir aber, glaube ich, ob es um die Entwicklung neuer Modelle geht oder ob es um die Nutzung von Modellen geht mit Trainingsdaten. Das sind, glaube ich, zwei ganz verschiedene Dinge. Und ich glaube, dass wir aus der Forschungs- Community heraus durchaus in der Lage sind, mit den aktuellen Modellen gute Trainingsszenarien zu entwickeln und unser Material da auch sinnvoll einzubringen. Aber was die Entwicklung von neuen Modellen angeht,
00:47:42
Speaker
Da bin ich mir nicht sicher, ob wir da wirklich die entsprechenden Spezialisten in der Forschungs-Community finden. Ja, und Ressourcen. Also das ist ja auch eine Rechen-Ressourcen-Frage. Ja. Aus Aspekten der Nachhaltigkeit sollten wir vielleicht nicht noch ein großes Large-Language-Model trainieren, sondern die, die wir haben, verbessern. Naja, aber ich wollte an der Stelle vielleicht auch nochmal die Frage, also den Blickrichtung
00:48:11
Speaker
wenden und sagen also, für was brauchen wir sie denn? Und ich glaube, dass viele der kommerziellen Lösungen der generativen Modelle auf eine Produktion liegt. Und bei uns ist ja eher die Frage, wie nutzen wir das eben für
00:48:28
Speaker
sei es eine Datenbeschreibung, eine Datensystematisierung. Also wir haben ja eine andere Frage, für die wir diese Modelle oder existierende Modelle auch gerne einsetzen würden. Und ich bin mir gar nicht sicher, ob es so wahnsinnig viele kommerzielle Einbettungen grundlegender Modelle schon gibt, die wir einfach so out of the box quasi benutzen können.
00:48:49
Speaker
Von daher glaube ich schon, dass ein bisschen Potenzial für einen Entwicklungsbereich da ist, weil wir ja auch sehr spezielle Bedürfnisse haben, was wir mit diesen Modellen machen möchten. Und die Krux, glaube ich, liegt schon auch in der Programmierung. Aber ich denke, dass man das zumindest bis zu
00:49:19
Speaker
Konstruktionszügen verstehen kann, auch wenn man jetzt nicht alles irgendwie von Grund auf neu entwickelt. Und ich glaube, da wäre durchaus die Frage von den Bausteinen, wenn wir jetzt quasi von den großen Programmen weggehen, sondern wirklich auf die Modelle selbst gucken, die ja noch gar nicht erstmal
00:49:38
Speaker
irgendwo eingebettet sein müssen, wie man sich das zunutze macht, um eben dann auch genuinen Forschungsfragen oder Fragen der Archive, der Erschließung der Darstellung anbindet und nicht die der Neugenerierung von
00:49:58
Speaker
Bildern oder Musik oder anderen, also Output-orientierteren Sachen. Und ich glaube, da ist durchaus noch einiges an Potenzial da. Ich glaube, da haben wir uns vielleicht auch in der Forschungskommunikation noch gar nicht so wahnsinnig damit befasst, was wir da alles für tolle neue Sachen auch machen könnten, die einfach auch anders funktionieren, als sie bisher funktioniert haben.
00:50:24
Speaker
Das finde ich einen total spannenden Aspekt, den du da mit reinbringst. Die Frage habe ich mir nämlich auch schon oft gestellt, weil auf einmal waren diese Anwendungen da und wir haben uns dann überlegt, was kann ich mit diesen Anwendungen machen. Aber eigentlich sollte es doch andersrum sein. Wir sollten doch eigentlich eine Problemstellung haben und sagen, so technik, löse mir dieses Problem. Wir generieren uns jetzt ganz viele Probleme, die wir mit diesen Anwendungen irgendwie lösen können oder erfinden sogar welche, die vielleicht vorher gar nicht dargebiesen sind.
00:50:49
Speaker
Das heißt, wir müssen uns mal wirklich zusammentun und fragen, was wollen wir eigentlich mit diesen Systemen gelöst haben? Welche Arbeit wollen wir nicht mehr machen? Was sollen KIRI-Modelle übernehmen? Ich fände zum Beispiel eine vereinfachtere Recherche museumsübergreifend hervorragend.
00:51:08
Speaker
Also ich denke, da gibt es verschiedene Dinge. Es gibt auch im Rahmen des Forschungskontextes so viel Trivialarbeit, die man sehr gerne von jemand anders gemacht haben würde und auch sehr gerne von einer KI erledigt haben möchte. Aber es gibt doch auch sehr viel Arbeit, die wir selber machen möchten und wo wir die Kontrolle drüber haben möchten. Und das ist das, was wir identifizieren müssen.
00:51:32
Speaker
Und dass wir uns jetzt ein Problem schaffen, was wir mit der KI lösen, ganz so sehe ich es nicht, obwohl ich den Gedanken auch sehr interessant finde. Jacqueline, hast du schon recht. Aber wir müssen jetzt erst mal lernen, wie können wir die Systeme sinnvoll für uns in den Arbeitsalltag einbinden. Da sind wir ja jetzt in einer ganz neuen Situation. Wir haben bisher Arbeitsroutinen, die wir immer verfolgt haben, die wir angepasst haben.
00:52:00
Speaker
Aber der Switch, der jetzt da ist mit den neuen Möglichkeiten, ist doch ganz ein anderer, wie wir das vorher hatten. Und die Änderungen sind ganz andere. Und wir müssen uns jetzt erst mal überlegen, welche Arbeiten möchte ich eigentlich abgenommen bekommen? Und ich finde, das ist keine triviale Frage.
00:52:18
Speaker
Ich würde, glaube ich, auch manche Arbeiten sehr gerne abgeben, aber trotzdem die Kontrolle oder zumindest die Nachqualitätskontrolle, die Möglichkeit einer Qualitätsnachkontrolle offen halten. Und ich glaube schon, dass man den Blick in die, wie funktioniert es und wie ist es gemacht, nicht so ganz vermeiden kann. Aber das müssen eben nicht alle machen. Also ich würde schon auch so ein bisschen diesem Ideal, dass Sonja
00:52:48
Speaker
angetriggert hat folgen und sagen, eigentlich haben wir jetzt natürlich auch den perfekten Moment, die Chance, nochmal neue Tools auch selber zu entwickeln, eben weil wir Fragen haben, weil wir ein anderes Material haben, weil wir ein neues Material haben und eine neue Technologie.
00:53:04
Speaker
mit der ganz viel möglich ist und das heißt ja nicht, dass wir alles selber programmieren müssen, aber die Frage, an welchen Stellschrauben wir trotzdem auch weiterhin aktiv eingreifen können, müssen und wollen, trotz aller integrierten Modelle, die glaube ich, die ist schon ganz, ganz zentral, weil gerade in der Forschung können wir ja nicht outputgeneriert arbeiten, also das heißt,
00:53:33
Speaker
Wir haben ja auch eine Kontrolle auf der Methodik-Seite und ich würde das einfach als eine mögliche Methode betrachten, die man eben entsprechend einbinden kann und die, glaube ich, unglaublich toll sein kann, wenn man das gut macht. Und wahrscheinlich wäre ein nettes GUI schon trotzdem ganz gut, dass nicht jeder irgendwie erstmal Prompen lernen muss, aber
00:54:02
Speaker
Ich glaube, ich bin trotzdem Verfechterin dafür, dass man einfach die Frage umdreht. Sonja? Ich würde einfach nur das Argument noch mal stärker machen wollen und sagen, dass es ja bei, also das KI ja ein hochpolitisches und auch ein hochproblematisches Thema ist auf sehr, sehr vielen Ebenen und auch ein sehr komplexes, wo wir sehr viel gar nicht wissen und wo es, glaube ich, extrem wichtig ist,
00:54:35
Speaker
gesellschaftlich gefordert und notwendig ist, sich in qualitativen Verbünden zusammenzutun und im Bezug auf eine öffentliche digitale Infrastruktur darauf hinzuarbeiten, zum Beispiel faktische Inhalte, die keine Fake News sind, zur Verfügung zu stellen und eben auch auf der Ebene Trust herzustellen. Und ich glaube, das ist das,
00:55:07
Speaker
verfolgen müssten in der Community. Und eben in dem Zuge auch so was wie Sharing, also mit Kompetenzen, Ressourcen übergreifen und kollaborativ zusammenzuarbeiten, das machen sie ja. Und ich glaube, dass das der einzige mögliche Weg ist, sich da durch diesen KI-Dschungel durchzuschlagen.
00:55:33
Speaker
Ja, weil es auch so unübersichtlich ist, wird ja auch so ein Ruf nach Rahmenbedingungen laut. Also man hätte gerne in ein How-to, wie schreibe ich meinen besten Prompt, man hätte gerne Rahmenbedingungen für den ethischen Umgang mit den Modellen, mit den Anwendungen auch. Die EU hat jetzt mit dem AI Act den ersten Aufschlag gemacht, auch für Regulamentierung und
00:55:55
Speaker
Wir müssen einfach schauen, wie der Alltagsumgang dann mit diesen Rahmenbedingungen ist. Wir haben jetzt nun wichtige Aspekte, was Transparenz- und Kennzeichnungs- sicht angeht, angesprochen. Und trotzdem gibt es so eine Pointierung immer auf dieses Prompt-Engineering. Also es wird ja auch irgendwie als Future-Skill gesehen. Der Stifterverband listet das auf.
00:56:16
Speaker
Wie kann das jetzt eigentlich gelingen, dass wir den Zugang dazu schaffen? Jetzt sind wir vier technikinteressierte Frauen, die wahrscheinlich schon mehrere Stunden mit irgendwelchen Anwendungen verbracht haben, um sich da irgendwie durchzufuchsen oder auch über Code gesessen sind und da irgendwie drüber gebrütet haben. Aber wie gelingt das?
00:56:37
Speaker
Jenseits von wir nutzen das, was schon da ist oder wir das zu machen. Also brauchen wir jetzt wirklich Anwendungen? Wie du mir gesagt hast, schöne User Interfaces, mit denen jeder arbeiten kann oder müssen wir nicht doch eher an den Kompetenzen anfangen von allen Wissenschaftlerinnen und Wissenschaftlern?
00:56:56
Speaker
Ich glaube, man braucht beides. Also es muss eine Nachvollziehbarkeit geben. Es muss auch eine Erklärbarkeit in dem entsprechenden möglichen Rahmen geben. Und es muss natürlich auch eine Entwicklungsnachvollziehbarkeit geben.
00:57:13
Speaker
Aber ich denke schon, dass warum diese Modelle, die momentan jetzt in der Anwendung so beliebt geworden sind, ist, weil sie eben sehr einfach einzusetzen sind und weil man jetzt nicht weit programmieren können muss, damit man das Gefühl hat, dass man mit diesen Modellen interagieren kann und die, wenn man
00:57:40
Speaker
eine aufgeklärte Nutzung von Machine Learning Strukturen haben möchte, dann glaube ich gehört erst mal dazu, dass man eben weiß, was sie tun und dass man dann aber eben auch Anwendungen auf allen Benutzer-Möglichkeitsleveln hat, um eben auch quasi das überhaupt lernen zu können, wenn man eben jetzt nicht von der mathematischen oder der Programmierer-Seite kommt.
00:58:06
Speaker
Ich glaube dennoch, dass beides sich nicht ausschließt. Also man kann sicher auch ein sehr nutzerinnenfreundliches User Interface haben und trotzdem eben in der Beschreibung sehr klar sagen, was kann man damit machen und was können diese Modelle auch einfach nicht? Wie sind sie entstanden und welche, welche quasi Algorithmen, welche Verfahren, welche Datensätze binden sie ein?
00:58:37
Speaker
Ich bin so ein bisschen für ein Demystifizieren dieser ganzen Prozesse, die wir einfach in einer breiten Anwendung finden, dass wir sie auch nicht mehr so schnell weg oder rausbekommen. Und wenn wir sie schon haben, dann sollte man zumindest wissen, was sie tun und was sie können, was sie aber auch vor allem nicht können und wie man damit umgeht.
00:59:05
Speaker
Wir sind gerade an so einem Punkt, an dem eigentlich von jeder Ecke man nach explainable AI ruft, dass eben die Modelle transparenter gestaltet sein müssen, dass Prozesse, die ablaufen, auch transparent sein müssen, dass die Daten auch offen gelegt sein müssen mit den Trainingsprozessen, mit den Iterationen, die da passieren, weil wir erst dann auch wirklich die Fähigkeit haben oder dazu befähigt werden, Outputreflexionen zu betreiben.
00:59:30
Speaker
Wir sind jetzt schon ziemlich lange am Sprechen und ich hab das Gefühl, wir könnten jetzt auch den ganzen Abend noch weitermachen. Ich möchte aber noch so zum Abschluss einen Blick in die Zukunft wagen und ihr könnt euch was wünschen oder auch so ein Schild hochhalten mit bitte darauf achten. Wir haben ja schon gesagt, wir befinden uns gerade in so einer Verhandlungsphase. Generative Bild-KIs haben vor zehn Jahren ungefähr angefangen mit den ersten
01:00:00
Speaker
ganz, jetzt sind wir hier bei den richtig leistungsstarken Generatoren. Wir wissen nicht, was in den nächsten zehn Jahren an Technik noch auf uns zukommt und an Verfahren. Aber was würdet ihr euch wünschen? Worauf müssen wir achten, gerade aus der Kulturperspektive heraus von Kulturforschenden, wenn es um den Umgang damit geht? Oder was sind auch Wünsche, die ihr an diese Technologie habt?
01:00:28
Speaker
Sonja? Ich fange mal an. Also mein Wunsch jetzt zumindest an die Culture-Community wäre, Kenntnis zu nehmen von solchen Geschichten wie den UNESCO-Richtlinien und den Ethikrat-Richtlinien, weil ich glaube, da steckt schon sehr, sehr viel drin, was uns helfen kann, das Sektor spezifisch runter zu deklinieren im Bezug auf ethische Standards und die wiederum können total gut helfen.
01:00:58
Speaker
eng zu führen, wo man eigentlich mit KI-Systemen hin sollte, wollte. Also, dass es einfach darum geht, und das tut ja die NFDI, also Erhaltung, Anreicherung, Verständnis, Förderung zugänglich machen, das materielle, dokumentarische und immaterielle Kulturerbes wirklich einfach dafür einzusetzen und zum Beispiel
01:01:33
Speaker
Kontexte mit zu beachten. Sie können das alle selber nachlesen, aber ich finde diese zwei ethischen Richtlinien einfach nach wie vor zentral, um sich klar zu machen, wo
01:01:50
Speaker
Wo sollten wir eigentlich hinsteuern damit? Und wir müssen die aber auch weiterentwickeln. Wir müssen die anpassen an unsere Sektoren und wir müssen die weiterentwickeln und eben auch auf einer Mikroebene ausdefinieren. Und das bedeutet eben jetzt zum Beispiel für den Kulturerbe-Sektor, dass man sich Gedanken machen muss um zum Beispiel Metadatenstandards, die man weiterentwickeln muss oder eben die Entwicklung von Klassifikationssystemen und
01:02:19
Speaker
Also ich glaube, das wäre schön. Ich bin mir ziemlich sicher, dass jemand jetzt im Hintergrund sich ein Posted auf das MIRO Board oder auf die virtuelle To-Do-Wand gelegt hat. Also ich denke auch, was Sonja gesagt hat, ist ganz wichtig. Ich finde, wir müssten eins in Zukunft beachten, dass sich das auf zwei unterschiedlichen Ebenen abspielt. Einerseits wünschen wir uns, dass wir verstehen, wie die KI funktioniert, dass sie transparent ist hinsichtlich der Trainingsdaten.
01:02:48
Speaker
Und andererseits sind wir natürlich auch fasziniert, was sie kann. Und wir haben emotional eine Beziehung zu ihr. Und da würde ich wiederum auf Sonja referieren wollen, die am Anfang gesagt hat, es sind Kommunikationsprozesse.
01:03:02
Speaker
Wir müssen einfach lernen, dass wir, wenn wir es mit ChatGPT zu tun haben und Co und Family, das was wir dort haben, dass dort Firmen im Hintergrund sind, die Geld verdienen wollen. Und wir haben nicht die persönliche Beziehung, die uns dieser Chatbot suggeriert.
01:03:22
Speaker
Er ist nicht die beste Freundin, der uns einen guten Tipp gibt, sondern es ist eine Firma, die aus bestimmten Erwägungen eine bestimmte Antwort produziert. Das kennen wir eigentlich von Google schon. Aber auch da kriegen wir es nicht hin. Und diese Emotionalität, die in dieser Kommunikation jetzt liegt,
01:03:39
Speaker
ist noch viel, viel größer, weil die Vermenschlichung da viel größer ist. Und Jacqueline, ich glaube, du hattest das am Anfang auch gesagt. Die niedlichen Roboter, die wir kennen aus den Filmen, die diese Verniedlichungsfaktoren haben, die zielen genau darauf ab, dass wir Vertrauen in sich stecken und dass wir ein Vertrauen entwickeln.
01:04:02
Speaker
Und wir dürfen einfach nicht vergessen, dass sich das Rationale und das Emotionale auf unterschiedlichen Ebenen abspielt und wir müssen für die Zukunft hinbekommen, dass wir klar bekommen, was kann die KI, was macht die KI und uns nicht nur von emotionalen Faktoren dort leiten lassen.
01:04:20
Speaker
Und keinem dieser Bilder vertrauen, also weder dem süßen kleinen Roboter noch dem großen Maschinenroboter und die allmächtige KI. Dieses Anthropomorphisierungsdebatte ist natürlich unglaublich wichtig. Und da müssen wir jetzt auch einfach in unserer Wahrnehmung lernen. Danke für den Aspekt, ja. Miriam, wie sieht denn dein Blick in die Zukunft aus?
01:04:40
Speaker
Also ich glaube, das Problem der Vermenschlichung ist tatsächlich ein großes und vor allem auch darüber sprechen, dass man immer sagt, die KI tut, die KI macht. Es gibt ja viele Varianten. Wir haben ja auch schon von den Modellen gesprochen. Es gibt nicht die eine KI und ich würde
01:05:02
Speaker
mehr so als wunschideales Szenario wäre, dass man da einfach auch, dass wir es auch schaffen, das präziser zu kommunizieren und nicht zu sehr generalisieren, damit diese utopischen Zuschreibungen, seien sie jetzt positiv oder negativ, einfach
01:05:23
Speaker
ein bisschen realistischer werden. Also ich glaube, das ist sehr viel, gerade wenn man eben über so Zukunftsszenarien spricht, dann geht man sehr oft in die Utopien oder in die Dystopien hinein und das ist natürlich vielleicht technisch auch alles möglich, aber es ist viel auch Zuschreibung, die wir gerne machen und ich würde mir ein bisschen mehr Technik
01:05:49
Speaker
Affinität dazu wünschen zu den Elementen, die schon genannt wurden, dass man erstens keine Angst hat vor der Technik, aber dass man die Technik auch einfach realistisch sieht und mit dem arbeitet, was man hat und auch gerne mal hinterfragt. Also gar nicht unbedingt sagen, man muss ihm gar nicht trauen, sondern einfach nur fragen, was tut das denn eigentlich und was kann das. Und ich glaube, wenn das klappt, dann sind wir schon echt einen Riesentritt weiter.
01:06:17
Speaker
Wenn einem die Entwicklung in den letzten Jahren was gezeigt hat, dann das generative Modelle oder generative KI-Systeme, die ja auch wirklich nur ein ganz kleiner Aspekt von künstlichen Intelligenzsystemen sind, also von Machine Learning Pattern Recognition.
01:06:34
Speaker
aus dem Schattendasein der Informatik oder kleinen Informatikgruppen rausgetreten ist, nun auf einmal uns alle betreffen. Nicht nur ein kulturwissenschaftliches, sondern auch ein gesellschaftliches Problem, Herausforderungen, Verhandlungsmasse irgendwie jetzt sind.
01:06:49
Speaker
Danke an euch drei, dass ihr heute Gast wart bei mir im Live-Podcast, der ersten Live-Podcast von ArtistoCast, dem Experiment anlässlich des Community-Meetings von NFDI for Culture. Danke für eure Perspektiven, drei unterschiedliche Perspektiven von ausgewiesenen WissenschaftlerInnen auf Ihren Gebiet.
01:07:07
Speaker
Und ich bin mir sehr sicher, dass wir jetzt vieles, was wir jetzt auch in dieser Kurzzeit nur ansprechen konnten, zumindest Impulse geworden sind für weitere Diskussionen, vielleicht morgen beim zweiten Teil des Community Meetings, aber ganz sicher in den nächsten zehn Jahren. Danke euch drei fürs Dabeisein. Vielen Dank.
01:07:39
Speaker
Diese Folge wurde von Jacqueline Closic-Eckardt produziert im Auftrag des Arbeitskreis Digitale Kunstgeschichte. Unterstützt wird sie dabei von der Redaktion der Arbeitskreismitglieder Peter Bell, Lisa Diekmann, Peggy Große, Waltraud von Pippich und Holger Siemer.
01:07:54
Speaker
Finanziert wird ArtistoCast, der Podcast zur digitalen Kunstgeschichte von NFDI for Culture, dem Konsortium in der nationalen Forschungsdateninfrastruktur, das sich mit Forschungsdaten zu materiellen und immateriellen Kulturgütern befasst. Unterstützt wird ArtistoCast durch den Deutschen Verband für Kunstgeschichte. Du hast noch eine Frage oder Anregungen? Kontaktiere uns einfach unter podcast-at-digitale-kunstgeschichte.de