Einführung von Jeannette Gorzala
00:00:10
Speaker
Hi, herzlich willkommen beim Mic Rider Deep Talk, dem Mic Rider Podcast. Schön, dass ihr da seid, schön, dass ihr eingeschaltet habt. Heute habe ich eine ganz besondere Gästin, nämlich Jeannette Gorzala. Sie ist Anwältin ihres Zeichens mit Spezialisierung auf Wirtschaftsrecht und neue Technologien.
00:00:30
Speaker
Man kennt sie als, nein, ich kenne sie aus meiner Zusammenarbeit mit UVA, den United Voice Artists, dem globalen Dachverband der Sprecherinnen und Sprecher, wo sie uns rechtlich berät und unterstützt. Außerdem bist du noch Vizepräsidentin des European AI Forums. Das ist ein Zusammenschluss aus
00:00:51
Speaker
KI, Technologie, Firmen und Start-ups. Und jetzt seit kurzem bist du auch die Deputy Chairperson des AI Advisory Boards der österreichischen Regierung.
Jeannettes Leidenschaft für KI und Recht
00:01:04
Speaker
Herzlich willkommen, Jeanette. Schön, dass du da bist. Vielen Dank für die Einladung. Freue mich sehr, dass ich hier sein darf.
00:01:10
Speaker
Super, dass das geklappt hat. Ich weiß, dass du schwer gebucht bist im Moment. Erzähl uns ein bisschen von dir. Wie kommst du dahin, Wirtschaftsrecht mit Spezialisierung auf neue Technologien zu praktizieren? Und warum hast du dir das ausgesucht? Warum tust du das, was du tust?
00:01:32
Speaker
Ja, ich glaube, so wie bei vielen Sachen im Leben, ist es eine Mischung aus Passion und Zufall. Genau, ich bin Rechtsanwältin, beschäftige mich eben mit wirtschaftsrechtlichen Fragen und bin da in den Tech-Sektor hineingekommen. Ich beschäftige mich schon seit mehreren Jahren, bevor KI jetzt in einer breiten Masse angekommen ist und zum Hype wurde,
00:01:54
Speaker
eben mit Fragen, wem gehört der Code, welche Haftungsfragen gibt es und mit vielen, vielen Sachen rund um das Thema Software und da natürlich auch mit dem Thema auch künstliche Intelligenz. Und das wurde zu meiner Passion. Ich habe mich da immer mehr und mehr beschäftigt und bin mit dem österreichischen KI Ökosystem über den Verband AI Austria in Kontakt getreten und so kam dann eins zum anderen.
00:02:19
Speaker
dass ich mich für das Ökosystem engagieren konnte, hier in Österreich, was mir ein großes Anliegen ist.
Europäische KI-Forum und KI-Politik
00:02:25
Speaker
Und dann das Ganze natürlich auch auf eine europäische und internationale Ebene zu heben, weil ich glaube, Kollaboration und Austausch ist ganz, ganz wichtig. Und so kam ich dann zum European AI Forum, bei dem ich die letzten drei bis fünf Jahre eine tragende Rolle im Bereich AI Policy füllen durfte.
00:02:43
Speaker
insbesondere zum Thema Artificial Intelligence Act, also der europäischen KI-Regulierung, die jetzt auf uns alle zukommen wird. Und aus all dem hat sich natürlich dann auch entwickelt, wie gehen wir mit dem Thema um, wie können wir alle – Bürger, Bürgerinnen, Unternehmer, Unternehmerinnen, alle Organisationen, die Verwaltung –
00:03:03
Speaker
weil diese Technologie wird und hat schon unser tägliches Leben, das professionelle so wie das private, massiv verändert und hat einen großen Impact. Und da hat die österreichische Bundesregierung zwei Instrumente oder zwei Standpunkte geschaffen, wo man andocken
Mission und Zusammenarbeit des Europäischen KI-Forums
00:03:23
Speaker
Das erste ist die KI-Service Stelle bei der RTR, die eben jetzt in der Zwischenzeit begleiten soll, aufklären soll, Awareness schaffen soll und in Zusammenarbeit mit dem AI Advisory Board, wo ich neben dem Herrn Prof. Horst Bischoff, Rektor der TU Graz,
00:03:40
Speaker
die Ehre habe, stellvertretende Vorsitzende zu sein und wir sollen als Sounding Board fungieren, als Expertengremium, um hier den KI-Standort Österreich voranzubringen und einen positiven Impact zu haben auf das ganze KI-Thema, wie es sich entwickelt, wie wir das umsetzen.
00:04:02
Speaker
Wow, okay, ja, das klingt ziemlich komplex. Auch nach ziemlich unterschiedlichen Bedürfnissen, sage ich jetzt mal, oder Aufgabenbereichen, kannst du vielleicht kurz ein bisschen für die Leute, die sich nicht so auskennen oder die dich noch nicht so gut kennen wie ich, kurz vielleicht anreißen, worum geht es im European AI Forum genau, also wie unterscheidet sich das vielleicht noch mal zur Regierungsberatungsarbeit?
00:04:29
Speaker
Ja, also das europäne AI Forum, du hast schon anklingen lassen, ist der Dachverband von einigen nationalen KI-Organisationen. Weil wir sind natürlich draufgekommen, dass es in jedem Land eine Art Think Tank gibt oder Player, der sich mit dem Ökosystem beschäftigt, all diese Entwicklungen auf der europäischen Ebene zu vereinen.
00:04:50
Speaker
frei nach dem Grundsatz, gemeinsam können wir mehr bewirken und gemeinsam sind wir stärker.
Auswirkungen von KI auf verschiedene Branchen
00:04:55
Speaker
Das heißt, das European Eye Forum hat neun Gründungsassociationen. Von den Niederlanden bis Bulgarien, von Litauen bis nach Kroatien spannen wir ganz Europa auf. Und eben in Summe, wenn man alle Mitglieder dieser einzelnen Organisationen zusammenzählt, sind das mehr als 2000 KI-Unternehmer und Unternehmerinnen born and raised in Europe.
00:05:19
Speaker
Wir sehen das nicht als ein Gegenspiel, sondern als ein Miteinander. Und das ist auch etwas, was mir sehr wichtig ist und wofür ich sehr, sehr stark eintrete. Das KI-Thema ist ein internationales, das heißt, das hört auch nicht in Europa auf, das ist ein globales. Und es ist auch nicht nur ein Industriethema, es betrifft natürlich die Kreativindustrie, insbesondere, weil du es erwähnt hast, die Professional Voice Artists, also UVA,
00:05:46
Speaker
den Internationalen Verband der Sprecher und Sprecherinnen, aber auch andere Kreativverbände, natürlich die Industrie vom Bankenbereich bis zum Gesundheitsbereich. Und hier ist es mir ein großes Anliegen, mich mit allen auszutauschen, alle Perspektiven einzusammeln und hier versuchen zu finden einen guten Ausgleich und einen guten Kompromiss.
00:06:06
Speaker
Wie ist es für dich, weil du bist ja Rechtsanwältin und deine Aufgabe ist es, anderen zu erklären, wie sie sich gesetzkonform verhalten oder gesetzkonform wirtschaften oder eben, ja, Gesetze vielleicht anpassen müssen jetzt im Regierungsbereich, die dem technologischen Fortschritt nicht gerecht werden. Wie ist es für dich? Interessiert mich wirklich persönlich, diese unterschiedlichen Bedürfnisse unter einen Hut
Rechtliche Unterstützung in der KI-Transformation
00:06:31
Speaker
Also ich empfinde das eigentlich gar nicht so und vielleicht um das ganze Thema ein bisschen einzuordnen auch in einzelne Blöcke. Natürlich als Rechtsanwältin ist für mich die oberste Maxime meine Mandanten zu unterstützen, bei welchen Problemen sie auch immer Hilfe brauchen. Das kann jetzt ein Künstler sein, der vielleicht
00:06:53
Speaker
sich einen Vertrag näher anschaut und versucht, seine Rechte zu wahren, wenn man zum Beispiel KI-Tools bei der Produktion einsetzt. Das kann aber auch eine große Organisation, ein Konzern sein, der sich die Frage stellt, wie implementieren wir jetzt rechtskonform nach den Grundsätzen von Trustworthy AI ein KI-System? Welchen Impact hat das auf unsere Governance, auf unsere Prozesse, auf unsere Mitarbeiter und Mitarbeiterinnen?
00:07:18
Speaker
Das kann eine öffentliche Institution sein, die sich die Frage stellt, wie gehen wir als Verwaltung mit dem Thema KI um. Und in all diesen Projekten ist natürlich die oberste Maxime, den Mandanten so weit wie möglich, so gut wie möglich zu unterstützen und das Problem bestmöglich für meinen Mandanten oder meine Mandantin zu lösen.
00:07:39
Speaker
Das ist der eine Kreis und das ist standesrechtlich abgesichert, da gibt es dann auch keine Kompromisse. Das ist sehr straightforward und sehr streng und strikt und das halte ich auch immer so. Das zweite ist dann natürlich dann das Thema Policyarbeit im AI Austria, im European AI Forum, wo ich die Stimme der europäischen KI-Industrie bin.
Die Rolle des KI-Beirats in Österreich
00:08:02
Speaker
Und da hilft es mir natürlich, in der Mandantenarbeit zu sehen, welche Fragen haben wir, welche Probleme haben wir, welche Hürden, welche Challenges gibt es da. Und das kann ich dort sehr gut einbringen, aus der Sicht der Industrie, der europäischen KI-Industrie, die jetzt am wachsen ist, die noch viel mehr braucht an Unterstützung.
00:08:24
Speaker
Und davon natürlich auch wieder getrennt meine Aufgabe im AI Advisory Board der Bundesregierung als stellvertretende Vorsitzende, gemeinsam mit elf anderen tollen Persönlichkeiten mit unterschiedlichen Backgrounds, wo es unsere Aufgabe ist,
00:08:43
Speaker
zu Fragen, Stellung zu nehmen, Expertise einzubringen und hier einfach zu berichten. Jeder mit seinem unique angle, was wir in der Industrie sehen oder zum Beispiel für den Bereich Bürger, Bürgerinnen, Verbraucher, Verbraucherinnen, Forschungs- und Wissenschaftsstandort Österreich, ein ganz wichtiges Thema. Und hier versuchen, so gut wie möglich Input zu geben, dass die Regierung dann
00:09:11
Speaker
die entsprechenden Maßnahmen setzen kann. Und für mich ist das natürlich in jedem Kreis entsprechend mit dem richtigen Hut und dem richtigen Maß zu arbeiten, aber in Summe ist es die Summe dieser Erfahrungen und die Summe dieser Einblicke, die ich glaube sehr wertvoll ist und die ich einfach einbringen möchte, um den KI-Standort Österreich und Europa voranzubringen, mit allen gemeinsam.
00:09:37
Speaker
Wow, cool. Das klingt nach einer sehr komplexen Aufgabe, aber eigentlich doch sehr klar. Im Grunde ist das Gesetz die oberste Maxime und ganz viele unterschiedliche Erfahrungen, die dann zusammenfließen und dir helfen. Du hast jetzt schon ein bisschen erwähnt, dass du sozusagen den AI Act in seiner Entstehung beobachtet begleitet hast.
Der AI Act und seine Entwicklung
00:10:00
Speaker
Wir alle, als auch ich persönlich, als jetzt Kreativer, Selbstständiger, befassen uns mit KI im Grunde mehr oder weniger seit einem, anderthalb Jahren vielleicht. Das ist, glaube ich, realistisch, dass man sagt, seit CHED GPT ist es irgendwie im Mainstream und in der öffentlichen Wahrnehmung angekommen.
00:10:23
Speaker
Du hast vorhin gesagt, du beschäftigst dich schon drei, vier, fünf Jahre damit. Inzwischen weiß ich auch, dass die EU schon seit 2019 diesen AI Act, diesen ominösen, in dessen Genuss ich auch schon kommen durfte, auf 527 Seiten Legal English zu schmökern. Ich weiß jetzt gar nicht, wie viele Seiten die finale Version hat, aber irgendwo so in diesem Bereich.
00:10:50
Speaker
Erzähl uns vielleicht so ein bisschen, weil du das jetzt schon von Anbeginn beobachtet hast und verfolgt hast. Wo kommt dieser AI-Act her? Wo ist er jetzt? Was wurde jetzt beschlossen sozusagen? Und was kann der? Was bringt der mir? Oder uns und vielleicht Wann? Das sind jetzt viele Fragen, aber ich kann dann gerne nochmal reingeretschen.
00:11:15
Speaker
Ja, vielen, vielen Dank. Ich lebe dieses Dokument täglich mehrmals. Für mich ist es quasi schon in Fleisch und Blut übergegangen. Aber auch ich kann dir nicht sagen, wie viele Seiten es genau hat. Aber irgendwo so zwischen 200, 300, also irgendwo dort werden wir landen, in wunderschönstem Liegelengelisch mit Tausenden Querverweisen. Aber jetzt Kirche mal ins Dorf und wo kommt er her?
00:11:40
Speaker
Die AI Act kommt aus einer Arbeit der High-Level Expert Group for Artificial Intelligence, die sich damals zusammengesetzt hat und auf der Ebene der EU eingesetzt wurde, um sich mit dem Thema zu beschäftigen und einmal zu ermitteln, wie kann trustworthy AI aussehen, welche Prinzipien brauchen wir dafür, und kam heraus mit Ethikleitlinien für vertrauenswürdige künstliche Intelligenz
00:12:04
Speaker
mit sieben Kernprinzipien. Wie du schon richtig gesagt hast, 2018, 2019 wurde das veröffentlicht. Nur, das waren unverbindliche Leitlinien und so wie es oft auch ist, unverbindliche Leitlinien werden nicht von allen befolgt.
00:12:20
Speaker
Jetzt gab es dann nach und im Markt dann auch... Ein Schelm, dein Grinsen verrät viel. Ein Schelm, wer Böses dabei denkt bei unverbindlichen Leitlinien. Self-Regulation, Self-Guiding Principles, Cause of Conduct, Cause of Practice.
00:12:41
Speaker
Es gibt natürlich Akteure, die sich dran halten, aber man hat auch immer Akteure, die sich nicht dran halten. Auch da gab es trotz dieser Leitlinien sehr viele Schadensfälle mit sehr großem Impact auf das Leben von Menschen.
00:13:00
Speaker
Und diese Schadensfälle haben sich dann auch angefangen zu häufen, bei relativ einfachen Systemen, gar keine komplexen neuronalen Netze. Und da kam dann der Punkt, wo man gesagt hat, okay, wir müssen den nächsten Step gehen. Das heißt, wir kommen von unseren unverbindlichen Leitlinien zu einem verbindlichen Regelwerk. Und das passierte dann 2021 mit dem ersten Entwurf des European AI Acts, der Europäischen Kommission.
00:13:25
Speaker
Der erste Entwurf, risikobasierter Ansatz, definiert zum ersten Mal KI-Systeme, hat damals das Thema Generative AI noch nicht umfasst und hat sich dann auf den EU-Gesetzgebungsprozess gemacht.
00:13:43
Speaker
der dieses Jahr beendet wird. Das heißt, seit 2021 arbeiten das Europäische Parlament, die Europäische Kommission, der Europäische Rat. Im Trilog an dieser Regelung haben mittlerweile auch Generative AI ergänzt und wir können damit rechnen, dass dieses Regelwerk dieses Jahr, Mai, Juni ungefähr,
00:14:06
Speaker
dann tatsächlich final beschlossen verabschiedet wird und dann stückweise in den nächsten zwei bis drei Jahren in Kraft tritt. Darf ich da nochmal kurz nachfragen, weil für mich ist eigentlich
00:14:21
Speaker
KI, generative KI.
Regulierung von generativer KI
00:14:24
Speaker
Ich kenne gar, ich bin wahrscheinlich unbewusst, wenn dann mit nicht generativer KI, also weiß ich nicht, Konserva, wie sagt man vielleicht, konventioneller KI oder so, vielleicht zumindest noch nicht bewusst in Berührung gekommen, was ist denn jetzt der Unterschied zwischen generativer KI und normaler KI?
00:14:45
Speaker
Extrem gute Frage. Es macht regulatorisch einen wichtigen Unterschied. Jetzt mit der rechtlichen Brille natürlich gesprochen, nicht aus der Sicht der Informatik und Technik, aber rechtlich gesehen unterscheidete AI-Act zwischen KI-Systemen und generativer KI. Aber ein KI-System ist definiert als ein System mit unterschiedlichen Graden an Autonomie.
00:15:10
Speaker
das vielleicht auch Elemente von Adaptivität hat und aus einem Input einen Output erzeugt, der mit der Umwelt interagiert und dieser Output ist beispielsweise Empfehlungen, Vorhersagen und so weiter und so fort.
00:15:28
Speaker
ist relativ breit und weit, ist nicht sehr präzise und eingegrenzt. In der Präambel versucht man das ein bisschen dann näher zu umschreiben und jedem Anwender eine Idee zu geben, was das jetzt sein kann und erwähnt dort, man sieht hier vor allem Machine Learning und logik- und wissensbasierte Ansätze, die man mit dieser Definition umfassen möchte.
00:15:53
Speaker
Aber natürlich die Definition in dieser Weite und Breite umfasst natürlich sehr, sehr viel und jede Art von ein bisschen mehr Software, die ein bisschen advanced ist. Das heißt, jeder, der irgendwie ein bisschen mächtigere Software einsetzt, also nicht die Excel-Wendan-Funktion, aber ein bisschen mehr davon muss sich mit dem AI-Act auseinandersetzen.
00:16:15
Speaker
Wie grenzen wir das jetzt von generativer KI ab? Die Definition ist ähnlich verblüffend und ähnlich weit. Generative KI ist ein System, das auf einer breiten Grundlage von Daten, maybe self-supervising oder nicht, für eine breite Palette von Anwendungsfeldern geschaffen ist und zum Beispiel Content in der Form von Text, Bild, Video, Audio erzeugen kann.
00:16:43
Speaker
Okay. So sieht zumindest der Gesetzgeber aus der rechtlichen Brille. Ich weiß, dass Kollegen in der Informatik und aus der technischen Sicht mit diesen Definitionen nicht so glücklich sind. Aber ich bin sicher, we can make this work.
00:16:57
Speaker
Ja, mit denen werde ich mich dann gesondert unterhalten. Heute geht es mal um die rechtlichen Aspekte. Aber was ich spannend fand und auch irgendwie auch in meinem Bewusstsein nicht so präsent war, war, dass das eigentlich relativ last minute noch die generative KI halt jetzt auch noch reingerutscht ist in den Gesetzgebungsprozess, weil sozusagen der öffentliche
00:17:19
Speaker
Druck oder die öffentliche sozusagen Ausrollung von Chatchipitia einen gewissen gesetzgeberischen Druck erzeugt hat. Das heißt aber der Löwenanteil dieses AI-Acts ist gar nicht auf generative KI ausgelegt, oder? Also da geht es ja ganz viel um ganz andere Dinge, die
00:17:40
Speaker
mit denen ich wahrscheinlich nie in Berührung kommen werde, oder? Wie ist denn das Verhältnis so 80-20, keine Ahnung, von regulativ?
00:17:52
Speaker
Ich glaube, du hast da schon eine ganz gute Maßzahl im Gefühl, nämlich 80-20.
Hochrisiko-KI-Anwendungen im AI Act
00:17:58
Speaker
Und es ist richtig, dass sich der Löwenanteil, das Kernstück des AI-Acts befasst sich eigentlich mit AI-Governance-Vorgaben und Compliance-Vorgaben für sogenannte Hochrisiko-KI-Systeme. Das heißt, das KI-System im Wesentlichen
00:18:16
Speaker
oder brechen wir es mal runter auf machine learning und logik- und wissensbasierte Systeme, die in bestimmten Anwendungsfeldern eingesetzt werden. Diese Anwendungsfelder sind beispielsweise im Bereich Ausbildung, dort wo es um den Zugang zur Ausbildung geht, aber auch über das Bewerten von Tests und so weiter.
00:18:35
Speaker
im Personalbereich, wo es darum geht, vielleicht Jobausschreibungen, Auswahl von Kandidaten, Entscheidungen über Dienstverhältnisse, also wer wird befördert, wer wird offgeboardet, wer bekommt welchen Bonus, wem werden welche Aufgaben zugeteilt.
00:18:51
Speaker
im Versicherungsbereich, da wo es um das Pricing für Lebens- und Gesundheitsversicherungen geht, im Bankenbereich, da wo es um das Credit Scoring geht, andere Felder der Daseinsvorsorge, zum Beispiel Emergency Call Ranking oder auch kritische Infrastruktur.
00:19:07
Speaker
wo es ums Management dieser kritischen Infrastruktur im Bereich Elektrizität, Gas, Wasser, Straßenverkehr, digitale kritische Infrastruktur geht. Das heißt, ich glaube nicht, dass du mit diesen Systemen nie in Berührung kommen wirst.
00:19:24
Speaker
Zumindestens, wahrscheinlich willst du die Systeme nicht entwickeln, vielleicht auch nicht als Professional Voice Artist in deinem Unternehmen einsetzen, aber definitiv als Bürger, Bürgerin diesen Systemen künftig vielleicht ausgesetzt sein. Und damit beschäftigt sich, wie du gesagt hast, der Löwenanteil des AI-Acts.
00:19:44
Speaker
Die anderen 20% sind ein Teil verbotene KI-Systeme. Also Systeme, wo man sagt, das sind unakzeptierbare Praktiken oder Risiken, die wollen wir in der Europäischen Union nicht zulassen. Ein klassisches Beispiel hier ist das Social Scoring. Umstrittene Thematik ist die biometrische Echtzeitüberwachung zu Rechtsverfolgungszwecken mit Ausnahmen.
00:20:07
Speaker
Der Teil, der für Kreative dann wieder interessant und relevant ist, ist der Teil der Transparenzpflichten. Nämlich Transparenzpflichten in Bezug auf Output von generativen KI-Systemen. Das heißt, ich habe da teilweise Kennzeichnungspflichten drinnen. Provider dieser Systeme müssen diesen Output machine readable watermarken.
00:20:30
Speaker
Auch da scheiden sich die Geister, wie man das technisch so umsetzt, dass es nicht wieder leicht entfernt werden kann. Oder da, wo es um Menschen- und Maschineninteraktionen geht, auch Informationspflichten. Es ist ein lustiges Beispiel, der klassische Chatbot. Jeder weiß, dass das quasi ein Chatbot ist, aber wir sehen ja schon virtuelle Avatare durch diese Technologie, die fast nicht von echten Menschen zu unterscheiden sind, auch im Video zum Beispiel.
00:20:59
Speaker
Und gerade dort eben Transparenz zu erzeugen, dass das kein menschliches Counterpart ist, sondern ein virtuell erzeugter Avatar, ein virtueller Mensch, ein virtueller Influencer.
00:21:12
Speaker
Cool, also was ich daraus jetzt mitnehme ist das, und das ist auch meine Überzeugung, es ist nicht alles schwarz und weiß, es ist die KI, die mich jetzt vielleicht beruflich bedroht oder auch viele andere, das ist nicht dieselbe KI sozusagen, die mir vielleicht in 20 oder 50 Jahren eine bessere Krebsdiagnose ermöglicht oder so und dann gibt's
00:21:38
Speaker
Gibt es noch hundert andere Einsatzfelder, eigentlich sozusagen vom Steuerberater über die Human Resources Dame bis hin zu Versicherungsfall, Schadensfall, Abwicklung oder Einordnung? Ist ja wirklich alles dabei.
KI und Arbeitsplatzveränderungen
00:21:58
Speaker
aus deiner Sicht? Weil ich höre jetzt keine Steuerberater irgendwie auf die Barrikaden gehen oder die Human Resources sich solidarisieren und haben die den Braten nicht gerochen? Haben die keine Angst? Brauchen die keine Angst haben, dass sie sozusagen
00:22:13
Speaker
obsolet sind oder dass vielleicht eben, das ist vielleicht ein bisschen zu dramatisch, aber dass vielleicht in fünf Jahren die selbe Abteilung, in der 20 Leute gearbeitet haben, in fünf Jahren plötzlich nur noch fünf Leute arbeiten müssen, weil der Rest von automatisierter algorithmisch übernommen wird oder KI übernommen wird sozusagen.
00:22:32
Speaker
Ich glaube, das spricht ein wichtiges Thema an, nämlich Angst ersetzt zu werden, Angst obsolet zu werden, Angst seinen Arbeitsplatz zu verlieren durch KI-Systeme, unabhängig davon, welche Technologie jetzt dem konkret zugrunde liegt. Natürlich gibt es diese Ängste überall, weil wir sehen,
00:22:50
Speaker
dass diese Tools bestimmte Tasks sehr, sehr schnell, sehr, sehr effizient machen können. Dazu gab es auch schon Studien. Natürlich die Langzeitwirkung, die Entwicklung wird es zeigen, aber laut Studien ist es tatsächlich so, dass es natürlich kurzfristig, mittelfristig eine Disruption in manchen Berufsfeldern geben wird, aber in Summe ein positiver Impact durch diese Technologien erzeugt wird.
00:23:18
Speaker
Ich meine, nehmen wir her das Prompting. Vor drei Jahren, oder ich glaube sogar vor einem halben Jahr hätte sich niemand vorstellen können, dass es vielleicht mal das Berufsbild des Prompters gibt, ist jetzt vielleicht ein neuer Karrierepfad. Natürlich werden andere Aufgaben effizienter erledigt werden. Natürlich ermöglicht KI auch Einsparungen. Das heißt, hier glaube ich, ist es aber ganz, ganz wichtig,
00:23:43
Speaker
sich nicht an einem dieser Extrempunkte zu finden, nämlich Todesangst vor KI und Weltuntergang versus über euphorischer Hype und KI wird uns alle Probleme lösen und dann fließt Milch und Honig. Weil diese Extremszenarien sind erstens extrem unrealistisch und die Wahrheit unter Pfad ist im Wesentlichen in der Mitte.
00:24:05
Speaker
Und ich glaube, es ist ganz wichtig, dass wir uns alle mit dem Thema auseinandersetzen, in jeder Kapazität. Das heißt, als Unternehmen, wie nehme ich meinen Mitarbeitern und Mitarbeiterinnen diese Angst? Weil diese Angst in der Organisation kann
00:24:20
Speaker
zu negativen Spiralen, zu Hemmungen führen, kann Arbeitsabläufe stören. Das heißt, als Unternehmen seine Mitarbeiter on-to-boarden und einfach auf diese Reise mitzunehmen, Vorgaben zu geben, welche Tools setzen wir ein, welche Tools setzen wir nicht ein.
00:24:39
Speaker
So gehen wir als Organisation mit dem Thema KI um und die Mitarbeiter dann auch abzuskillen und aufzubauen. Weil ich glaube nicht, dass KI Menschen ersetzen wird, sondern dass Menschen, die diese Tools sehr gut einsetzen können, einfach Menschen ersetzen werden, die mit diesen Tools nicht arbeiten können und so einfach einen Wettbewerbsnachteil haben, weil sie einfach vielleicht länger brauchen oder nicht so effizient sein können.
00:25:04
Speaker
Ja, ich habe gerade an die Vorsitzende des Deutschen Ethikrats denken müssen. Ich habe jetzt leider nicht das genaue Zitat im Kopf, die aber auch gesagt hat, KI darf immer nur den Menschen ergänzend unterstützen. Ich paraphrasiere jetzt und darf ihn niemals ersetzen. Was ich finde, das ist so eine gute Faustregel, egal worum. Also auf mich jetzt runtergebrochen. Ich hätte total gerne
00:25:33
Speaker
eine Unterstützung bei meiner Steuererklärung. Wenn meine Steuerberaterin fragen, ob sie darüber so glücklich ist, wenn ich sage Frau. Oder eben eine bessere, frühere Krebsdiagnose oder so, aber das ist halt
00:25:51
Speaker
nicht zwingend dann sozusagen muss ich auch die Kröte fressen, dass in Hollywood vom Drehbuch bis zur Effektpostproduktion alles KI generiert ist und es de facto keine oder nur noch eine winzige, sehr, sehr elitäre Kreativbranche gibt, die halt zusätzlich dazu, dass sie kreativ ist, noch IT Prompting Skills hat.
00:26:19
Speaker
Das vermisse ich persönlich zumindest irgendwie im öffentlichen Diskurs oder auch in der Medienberichterstattung.
Realistische Erwartungen an die KI
00:26:25
Speaker
Es ist entweder alles wow und alles irgendwie so oder es ist alles sehr dystopisch und schwarzjährig.
00:26:35
Speaker
Und es gibt nun mal Dinge, die Lebensqualität erhöhen oder Prozesse optimieren, irgendwie produktiver machen, effizienter machen, wenn sie als Werkzeug unter dem Menschen dienen. Ich weiß nicht, wie es dir geht, du hast sicher noch mehr Einblick. Ich habe das Gefühl, dass die KI-Branche gerade so einen
00:26:54
Speaker
gigantischen Pitch fährt, wie du es eigentlich vorhin auch beschrieben hast. KI ist die Lösung all unserer Probleme. Und wenn ihr nur genug Geld investiert, in ein paar Jahren ganz bestimmt kommt dann alles, was wir euch in einem wilden Proof of Concept irgendwie an die Beamer-Leinwand projiziert haben. Wie geht es dir, wenn du sowas hörst?
00:27:15
Speaker
Ich glaube, ein wichtiger Punkt noch, auch zu dem, was du vorher gesagt hast. Andrew Ng, einer der Vorreiter in der Branche, sagt, stellen Sie sich KI vor wie 1000 Praktikanten. Und ich glaube, genau dort sind wir.
00:27:30
Speaker
Das sind einfach viele Ressourcen, die wir uns sparen. Und wir können mit relativ wenig, einem easy prompt, einfach mal viel Arbeit, viel Vorarbeit machen lassen. Das heißt, auf dem Level sind wir. Aber wir dürfen nicht vergessen, KI macht auch Fehler. Wenn wir zum Thema generative KI gehen, das Thema Halluzinationen zum Beispiel nicht.
00:27:53
Speaker
Es ist nicht alles Gold oder nicht alles 100% richtig, was aus diesen Sprachmodellen rauskommt, weil es sind ja Sprachmodelle, es sind keine Experten-Systeme.
00:28:03
Speaker
Darf ich da vielleicht gleich nochmal einhaken, weil mich das auch interessiert, wie siehst du das von einer industriellen oder auch wirtschaftspolitischen Seite, weil de facto hat ja dann ein Mensch, der von mir aus die Steuerberatungskarriere oder das Wissen
00:28:25
Speaker
hat und dann noch sich die Prompting Skills oder die systemischen KI Skills aneignet, aber doch trotzdem zumindest das Potenzial und wenn es sich wirtschaftlich rechnet,
00:28:41
Speaker
in einer kapitalistischen Wachstumsgesellschaft auch eintreten, das Potenzial ein Vielfaches der menschlichen Arbeit zu ersetzen, die vorher diesen Job gemacht
KI als Lösung für Arbeitskräftemangel
00:28:52
Speaker
haben. Und es können ja jetzt nicht alle Promter werden, oder ja, ich meine, wir werden viel Strom brauchen, wir können jetzt nicht alle plötzlich Solarpaläde bauen und prompten, sondern das ist ja dann wahnsinnig elitärer,
00:29:06
Speaker
hochspezialisierter technischer Beruf, der dann zumindest einen, vielleicht auch zwei Studiengänge erfordert oder so. Was dann für mich sozusagen in der Folge bedeutet, die Menge an Leuten, die ins Steuersystem, ins Rentensystem, ins Sozialversicherungssystem einzahlen,
00:29:25
Speaker
wird geringer und das kann ja nicht das sein, was wir wollen, dass wir sozusagen dann plötzlich mehr Leute haben, die zu Recht Sozialleistungen einfordern, die vielleicht früher in Rente gehen oder so. Das ist ja total kontraproduktiv in dem System, in dem wir leben.
00:29:44
Speaker
Ich glaube, du sprichst zwei wichtige Punkte an. Der erste Punkt ist, es gibt eine Studie, auf welche Berufsgruppen, nämlich Expertenlevel, sich diese generativen KI-Modelle am meisten auswirken. Und hier ist der interessante Effekt, dass sie sich dort am meisten auswirken, wo es wenig Expertise gibt. Das heißt, die Leute, die in ihrem Fachgebiet Experten sind,
00:30:11
Speaker
Deine Steuerberaterin zum Beispiel oder Rechtsanwälte oder andere Experten in ihrem Feld, dort hat es weniger Impact als in den anderen Tätigkeiten, die vielleicht nur Assistenztätigkeiten sind.
00:30:27
Speaker
Warum? Weil Experten wird man brauchen, einzig und allein, um diesen Output zu kontrollieren und zu hinterfragen, kann denn das überhaupt sein? Und das zweite Thema, das du ansprichst, ist Bevölkerung. Wie sieht die Zukunft der Rente aus? Wir sehen das jetzt, dass natürlich die Baby-Puma-Generation jetzt langsam in Pension geht und wir sehen dann nach unten hin eine Verschlankung.
00:30:53
Speaker
Das heißt, uns gehen eigentlich in die Zukunft extrapoliert sogar Arbeitskräfte ab. Das heißt, wir haben eigentlich auf lange Frist gesehen zu wenig Menschen und zu wenig Arbeitskräfte, um all diese Tätigkeiten und all diese Aufgaben zu füllen.
00:31:11
Speaker
Das heißt, ich sehe da eigentlich eine Chance, dass KI diese Lücke wettmacht, die wir aktuell nicht durch Nachwuchs füllen können. Weil es werden immer weniger Kinder geboren, wir sehen einen Bevölkerungsrückgang und irgendwie werden wir dann an einen Bottleneck kommen.
00:31:29
Speaker
wo wir vielleicht dieses Thema technisch lösen müssen. Natürlich müssen wir auch die gesellschaftsrechtliche Frage lösen, nämlich die gesellschaftliche, nicht die gesellschaftsrechtliche, die Frage für die Gesellschaft, wie finanzieren wir die Rente, wie machen wir das mit der Einkommensverteilung, wenn wir immer mehr technisch auslagen können. Und das natürlich effizient ist, weil wir dann als Menschen mehr Zeit gewinnen.
00:31:57
Speaker
Aber ich glaube, das gibt uns auch eine unique Opportunity, uns als Menschen auf das zu konzentrieren, was uns wirklich ausmacht, nämlich dieses menschliche Element, das Technik nicht ersetzen kann, und einfache, standardisierte Aufgaben, repetitive Aufgaben, Sachen, die eh eigentlich niemand gerne macht und niemand machen möchte,
00:32:18
Speaker
technisch auszulagern. Also ich glaube, wir haben hier Chancen, aber wir müssen die Chancen auch adäquat adressieren für die Gesellschaft und auch einen Ausgleich finden.
00:32:31
Speaker
Ja, spannend, so habe ich das noch gar nicht gesehen. Also eigentlich geht es dann darum, mit KI produktiver zu werden und die wenigen Menschen, die dann sozusagen Geld verdienen und einzahlen, die vielen Menschen, die jetzt 40 Jahre gearbeitet haben, erhalten. Aber dadurch, dass sie KI nutzen, verdienen sie so viel, arbeiten so effektiv und ist sozusagen der
00:32:57
Speaker
der Beitrag pro Person so stark gestiegen im Verhältnis zu, weiß ich nicht, vor 100 Jahren in der Kohle-Mine, dass das System nur dadurch, weiß ich jetzt nicht, aber eher erhalten werden kann, eher zukunftsfähig ist als ohne. Das ist spannend. Und zu dem zweiten Punkt, da ist bei mir gerade ein bisschen, also ich verstehe total, was du meinst.
KI und kreative Industrien
00:33:22
Speaker
Ich beobachte mit den repetitiven Aufgaben, die keiner machen will,
00:33:27
Speaker
Ich beobachte aber was ganz anderes. Also ich will jetzt nicht für die gesamte Kreativbranche sprechen, aber ich mache meinen Job total gern. Ich liebe das, das ist meine Leidenschaft. Ich werde das am liebsten die nächsten 30, 40 Jahre noch machen, solange ich kann, weil ich gut darin bin, weil ich die letzten 15 Jahre damit verbracht habe, an diesen Punkt zu kommen. Und jetzt wird mir gesagt,
00:33:51
Speaker
Lass nur die KI machen, dann hast du endlich Zeit für all das, was du immer schon mal tun wolltest. Weißt du, was ich meine? Das ist jetzt natürlich bewusst überspitzt gesagt, aber das ist das, was auch medial transportiert wird. Hab keine Angst, du wirst dann endlich Zeit haben. Aber was ich beobachte, ist, dass nicht die Fließbandarbeit sozusagen als erstes irgendwie angegriffen oder bedroht wird, ersetzt zu werden, sondern die Kreativarbeit. Genau dieses Menschliche, das, was du gesagt hast,
00:34:21
Speaker
dieser menschliche Funke an Kreativität, an Schöpferkraft, an Unvorhersehbarkeit vielleicht auch, die eben nur von den Menschen kommen können.
00:34:36
Speaker
Fürchten viele und auch ich habe Tage, an denen ich manchmal Ohnmachtsgefühle oder so habe, wo ich mir denke, okay, dann lege ich mich jetzt einfach auf den Rücken und gebe die Kehle frei, wenn man jetzt in Wolfsrudel Analogien sprechen möchte.
00:34:57
Speaker
Ist dem wirklich so oder ist das nur ein persönliches Gefühl, weil sozusagen das die größte Öffentlichkeitswirkung hat mit Hollywood und eben Deepfakes und Scheiße? Oder müssen wir tatsächlich proaktiv dafür sorgen, dass das nicht als erstes irgendwie gehen muss?
00:35:19
Speaker
Sehr interessante Beobachtung und gerade das zeigt dieses Spannungsverhältnis auf, das wir jetzt nämlich gerade haben. Also da, wo ich glaube, wo es im Kreativbereich vielleicht repetitive Tätigkeiten gibt, die keiner machen möchte, ist zum Beispiel Transkrippieren, nicht? Also das sind so Sachen, wo ich glaube, natürlich gibt es eine ganze Transkriptionsindustrie, eine ganze Übersetzungsindustrie, die natürlich auch davon leben.
00:35:47
Speaker
Die Frage ist, wo ist dieser Human Spark und welchen Impact hat hier Generative AI? Und ich sehe die gleichen Befürchtungen wie du, nämlich dass Kreative sich die Fragen stellen. Ja, meine Werke werden für das Trainieren von KI verwendet, die KI kann
00:36:06
Speaker
unendlich viele Werke zu sehr geringen oder gar keinen Kosten erzeugen, in unendlicher Zusammensetzung. Und wo geht das Ganze hin? Und zwar für alle. Mit synthetischen Stimmen zum Beispiel, mit Stimmenklonen, mit Videogeneration, mit Bildgenerierung, mit Textgenerierung. Das hat einen massiven Impact natürlich auf die Kreativindustrie.
00:36:34
Speaker
Und ich glaube, da stehen wir vor einigen Herausforderungen, die wir für die Zukunft einfach lösen müssen, nicht? Weil die Frage ist ja natürlich auch, was passiert, wenn nichts mehr Neues von Menschen generiert wird? Also wenn wir keine menschlich produzierten Texte, Kunstwerke in allen Dimensionen mehr haben, dann trainieren wir ja nur mehr von maschinellem Content und die Befürchtung oder der Trend ist ja dann, dass die Qualität dann auch sinkt.
00:37:01
Speaker
Das ist, glaube ich, sogar studienmäßig belegt, dass es dann degeneriert. Genau. Dass es dann so ein maschineller Inzest wird, der sich dann irgendwann hin nach unten in Nirwana nivelliert. Natürlich. Und die Frage ist natürlich, wie incentivieren wir und wie geben wir der Kreativindustrie auch Grund, weiterhin produktiv zu sein? Und ich glaube, das ist eine der wichtigen Fragen, die wir gemeinsam lösen müssen.
00:37:26
Speaker
Genauso wie die Frage, wie respektieren wir Rechtevorbehalte zum Beispiel, wenn man nicht möchte, dass seine Werke verwendet werden. Und wie gehen wir auch mit maschinell generiertem Content um? Das Ganze hat eine sehr breite Dimension.
00:37:44
Speaker
Und die Dimension geht eigentlich über Entertainment hinaus. Es geht tatsächlich um die Unterscheidung zwischen Wahrheit und Fake. Du hast das Thema Deepfakes angesprochen. Es geht um die Fragen Medienvielfalt, Meinungsvielfalt, wenn alles aus dem gleichen Tool kommt, das auf der gleichen Grundlage trainiert wurde.
00:38:05
Speaker
wird relativ die Richtung nicht gleich sein. Die Frage ist, wie gehen wir mit diesen Themen um? Und das Ganze spielt dann natürlich auf das nächste höhere Level bis hin zu demokratiepolitischen Themen. Wir haben heuer ein Superwahljahr, es wird in Österreich gewählt, es gibt Europawahlen und auch da sehen wir schon den Impact dieser Tools. Videos, die generiert werden, Messages, die verbreitert werden.
00:38:30
Speaker
Das sind sehr wichtige Themen und ich glaube, jetzt ist die Zeit, diese Punkte zu adressieren, weil wir müssen dafür eine Lösung finden, um einfach
00:38:43
Speaker
Wir müssen dafür eine Lösung finden. Ich habe sehr, sehr viele Fragen. Ich hoffe, ich komme dazu, alle zu stellen oder erinnere mich an alle.
Umwelt- und ethische Kosten der KI
00:38:50
Speaker
Ich wollte nur an einen kleinen Punkt einhaken, wo du gesagt hast, sehr, sehr kostengünstig oder sogar kostenlos und dann aber im Endeffekt quasi dir selbst indirekt widersprochen hast, weil es kostet ja doch was und wenn es nur Trainingsdaten sind. Also, so wie ich das verstanden habe, sind das ja wahnsinnig hungrige Systeme.
00:39:11
Speaker
die quasi schon mit dem gesamten öffentlich verfügbaren Das Internet
00:39:18
Speaker
erstmal nur mittelgute oder schwankende Ergebnisse produzieren können. Und der Salespitch war aber ja, wir können das auf einem Industrielevel anwendbar, verlässlich, überprüfbar, steuerbar und so weiter anwenden. Und da sind wir ja noch relativ weit davon entfernt. Das heißt, was es uns zumindest kostet, sind
00:39:43
Speaker
wahnsinnig viele Trainingsdaten und dann noch, möchte ich auch noch kurz den Fridays for Future Hut aufsetzen, die unfassbaren Mengen an Strom, die das Ganze frisst und die Myriaden an Grafikkarten, die Nvidia jetzt produzieren muss, damit das überhaupt sozusagen auf diesem
00:40:03
Speaker
Bösezungen würden sagen, Gamble irgendwie, ja oder? Also ich meine, es kostet ja doch was. Und ich wage zu bezweifeln, dass wenn das Ding jetzt, das sagen wir jetzt mal ChatGPT, weil es das bekannteste ist, das ChatGPT Monatsabo, weiß nicht, 35 Euro im Monat kosten würde oder so, dass dann plötzlich, dass dann alle noch sich so damit verhalten, so spielerisch damit ausprobieren würden und so weiter. Also das ist ja noch gar nicht bewiesen, dass es überhaupt
00:40:31
Speaker
lukrativ ist. Im Moment verbrennen alle nur Geld. Ich glaube, das sind wieder extrem wichtige Punkte, nämlich quasi, was sind Kosten? Die blanke Sicht auf die Kosten ist natürlich, dass man für relativ wenig Geld, ich weiß nicht, was das Abo aktuell kostet, es gibt viele Gratis-Tools, es gibt viele Tools, die kosten zwischen 5 und 30 Euro, was jetzt quasi auch im Vergleich relativ wenig oder
00:40:57
Speaker
nichts ist im Vergleich zu, was aus diesem Tool alles rauskommt. Das ist der eine Kostenfaktor, nämlich Geld. Der andere Kostenfaktor sind externe Kosten. Und da hast du es schon angesprochen, de facto, I put the Internet in, also das gesamte Weltwissen, nicht? Also Wissen, Daten und natürlich auch Umweltkosten. Und Umweltkosten, du hast Strom erwähnt, ist ein wichtiger Faktor. Der zweite wichtige Faktor, der auch oft übersehen wird, ist zum Beispiel Wasser.
00:41:24
Speaker
Es gibt eine Studie von Microsoft, die sagt, der Wasserverbrauch ist um 30 Prozent, also knapp bis Drittel gestiegen, eben nämlich auch wegen Kühlung der ganzen Server, nicht? Also das dürfen wir nicht unterschätzen. Scheiße. Ja, es ist schwierig. Das ist jetzt nur jetzt gerade so von wegen planetarer Grenzen und so und Klimawandel und so. Ich möchte das jetzt gar nicht ausweiten, weil wir sind eigentlich für was anderes da, aber das sind Dinge, die muss man ja mitdenken. Das ist jetzt nicht...
00:41:53
Speaker
Das sind riesige Fragen, riesige Fragen, nur ich glaube, wir unterliegen alle auch aktuell ein bisschen so diesem Generative AI Hype.
Gezielte KI-Anwendung zur Effizienzsteigerung
00:42:03
Speaker
Und da war ich mal bei einem Workshop mit extrem schlauen Köpfen von MIT und Stanford und die haben eigentlich die Frage gestellt, die ich glaube, die wir uns viel öfter stellen müssen, nämlich das richtige Problem mit den richtigen Daten und der richtigen Technologie in diesem magischen Dreieck, wenn man so will, zu lösen.
00:42:23
Speaker
Und wir werden nicht alle Probleme mit generative AI lösen. Ganz im Gegenteil, ich glaube, dass wir viele Probleme mit einer anderen Art von KI-Technologie lösen können und dass dort extrem viel Wertpotenzial liegt.
00:42:38
Speaker
auch für die Lösung zum Beispiel von Umweltfragen, nicht? Weil es ist schön, wenn wir alle experimentieren mit diesen Tools. Aber jeder, der ein bisschen näher mit diesen gearbeitet hat, wird sehen, dass man manche Sachen vielleicht sogar schneller, effizienter selbst macht. Bevor ich einen vierseitigen Prompt reinwerfe und das Tool zweimal korrigiere, kann ich vielleicht manche Tätigkeiten schneller und auch umwelteffizienter selber machen. Und auch manche Probleme
00:43:07
Speaker
Für die wird einfach generative AI nicht der Schlüssel sein. Und ich glaube, zu diesem Punkt müssen wir kommen, wo wir uns ein bisschen von der Faszination und diesem Hype verabschieden. Und es ist faszinierend, wie gut diese Tools sind, auch wenn sie alle ihre Schwächen haben. Und zurückgehen zu dem Thema, okay, welche Probleme lösen wir mit welcher Technologie am effizientesten und welchen Impact hat das?
00:43:31
Speaker
Und das ist, glaube ich, die nächste Ebene in dieser Diskussion, die wir erreichen müssen, um diesen gesellschaftlichen Mehrwert, natürlich auch wirtschaftlichen Mehrwert und auch Mehrwert für unseren Planeten zu erschließen. Weil ich glaube, da gibt es extrem viel Potenzial. Nur, wir müssen diese Themen auch adressieren.
00:43:50
Speaker
uns ein bisschen von der Faszination auch lösen, die Jenny A natürlich gerade bietet. Und gerade auch, ich glaube, vor kurzem wurde Sora released, ein Videotool, mit wirklich wirklich beeindruckenden Aufnahmen. Nur, dann habe ich mit Filmemachern gesprochen,
00:44:09
Speaker
Und ich glaube, wir sind noch Myriaden entfernt von Text to Video, it's all done. Dort, wo diese Technologie extrem stark ist, ist es in der Nachbearbeitung, in der Feinjustierung, in diesen visuellen Effekten, aber aktuell einen
00:44:25
Speaker
vierstündigen Kinoblockbuster, Text-to-Video zu erstellen, da sieht man dann, dann gibt es dann Sechsfingermenschen, Golden Retriever, die ineinander vermischen und verschwimmen, also da müssen diese Tools noch viel viel besser werden, um hier
00:44:43
Speaker
ganze Industrien zur Gänze zu ersetzen in dieser Breite. Ja, da würde ich mich dann gerne nochmal tatsächlich zum späteren Zeitpunkt nochmal mit dir unterhalten, wenn das auch sowohl mit dem Umweltaspekt als auch mit dem Industrieaspekt tatsächlich ein bisschen konkreter ist oder vielleicht auch ein bisschen weitergedacht.
Integration des AI Acts in bestehende Gesetze
00:44:59
Speaker
Weil jetzt waren ja die letzten Jahre sehr stark geprägt von dem Ringen um einen zumindest europäischen Konsens. Da würde ich jetzt gerne kurz wieder zurückkommen zum AI Act. Ich habe mich letztes Jahr mal mit einem deutschen Politiker unterhalten, der hat mir gesagt, im Grunde haben wir eigentlich schon ganz tolle Gesetze auf EU-Ebene und in Europa, vor allem in Westeuropa. Im Grunde haben wir eigentlich schon alles, was wir brauchen.
00:45:29
Speaker
Wozu dann der AI hekt überhaupt? Das ist mal meine Frage, war auch meine Frage an ihn. Und er hat gesagt, naja, wegen der Transparenz war er so paraphrasiert, verkürzt.
00:45:42
Speaker
Kannst du vielleicht kurz darauf eingehen, was gibt es denn sozusagen für bestehendes Recht, was eigentlich sozusagen das schon regeln würde, aber vielleicht fehlt noch eine Zange, um das anzuwenden oder so, oder ein Werkzeug als Zwischengeschalt. Und was bringt dann tatsächlich der AI-Act an Mehrwert für mich jetzt als selbstständigen Kreativen, der sagt, ich möchte bitte mein Urheberrecht gewahrt wissen.
00:46:13
Speaker
Ich finde den Vergleich ganz cool mit der Werkzeugbox oder dem Toolkoffer. Und natürlich haben wir sehr, sehr viele Gesetze, manche würden sagen viel zu viele, die bestimmte Punkte adressieren. Wir haben das Urheberrecht, du hast es schon angesprochen, das bestimmt, was ist dein Werk, wer ist der Schöpfer dieses Werks und Grundregeln für die Monetarisierung und Rechteeinräumung festlegt.
00:46:37
Speaker
Wir haben die DSGVO, sie wird geliebt, sie wird gehasst, aber in einem Punkt adressiert sie einen Teil von KI, nämlich dort, wo es um automatisierte Entscheidungsfindung geht und dort vor allem aus einem quasi Datenaspekt, nämlich personenbezogene Datenaspekt. Wir haben das allgemeine Zivilrecht, also AGBs, wie agieren wir miteinander im wirtschaftlichen Kontext. Wir haben Persönlichkeitsrechte, sehr wichtig in der Kreativindustrie und sehr, sehr viele andere auch noch.
00:47:06
Speaker
Das sind aus meiner Sicht einzelne Werkzeuge. Das ist ein Hammer, das ist ein Schraubenzieher, vielleicht auch irgendwelche anderen Tools. Und die AI-Act ist für mich die Werkzeugbox, die Teile oder dort, wo es um KI geht, verbindet. Die AI-Act kann man sich im Wesentlichen vorstellen wie ein Horizontal Layer, also quasi eine Horizontale, die bestimmte Regeln für KI-Systeme vorgibt. Nämlich wie ein Produktsicherheitsrecht für KI-Systeme im Wesentlichen.
00:47:37
Speaker
Und das Ziel des AIX ist es eben Mindeststandards vorzuschreiben, vor allem für diese Hochrisiko-KI-Systeme, für die Hersteller. Das heißt, diejenigen, die solche Systeme entwickeln, müssen die in einer Art und Weise entwickeln, die diese Systeme sicherer machen für alle. Wirtschaft, Gesellschaft und am Umweltfaktor müssen wir noch arbeiten. Und diejenigen, die diese Systeme einsetzen im Unternehmen, das sind jetzt professionelle Nutzer, also das Unternehmen, das ein KI-System
00:48:04
Speaker
im Personalbereich implementiert, Medizinprodukte mit KI entwickelt, die müssen quasi diese Systeme dann entsprechend der Herstellervorgaben auch implementieren. Weil wir wissen, jedes System, wenn es für einen anderen Zweck geschaffen wurde und für einen anderen Zweck eingesetzt wurde, da kann logischerweise nichts Gutes dabei rauskommen. Das ist die Zielrichtung des AI-Acts.
00:48:25
Speaker
Natürlich hat er Links- und Berührungspunkte zu all und insbesondere diesen drei anderen Themen, Datenschutz, Urheberrecht, Persönlichkeitsrecht und das allgemeine Zivilrecht, das da drüber liegt.
Herausforderungen in der Transparenz von KI-Daten
00:48:36
Speaker
Und dort ist im Wesentlichen der Kern für die Kreativindustrie auch abgebildet, weil es gibt Sachen, die kann der AI-Act leisten, es gibt Sachen, die kann er nicht leisten. Und ein wichtiger Punkt ist, dass der AI-Act zum Beispiel erregelt das Urheberrecht nicht neu,
00:48:52
Speaker
Und er regelt auch nicht neu, wer darf welche personenbezogenen Daten und zum Beispiel Stimmen sind, biometrische Daten, sogar sensible, besonders geschützte personenbezogene Daten, wer darf diese Daten auf welcher Grundlage wofür verarbeiten oder auch nicht. Das sind Themen, die sind in diesen anderen Regelwerken abgebildet. Stehen natürlich mit KI in Verbindung, aber die IACT hebelt das nicht aus.
00:49:19
Speaker
Das heisst, ich muss immer mit einem Pendelblick zwischen diesen Regulativen, die es ja schon gibt, und dem AI-Act arbeiten. Was der AI-Act als Add-on gibt, ist das Thema Transparenz, wie du es angesprochen hast, nämlich Transparenzpflichten und Kennzeichnungspflichten für manche Outputs von KI-Systemen.
00:49:39
Speaker
und auch versuchend Provider von diesen KI-Systemen mehr Transparenz aufzuordnen, in dem eben dieser Content maschinell gekennzeichnet werden muss als synthetischer Content, aber auch, und das war ein sehr harter Punkt in den Verhandlungen,
00:49:57
Speaker
Die müssen eine Copyright Policy haben, Rechtevorbehalte akzeptieren und es steht eine Zusammenfassung des Contents, der verwendet wurde für das Trainieren und Erstellen dieser Systeme, veröffentlichen.
00:50:12
Speaker
Wie diese Content Summary aussieht, daran arbeitet gerade das AI Office. Das AI Office ist ein Körper, der wurde im Februar heuer eingerichtet und soll vor allem Benchmarks, Tools und Wissen entwickeln, wie man mit diesen generativen KI-Tools umgeht, wie man die
00:50:29
Speaker
einordnen kann, messen kann, Risikomanagement betreiben kann, weil eins dürfen wir ja auch nicht vergessen, wir sind noch relativ am Anfang, diese Tools überhaupt zu verstehen. Das heißt, da kommt noch relativ viel auf uns zu.
00:50:44
Speaker
dass wir leisten müssen, um mehr über diese Tools und ihre Risiken zu erfahren. Aber gerade diese Content Summary war ein Spannungspunkt zwischen der Kreativindustrie und diesen Tool-Herstellern, weil natürlich, wenn ich diese Content Summary öffentlich machen muss, könnte man dadurch dann zum Beispiel sehen, dass mein Vodcast verwendet wurde für das Trainieren dieses KI-Modells, obwohl ich zum Beispiel vielleicht maschinell in einem rechten Vorbehalt widersprochen habe, dass ich das eigentlich nicht möchte.
00:51:14
Speaker
Ja, das werden wir auch maschinell in den Show Notes klarstellen, dass das nicht passieren darf. Weil mich ja tatsächlich interessiert, ich kann ja gar nicht recht geltend machen, wo mich vielleicht Gesetze schon schützen und unterstützen, wenn ich gar keine Chance habe sozusagen hinter die Kulissen, hinter den Vorhang zu schauen.
00:51:37
Speaker
was denn da der Zauberer von Oz tatsächlich alles eingespeist hat. Und ich kann mich erinnern, das war ein Riesenthema. Vielleicht der wichtigste Punkt, für den wir gekämpft haben, war, wir müssen verstehen, was da alles reingeflossen ist an Trainingsdaten, sonst können wir
00:51:58
Speaker
Sonst ist das ganze, wie du sagst, Urheberrecht, DSGVO, Persönlichkeitsrecht, alles obsolet. Das ist dann alles, ja es steht dann zwar auf dem Papier, das ist auch schön und gut, aber und auch Kennzeichnungen, total wichtig, gerade demokratiepolitisch extrem wichtig und auch einfach für mich als Konsument von egal, YouTube wurscht. Ich möchte bitte wissen, was ich konsumiere und ich möchte eine bewusste Entscheidung treffen, ob ich
00:52:26
Speaker
das konsumiere oder nicht, oder ob ich mich darauf einlasse, oder dass ich es vielleicht mit anderen Augen sehe, das ist vielleicht Hinterfrage, eine Zweitquelle, wie auch immer, wenn es jetzt in den journalistischen Bereich geht, konsultiere oder so. Aber das heißt,
00:52:44
Speaker
Im Grunde der Golden Nugget sozusagen im AI Act sind die Transparenzverpflichtungen für die Inputdaten. Ohne die wäre das ja nichts. Ist ja schön, dass da ein Code steht, aber wenn sozusagen keine Referenzpunkte existieren, an denen sich ein Wahrscheinlichkeitsalgorithmus orientieren kann, dann ist der Output ja genauso Null. Also heiße Luft, nada, nexam.
00:53:15
Speaker
Möchte ich noch mal klarstellen hier. Also auch von der Selbstverständlichkeit her, wie Tech-Konzerne da rangehen und sagen, das gehört ihr alles uns.
Schutz kreativer Rechte durch Datenmanagement
00:53:24
Speaker
Das ist doch frei verfügbar. Und das mag in Amerika zum Beispiel ja so sein, wo die Urheberrechte, Persönlichkeitsrechte wesentlich schlechter geschützt sind, aber in der EU halt nicht. Konkret, wann komme ich zu meinem Recht, liebe Jeannette, als selbstständiger, kreativschaffender?
00:53:43
Speaker
Ich liebe die konkrete Frage, wie komme ich zu meinem Recht? Du weißt eh, wie gerne wir Juristen reden und wie wenig Fragen wir dann wirklich beantworten, wenn wir so lange reden. Aber auf den Punkt gebracht. Zumindestens der Versuch, es auf den Punkt zu bringen. Ich glaube, für Kreative gibt es jetzt schon wichtige Punkte, denen man sich bewusst sein muss. Jeden Vertrag, den ich jetzt unterschreibe, wo all diese Tools im Markt sind, den muss ich mir genau anschauen.
00:54:11
Speaker
Nämlich insbesondere, wer darf diese Daten, was auch immer das für Daten sind, Stimmdaten, Charakteristiker, Persönlichkeitsdaten, Text, Bild, Video, was auch immer ich als Kreativer leiste, wo fließen diese Daten hin und wer darf diese Daten zu welchen Zwecken überhaupt nutzen? Wir sehen sehr, sehr viele Fälle, gerade auf Social Media, Künstler, die darauf aufmerksam machen, dass ihre Daten aus einem Engagement beispielsweise an Dritte weitergegeben wurden,
00:54:39
Speaker
und dort verwertet werden, teilweise auch mit einer schönen Pauschalsumme, dreistellig, vierstellig, aber nichts im Vergleich zu diesem Asset, dass das eigentlich ist. Das heißt, genau in die Verträge schauen, weil dort wird im Wesentlichen geregelt, was euer Input ist und was auch die Kompensation und die Abgeltung für euren Input ist und wo auch die Limitationen
00:55:05
Speaker
der Nutzung sind. Das heißt da auf das Thema KI schauen, da auf das Thema Daten schauen. Und das jetzt zu machen. Weil das ist etwas, da wird DEI Act keinen Impact haben. Das ist Zivilrecht, AGBs, das sind Themen, die sind jetzt wichtig. DEI Act wird vor allem dort einen Impact haben, wenn es dann eben zu dieser Publikation kommt von einer Trainings-Content-Summary.
00:55:27
Speaker
Und da die Frage ist, wie die dann ausschaut. Da scheiden sich die Geister und ich glaube, das ist ein extrem schwieriger Punkt zu definieren. Wie schaut diese Trainings-Content-Summary aus? Sind das Links zum Beispiel? Muss ich einfach nur reinschreiben?
00:55:43
Speaker
im Monat März 2023 einmal das Internet gecrawled. Also wie granular diese Summary dann ist, darauf wird es dann ankommen, welchen Impact diese Summary leisten kann für Kreative, die sich dann zum Beispiel darauf berufen wollen, ja es wurde mein Content illegal verwendet fürs Training dieser Systeme. Und dann, wie komme ich zu meinem Recht, sollte das passiert sein? Es bleibt nur der Weg vor die ordentlichen Gerichte und dann einfach sein Recht einzuklagen.
00:56:12
Speaker
Hier glaube ich oder hoffe ich, dass teilweise zwei Regelwerke, die in diesem ganzen Hype um Gen.E.I. und den E.I. Act ein bisschen untergehen, nämlich das Thema KI Haftungsrichtlinie und das Thema Novelle der Produkthaftungsrichtlinie.
00:56:30
Speaker
hört sich jetzt komplett unspektakulär aus an, kann aber einen großen Impact haben. Warum? Weil man dort überlegt, Möglichkeiten zu schaffen und Instrumente zu schaffen, die es Leuten vor einem Zivilverfahren ermöglichen, Informationen herauszufordern von der anderen Seite. Das heißt, eine Klage oder einen Anspruch geltend zu machen auf Offenlegung von Beweismaterial, damit ich dann meinen Anspruch im Gerichtsverfahren besser untermauern kann.
00:57:00
Speaker
ist natürlich ein sehr starkes Schwert. Man wird sehen, wie das dann tatsächlich gestaltet wird und wie generative KI in diese Offenlegungspflichten dann mit reinspielt. Aber das ist das, was man in diesen Regelwerken schaffen will. Die Möglichkeit zur Beweissicherung und Beweisoffenlegung, wenn ich einigermaßen substanzieren kann, dass es da einen Rechtsbruch gegeben
Rechtliche Rahmenbedingungen für KI-Verantwortlichkeit
00:57:26
Speaker
hat. Ich glaube, das sind zwei sehr starke Sachen.
00:57:28
Speaker
Gibt es die Schönschuldige? Oder sind die gerade erst in Ausarbeitung und werden verhandelt?
00:57:33
Speaker
Zur KI-Haftungsrichtlinie, es gab einen Entwurf und man hat dann relativ wenig mehr von dieser KI-Haftungsrichtlinie gehört. Die Novellierung der Produkthaftungsrichtlinie im Gegensatz dazu ist im Gesetzgebungsprozess schon sehr, sehr weit. Wir wissen, es sind Wahlen auf europäischer Ebene, also der ganze Prozess bzw. die ganze Legislaturperiode geht jetzt zu Ende, es ist noch viel zu tun.
00:57:59
Speaker
Man rechnet schon damit, dass auch die Novellierung der Produkthaftungsrichtlinie dieses Jahr noch abgeschlossen wird. Es gibt den Entwurf, der sich noch auf eine alte Version des AI-Acts bezieht und dementsprechend generative KI zum Beispiel noch nicht abbildet. Die Frage ist, ob man das jetzt nachgezogen hat im finalen Text, den es noch nicht öffentlich gibt, soweit ich das gesehen habe. Aber das sind die Sachen, die dann helfen werden. Wie komme ich zu meinem Recht?
00:58:28
Speaker
Aber im Grunde heißt das ja für mich, also es klingt schon mal zumindest vielversprechend, das wusste ich auch nicht, und gibt ein bisschen irgendwie, sag ich jetzt mal, Konsumentenschutz im weitesten Sinne, wenn man das jetzt verkürzt darstellen will. Aber es führt trotzdem kein Weg dran vorbei, wenn ich das jetzt richtig durchspiele im Kopf.
00:58:49
Speaker
vor Gericht zu gehen und dann wahrscheinlich, weil ja alles in Revision und angefochten werden wird, bis von EuGH, also sozusagen auszufechten und dann ein finalinstanzliches Urteil mit Signalwirkung oder einer Referenzwirkung
00:59:10
Speaker
sozusagen zu erstreiten, was, weiß ich nicht, fünf Jahre mindestens wahrscheinlich dauert. Das kannst du besser einschätzen, was es dauert vom kleinsten, von der ersten bis zur letzten Instanz. Und wenn ja, ist das überhaupt möglich? Oder muss ich die in den USA oder in Russland oder in Israel klagen, wo die nun mal sitzen, die Tech-Konzerne? Weil dann kann ich es mir sowieso in die Haare schmieren, oder?
00:59:41
Speaker
Ansprüche und effektive Durchsetzung, das sind die zwei Sachen, die zusammenwirken müssen. Vielleicht eins ganz wichtig, Vorbauen ist besser als Nachstreiten. Das heißt Vorbauen bei den Vereinbarungen,
00:59:54
Speaker
wenn man nicht möchte, dass Daten gecrawled werden, maschinell lesbaren Vorbehalt. Das ist schwierig, aber diese Themen vorab abzufedern oder eine entsprechende Kompensation dann auch rein zu verhandeln, nicht für die einzelnen Nutzungen, wenn das halt gewünscht ist. Das, glaube ich, ist viel wichtiger als dann im Nachhinein
01:00:14
Speaker
diesen langen Prozess zu beschreiten, den du schon skizziert hast. Ein Gerichtsverfahren ist lange, das kann viel kosten, je nachdem wer klagt und ob es vielleicht eine Rechtsschutzversicherung gibt, muss man da dann auch eine entsprechende, ich würde sagen, schwierige, durstige Wegstrecke hinter sich bringen.
01:00:31
Speaker
Aber wir sehen diese Prozesse auch in den USA. Ich glaube es gibt zig Rechtsverfahren und Gerichtsverfahren, die gegen diese Toolprovider anhängig sind. Ich glaube gegen jeden der großen Toolprovider wegen Urheberrechtsverletzungen, wegen unrechtmäßiger Verarbeitung von Daten, sensiblen Daten. Also wir sehen diese Klagewelle und die spielt sich momentan gerade in den USA ab.
01:00:56
Speaker
Die Frage ist, ob wir Ähnliches sehen werden in Europa, wo meines Wissens noch solche Verfahren nicht in diesem großen Stil geführt werden, wenn diese Instrumente geschaffen werden und wenn es hier Transparenz gibt. Also das interessiert mich selbst, ob wir dann in Europa eben einfach nur eine verspätete Klagewelle sehen oder ob alle warten, wie die Verfahren zum Beispiel in den USA ausgehen,
01:01:21
Speaker
gegen OpenAI Getty Images, OpenAI New York Times und so weiter und so fort. Das wird interessant sein. Genau, aber im Wesentlichen die Empfehlung, besser vorbauen als im Nachhinein streiten. Und auch dann sollte es tatsächlich Rechtsverstöße geben, sich auch nicht scheuen, von den neuen Instrumenten Gebrauch zu machen und sein Recht einzufordern. Sich aber darauf einzustellen, dass das lange dauern wird und zum Teil auch kostspielig sein wird.
01:01:52
Speaker
Aber grundsätzlich gibt es da ein, weiß ich nicht, wirtschaftlich wäre es sozusagen das Markt-Ort-Prinzip, glaube ich, gibt es so ein Recht, dass wenn ein Provider, der vielleicht in den USA sitzt, sein Modell aber in Europa kommerziell nutzt, ist der dann in Europa auch haftbar? Kann der dann sozusagen auch in Europa zur Verantwortung gezogen werden oder ist das alles noch debatable und muss man sehen?
01:02:18
Speaker
gibt es da eine Hoffnung, weil es wird ja dann wahrscheinlich ein Musterverfahren
Internationale Reichweite des AI Acts
01:02:23
Speaker
werden. Das wird ja jetzt dann nicht der kleine Patrick vielleicht führen, oder vielleicht doch. Aber nein, also im Grunde macht es ja dann Sinn, entweder eine Sammelklage oder ein Musterverfahren anzustreben, was dann einen sehr, sehr typischen Fall bis vor das UGH trägt.
01:02:41
Speaker
um dann all niedrigeren Instanzen einen Referenzurteil zu geben, an dem sie sich dann orientieren. Ist das überhaupt möglich? Ist das überhaupt angedacht? Wir können alles. Übernacht? Geil. Nein. Check. Danke. Wir sind fertig. Ich hab das voll. Nein. Aber der Punkt ist, wenn ich jetzt an den EIAG denke, der hat auch, ähnlich wie es bei der DSGVU ist, eine Art
01:03:04
Speaker
sagen wir mal, unter Anführungsstrichen, Außenwirkung. Das heißt natürlich, wenn der Provider im Drittland ansässig ist und es aber quasi EU-Bürger und Bürgerinnen betrifft oder er diesen Markt adressiert oder seine Modelle hier anbietet, muss er sich natürlich an die Bestimmungen des EU-Reihex halten. Und hinten ist dazugekommen, und das kennen wir aus anderen Regulativen, ich vermeine mich sogar zu erinnern, dass es sogar die Produkt
01:03:31
Speaker
Produkthaftungsthemen sind. Jemand, der außerhalb der Europäischen Union ansässig ist, muss einen Repräsentanten in der Union benennen, der dann halt einfach dafür zuständig ist. Das heißt, ich glaube schon, dass es hier Anknüpfungspunkte in der Union geben wird.
01:03:47
Speaker
wo man dann seine Ansprüche hin adressieren kann. Und soll es einmal irgendwie einen Zusammenschluss geben oder ein großes Massenverfahren geben, bin ich ganz sicher, dass es Kollegen und Kolleginnen geben, die bestens die Skills haben, hier vor Gericht zu gehen, vor das zuständige Gericht und diesen Prozess nach oben hindurch zu fechten.
01:04:11
Speaker
Cool. Better call Saul. Nee, finde ich super. Aber du hast vorhin nämlich, weil mich interessiert ja auch, was ich jetzt tun kann. Und das ist ja alles schön und gut und irgendwie gibt mir das so ein bisschen peace of mind.
Technische Schutzmechanismen für persönliche Daten
01:04:25
Speaker
Aber du hast vorhin von dem Prozess gesprochen, der das machine readable vorbehaltet oder so. Ist das das, was man gemeinhin als das opt out
01:04:35
Speaker
bezeichnet. Und vielleicht erklärst du nochmal kurz, ist das nur für sozusagen Selbstständige oder Unternehmer oder ist das auch etwas, was der gemeine Bürger, die private Person sozusagen auch irgendwie den Anspruch geltend machen kann?
01:04:56
Speaker
Also genau, du hast recht, es geht eben um dieses Opt-out-Verfahren, dort wo ich dann Maschinen lesbar diesen Vorbehalt abbilden kann auf meiner Website und jeder der das nicht möchte und eine Website hat, kann das einbetten. Das Problem ist hier, dass es hier keinen internationalen oder nicht einmal einen europäischen Standard dafür gibt, zum Beispiel No AI.
01:05:24
Speaker
Das heißt, hier ist es schwierig, dass das überall anders ist und dass es hier keine Vereinheitlichung gibt und dass es eventuell auch einen Impact auf SEO hat, also quasi Suchmaschinenoptimierung. Das sind hier die Probleme.
01:05:39
Speaker
Und diese Probleme zu lösen kann natürlich auch sehr viel Mehrwert bieten. Ich weiß, dass es da Bestrebungen auch der Industrie gibt, einen gemeinsamen Standard zu finden, gerade für dieses Thema, und einen einheitlichen No-AI-Crawl-Vorbehalt zu entwickeln. Aber genau das ist der springende Punkt, eben dieses Opt-out für alle, die eben zum Beispiel nicht gecrawlt werden wollen. Ich glaube, einen wichtigen Punkt muss ich noch machen,
01:06:09
Speaker
und zwar auch im Sinne des Exploitation-Managements, weil was ist im Wesentlichen das Problem oder eins der Probleme? Wenn ich mein Trainingsdatenset habe und alle Daten, die sich brauchen, um diese Modelle zu entwickeln, wenn das Wissen im Code ist, also quasi wenn das Modell fertiggestellt ist, dann ist ja quasi das Wissen, die kreative Leistung, welcher Input auch immer,
01:06:35
Speaker
im Modell abgebildet. Das heißt, auch das nachträgliche Löschen dieses Datensatzes hat de facto keinen Impact mehr. Und das ist auch eines der Themen, die wir wahrscheinlich in Zukunft lösen müssen, weil all diese Modelle außer Betrieb zu nehmen oder zu verbieten, glaube ich, ist keine Lösung, eine Extremsituation, die auch nicht hilfreich ist, aber eine Art andere Lösung für dieses Problem zu finden.
01:07:02
Speaker
Weil das ist auch etwas, das sehr stark in den letzten Wochen vor dem AI-Act-Beschluss aufgetreten ist, nämlich die Diskussion gerade um diese Content Summary, dann löscht die Daten doch. Die sind meistens auch dann gelöscht, nur das Wissen ist dann schon im Code.
01:07:19
Speaker
Ja, da habe ich mich auch mit einigen IT-Experten unterhalten, die mir alle gesagt haben, Patrick, man kann zwar deinen Stimmdatensatz wieder löschen, aber das, was für das neurale Netzwerk so Gold wert ist,
01:07:37
Speaker
Die Zwischentöne, die Anlautungen, das handwerkliche Wissen, was sich ein Mensch über die Jahre angeeignet hat, das ist dann gelernt und du kannst es nicht unlearnen, außer du zerstörst das gesamte System. Das ist ja noch viel tiefer das Problem.
01:07:53
Speaker
in Wahrheit. Und wenn ich das richtig verstanden habe, das Opt-out ist dann eigentlich auf den guten Willen des anderen angewiesen, dass sich der Crawler dann auch an dieses Textdokument hält oder so. Weil es ist ja jetzt keine Firewall, die sozusagen, wenn der Crawler kommt und sagt, hier, patrickmesse.com, ah ja, nee, da ist ein Word docu, da lieber nicht, sondern du musst ja sozusagen den Crawler so eingestellt haben, dass er sich an
01:08:23
Speaker
Textdokumente sozusagen, dass der denen die Priorität gibt, die sie verdienen und zu dem Zweck sind sie ja auch da. Aber es ist keine Firewall. Es ist dann nur ein Tool, mit dem ich dann, wenn ich merke, ich entdecke in einem
01:08:41
Speaker
Trainingsdatensatz, meine, weiß ich nicht, alle Daten meiner Website, kann ich dann sagen, ja, aber ich hatte ja, wo kommen die denn her? Ich hatte doch das noai.txt oder die sozusagen die machine readable Ansage, hier bitte nicht crawlen.
Vermeidung von Rechtsstreitigkeiten durch klare Verträge
01:09:00
Speaker
Das heißt, das ist nur eigentlich ein
01:09:02
Speaker
Also es ist total wichtig, glaube ich, aber es ist dann ein Instrument, das mich hilft, ein legaler Argument zu machen, oder? Genau. Erstens muss ich das auf meiner Website richtig implementieren. Da ist das Problem, dass es hier keine Standards gibt. Das heißt, man versucht das jetzt, aber es gibt unendlich viele Möglichkeiten oder unendlich viele Tools, die man da verwenden kann.
01:09:29
Speaker
Das heißt hier die Uneinheitlichkeit und die richtige Implementierung, plus auf der anderen Seite natürlich muss das auch entsprechend eingestellt sein. Natürlich hilft es zu Beweiszwecken dann in einem Verfahren, wenn ich genau diese Sachen dann nachweisen kann. Aber dann, das ist dann wieder ein Thema, da sind wir dann wieder bei nachgelagert. Also dann ist es ja schon passiert, dann sind wir wieder bei Feuerlöschen oder teilweise Eindämmen.
01:09:51
Speaker
Versus Sachen im Vorhinein abfedern. Und das ist bei vielen Dingen eben gerade, um sich Zeit, Kosten, Aufwand zu ersparen, die vorteilhaftere Methode, alles vorzubauen, was geht, und vorzubauen, nicht nachzubauen und nachzustreiten.
01:10:08
Speaker
Also es ist am Endeffekt vielleicht auch eine Vermeidungsstrategie, überhaupt in diese kostspielige Gerichts- und Prozesssituation zu kommen, wenn sich dann mal die Standards etabliert haben. Und ich sage jetzt, du bist ein Tech-Provider, ein AI-Provider und ich entdecke meine Daten in deinen Trainings-Summaries. Zu sagen, dann liebe Jeannette AI.
01:10:36
Speaker
Sie wissen es, wir wissen es. Da war das implementiert oder auch ein Satz in meinem AGB, der sozusagen die Weitergabe andritt oder die Nutzung meiner Dienstleistung als Trainingsdaten
01:10:54
Speaker
verbietet oder ausschließt, hilft dann zu sagen, ja, sorry Leute, das ist der feuchte Traum eines jeden Medienrechtsanwalts. Das ist ja glasklar, dann müssen wir überhaupt nicht anfangen zu streiten. Aber das geht noch nicht sofort, sondern dazu muss sich mal ein Prozess etablieren, Standards sozusagen geschaffen werden von und wahrscheinlich dem AI-Office.
Die Rolle des AI Office in der EU
01:11:20
Speaker
Ist das, wie soll ich sagen, gilt das dann auch automatisch, was das AI-Office dann beschließt für die gesamte EU oder hat dann jeder Nationalstaat nochmal die Kompetenz zu sagen, ja bei uns weichen wir es vielleicht ein bisschen auf oder da machen wir es vielleicht strenger? Was für eine Kompetenz hat dann das AI-Office?
01:11:41
Speaker
Das ist ein guter Punkt, nämlich wie sieht es dann organisatorisch aus. Die AI-Act hat eine mehrschichtige Struktur vor Augen. Das AI-Office soll im Wesentlichen sich mit diesen generativen KI-Modellen beschäftigen und hat hier im Tandem mit den nationalen KI-Behörden zu arbeiten.
01:12:03
Speaker
Aber soweit das momentan im Text abgebildet ist, liegt die inhaltliche Kompetenz. Und es ist ja auch das Ziel, das einheitlich zu machen, nicht? Weil der AI Act ist eine Verordnung. Die Verordnung ist in allen Mitgliedstaaten unmittelbar anwendbar. Es soll ja rechtsvereinheitlichend wirken. Und das AI Office eben hier die inhaltliche Komponente.
01:12:25
Speaker
aber natürlich dann im Tandem mit den nationalen Aufsichtsbehörden. Uniforme Anwendung wird extrem wichtig sein. Das, was für den Markt sehr nachteilig ist, ist, wenn dann die einzelnen Aufsichtsbehörden die nationalen Stellen anfangen,
01:12:41
Speaker
ihre eigenen Practices zu entwickeln und Sachen vielleicht strenger oder weniger streng zu sehen. Das heißt hier der Appell, das möglichst einheitlich und möglichst in Abstimmung zu machen. De facto werden wir es dann sehen, wenn es soweit ist. Wir sehen das auch bei anderen Rechtsmaterien, dass manche Standorte präferiert werden, weil man weiß, dort werden Sachen nicht so eng gesehen wie woanders.
01:13:04
Speaker
Wir hoffen, dass dieser Effekt nicht bei Mirai Act eintritt, weil das ja dann wieder zu Uneinheitlichkeit führt, zu Forum-Shopping. Das heißt, ich gehe dort hin, wo für das, was ich vorhabe, die Standards wahrscheinlich am einfachsten zu erfüllen sind oder am kostengünstigsten zu erfüllen sind.
01:13:21
Speaker
Und das sind gerade Effekte, die ich hoffe, die nicht passieren werden und die wichtig sind. Und ich hoffe, dass das AI-Office, weil es eben gerade für die generative KI-Thematik als vereinender Punkt gedacht und konzipiert ist, das entsprechend dann auch umsetzen kann.
KI-Diskussionen auf globaler Ebene bei Davos
01:13:39
Speaker
Du warst ja neulich auch, habe ich gesehen, in Davos, auf dem Weltwirtschaftsgipfel. Mich würde jetzt noch interessieren, wie wird das Thema dort besprochen? Ist da ein Bewusstsein da von diesen ganzen Dingen, die wir jetzt heute besprochen haben? Ist es egal? Ist es die Gier oder der Ausblick auf große Profite vielleicht größer? Was ist dein Gefühl von Davos, dass du von Davos mitbringst?
01:14:10
Speaker
Also das Thema AI war eines der Hauptthemen heuer in Davos. Das heißt, das Thema ist ganz ganz vorne präsent mit natürlich den anderen zwei Themen, die unsere aktuelle weltwirtschaftliche Lage sehr prägen, nämlich das Umweltthema und natürlich auch die Konflikte, die wir global überall aufbrechen sehen.
01:14:31
Speaker
Aber eben neben diesen zwei Säulen war KI eines der bestimmenden Themen. Es gab sogar ein AI-House in Davos, eine tolle Kollaboration zum ersten Mal, wo ich auch Teil davon sein durfte. Und das, was ich an Davos immer sehr sehr schätze, ist, dass es so divers ist. Man hat die Möglichkeit mit Leuten diversester Backgrounds, also von
01:14:58
Speaker
Wirtschaftstreibernden, CEOs von Großkonzernen, diverser Industrien, aber auch komplett out-of-the-box-Sachen, sich damit zu beschäftigen und so das Thema aus unterschiedlichen Perspektiven zu beleuchten. Natürlich war in Davos, ich würde sagen, die Gen.E.I. Industrie sehr präsent, Mistral.E.I., Aleph Alpha, Jonas Androles zum Beispiel, Sam Altman. Und da konnten wir interessante Gespräche führen.
01:15:24
Speaker
Aber auch die gesellschaftsdemokratiepolitische Seite und auch kritische Seite von AI. Ich hatte die Möglichkeit zum Beispiel mit Theresa May zu sprechen, wo es um moderne Sklaverei ging. Weil wir wissen natürlich auch, diese KI-Modelle brauchen viel Strom, aber sie brauchen auch viel menschliche Arbeit, nämlich dort zum Beispiel, wo Daten annotiert werden.
01:15:44
Speaker
Und das wird natürlich nicht in Europa gemacht. Das wird in anderen Ländern und anderen Teilen der Welt gemacht, wo es dafür wenig bis gar kein Geld gibt, in Afrika, in Karboccia beispielsweise. Das heißt auch hier moderne Formen der Ausbeutung für KI. Und das Thema wurde eben von bis aus diversen Blickpunkten diskutiert, auch aus dem Umweltaspekt natürlich. Und daraus habe ich extrem viel mitgenommen. Und das Schöne ist, dass man auch mit Größen diskutieren kann,
01:16:13
Speaker
mit Menschen, die man jetzt so nicht beim Einkaufen treffen würde. Andrew Ng zum Beispiel war da, also einer der Godfathers of AI, Max Tecmak, Mariette Schake zum Beispiel, viele Vertreter aus Stanford, vom MIT. Das heißt, man hat hier wirklich die Möglichkeit, mit sehr, sehr intelligenten Köpfen tiefe Diskussionen zu führen über alle Aspekte, die diese Technologie hat.
01:16:41
Speaker
Und wie gesagt, da habe ich extrem viel mitgenommen, auch Denkanstöße, Impulse, für mich privat, aber auch für meine Arbeit. Was gut ist, was schlecht ist, aber auch die Ugly Sides, mit denen wir uns auch auseinandersetzen müssen. Also was schlechtes ist noch nicht die Ugly Side? Ja. Nein, ich frage nur, vielleicht gibt es ja sozusagen ein schlechtes Szenario oder ein Horrorszenario oder so.
01:17:06
Speaker
Ja, aber das gesprochen jetzt quasi nicht, dass wir uns fürchten müssen, alle von humanoiden Robotern niedergestreckt zu werden, sondern die Ugly Side sind die Themen, die wir auch schon im Gespräch hatten, nämlich Umweltkosten externe. Das Thema natürlich Annotation, moderne Sklaverei, das sind so Themen, die würde ich mehr unter die Ugly Side subsumieren. The Bad Side, die Limitationen dieser Modelle,
01:17:32
Speaker
Hype versus Realität und Erwartungsmanagement. Was können diese Technologien leisten? Für welchen Zweck sind sie geschaffen und was können sie eben auch nicht? Weil ich sehe jetzt auf Unternehmenseite zum Beispiel extrem viel Frust, weil die Erwartungen so groß sind. Und dann macht man ein Pilotprojekt und man sieht, naja, so prickelnd ist das nicht oder da gibt es Limitationen. Leider wird mich das geliefert.
01:17:56
Speaker
Genau, ja, also diese Sachen, das ist quasi irgendwie sozusagen teilweise der Bad-Side und natürlich auch der Good-Side mit allem, was wir mit dieser Technologie schaffen können, immer im dreidimensionalen Verhältnis, Gesellschaft, Wirtschaft. Letztes Thema, bevor wir zum Ende kommen, ich finde es total spannend, ich möchte, dass es an dieser Stelle schon mal
01:18:20
Speaker
einfordern, dass wir das zu gegebenem Anlass nochmal fortsetzen und vertiefen und in die einzelnen Bereiche und in die Entwicklungen nochmal eintauchen. Ich hoffe, du bist da dabei. Letztes Thema, was uns jeden betrifft, nämlich sozusagen
01:18:37
Speaker
Ist KI Demokratie gefährdend?
Bedrohung der Demokratie durch KI
01:18:40
Speaker
Ist das zum Beispiel auch in Davos oder in der Regierung sozusagen, ist das Thema Deepfake ein Concern? Ja, put me at ease, please.
01:18:55
Speaker
Ich weiß nicht, ob ich quasi hier at ease, aber zumindest eins kann ich sagen, das Thema ist sehr, sehr präsent, war auch in Davos sehr präsent, das Thema Deepfake. Das heißt, die Vermischung oder die Unterscheidung zwischen Wahrheit und Unwahrheit wird immer, immer schwieriger. Und das Thema Deepfake, Manipulation, demokratiepolitische Aspekte von KI sind sehr, sehr hoch auf der Agenda, gerade in diesem Jahr, wo Wahlen global stattfinden.
01:19:22
Speaker
ist natürlich auch ein starkes Thema im KI-Beirat. Und das Thema, man muss sich vergegenwärtigen, das KI, generative KI, das geht über Medienkreation hinaus. Es betrifft den gesamten Zyklus von der Medienerstellung, das heißt Pre-Production bis hin zur Produktion, bis hin zu Post-Production, bis hin zu den Themen Distribution und Marketing.
01:19:48
Speaker
wo wir sehen, dass sehr mächtige Recommender-Systeme hier dann unsere Präferenzen filtern und uns versuchen, Content, der geeignet ist für uns oder nicht, und auch mit einer Hidden Agenda anzupreisen. Und das Thema jetzt auf die nächste Ebene gespielt, das betrifft uns jetzt persönlich in der direkten Konsumation von Medien und hat natürlich auch gefährliche Aspekte, wenn wir es gesellschaftspolitisch denken. Das Thema Manipulation,
01:20:19
Speaker
Meinungsbeeinflussung, das Entstehen von Bubbles und dann, wenn man es jetzt da quasi wirklich in die negative Ecke weiterspielt, was das alles bedeuten kann, Gefährdung von Medienvielfalt, von Medienfreiheit, von Meinungsfreiheit nicht,
01:20:35
Speaker
wenn wir alle die gleichen Tools verwenden, die auf der gleichen Grundlage trainiert wurden, mit dem gleichen Input, die alle einen ähnlichen Output rauswerfen und das Ganze sehr günstig und effizient ist. Erstens, wie erkennen wir hier Fakten von Nicht-Fakten auseinander?
Manipulation und Desinformation durch KI
01:20:53
Speaker
Wo ist da die Vielfalt? Österreich lebt ja sehr viel von Vielfalt. Wir haben Tiroler Tageszeitungen bis Tageszeitungen in Wien. Wir haben unterschiedliche Radiosender mit unterschiedlichen Programmen.
01:21:04
Speaker
sehr viele unterschiedliche Medien, und das Ganze gilt für ganz Europa, dass das nicht alles irgendwann zu einem Einheitsbrei verschwimmt, ohne Diversität, ohne Vielfalt, ohne regionales Couleur zum Beispiel. Das ist ein großes Thema. Und dann natürlich das Thema, es gibt immer Akteure, die diese technischen Entwicklungen für ihre Zwecke missbrauchen. Das Thema Missbrauch dieser Technologien, du hast es angesprochen, Deepfake Content,
01:21:30
Speaker
astronomische Zahlen. Also ich glaube, Deep Fake Fraud ist mehr als 3000 Prozent, hat sich das in der Welt verbreitet. Also der neue Oma-Anruf mit einer KI-geklonten Stimme, weiß ich wirklich an wie die Oma oder CEO Fraud 2.0, wo dich der Geschäftsführer anruft und fragt bitte über Weiserasch 35 Millionen, weil es ist dringend. Hatten wir im Burgenland schon. Ja und man kann es nicht mehr auseinander kennen, weil du von einem YouTube-Video de facto einen Klon erzeugen kannst.
01:21:59
Speaker
Aber das war sozusagen noch nicht politisch Grund genug, kurz vielleicht zur Erklärung. Es gab ja auch schon, ich meine es war in der Slowakei kurz vor den Wahlen kamen dann zufällig Deepfakes eines der beiden Spitzenkandidaten raus mit Dingen, die er nicht gesagt hat.
01:22:15
Speaker
die dann natürlich auch die Wahl beeinflusst haben. Oder Ron DeSantis hat ja auch schon Trump geklont und die Dinge sagen lassen im Wahlkampf, die er nie gesagt hat und auch ganz klar und offen zugegeben hat, gesagt hat, ja, aber judge me on the basis of what? Es ist nicht, ja, also verklag mich, aber auf welcher Basis?
01:22:38
Speaker
Also das war jetzt sozusagen demokratiepolitisch noch nicht Grund genug, dem einen Riegel vorzuschieben, sondern man schaut sich es noch an und versucht es irgendwie in den Zaum zu kriegen, dem Herr zu werden. Ja, also die Frage ist, wie wird man dem Herr? Der AI-Act hat hinten bei den Hochrisiko-KI-Systemen beispielsweise den Einsatz von KI
01:23:03
Speaker
im Zusammenhang mit der Meinungsbildung als Hochrisiko-KI-System, nicht verboten, aber unter strengen Auflagen für die Produktion dieser Systeme und die Verwendung dieser Systeme. Das Thema Deepfake, der AI definiert das erste Mal, was ein Deepfake ist, also im Wesentlichen generierte Medien, die echt wirken könnten und legt eben diese Transparenzpflichten oder er legt auf diese Transparenzpflichten
01:23:32
Speaker
Das sind jetzt einmal die ersten Schritte, die der AI-Act dann in den Markt bringt. Und de facto ist es ein Thema, das betrifft, wenn wir uns jetzt auf das Thema Wahlen anschauen, jeden Politiker, jede Politikerin. Es gibt auf europäischer Ebene auch Guidelines, KI-Einsatz von Wahlen, gerade auch wegen der Zeit, in der wir sind.
01:23:54
Speaker
Aber man wird immer Akteure haben, die sich nicht an solche Guidelines oder auch nicht an Gesetze halten. Wir sehen es ja. Und hier wird eine der Kernfragen natürlich auch sein, wie geht man damit um und wie dämmt man das ein? Wie kann man dem Herr werden? Und ich glaube, das wird einer der wichtigsten Fragen auch sein, die wir heuer und in nächster Zeit zu lösen haben.
01:24:16
Speaker
Ja, weil am Ende dann ja der gewinnt ja das größte Rechenzentrum oder die meisten Prompter, keine Ahnung, die skrupellosesten Prompter beschäftigt oder so. Und das will ja keiner. Also da hat ja keiner Bock drauf, dass dann sozusagen wir in einem pseudodemokratischen System leben oder in einer Technokratie oder so, keine Ahnung.
01:24:39
Speaker
Ja, also viele spannende Themen, wo sich auch noch viel tun wird die nächsten Monate, Jeanette. Bevor wir zum Ende kommen und ich dir on camera das Versprechen abnehmen muss, dass du wieder kommst und wir das weiter diskutieren,
Zukunftsvision für ethische KI-Nutzung
01:24:53
Speaker
möchte ich noch deinen Ausblick auf die nächsten fünf Jahre und wenn du einen Wunsch frei hättest, sozusagen, du bist fair, bist einen Tag die Göttin dieser Erde. Was würdest du dir wünschen für dieses Thema?
01:25:13
Speaker
Sehr spannend, gerade auch über den Ausblick zu reden, im Zusammenhang mit meinem Wunsch. Wir werden jetzt hoffentlich von der Regulierung wegkommen zur Implementierung. Wir haben jetzt sehr viel reguliert mit dem EI-Act, aber auch mit anderen Rahmenwerken.
01:25:30
Speaker
Und mein Wunsch, und ich glaube, jetzt ist es Zeit, all diese Grundsätze, all diese Prinzipien, die wir festgelegt haben, einfach umzusetzen und einfach mal ins Tun zu kommen, die Ärmel hochzukrempeln und KI vertrauenswürdig einzusetzen für die Gesellschaft, für die Wirtschaft, weil ich glaube, das kann uns wirklich allen einen großen Mehrwert bringen. Und auch das wird neue Innovationen hervorbringen,
01:25:58
Speaker
die uns alle voranbringen. Und mein Wunsch ist wirklich, dass wir mit diesem Regelwerk zum Arbeiten anfangen und KI for Good einsetzen und dadurch einfach bessere Innovationen schaffen, mehr erreichen können und auch die großen Challenges, vor denen wir stehen, gerade
01:26:18
Speaker
Das Klima- und Umweltthema ist jetzt April und ich glaube, wir haben fast 30 Grad. Ich glaube, mir braucht man dazu nicht zu sagen, wo sich das hin entwickelt. Diese Sachen einfach gemeinsam proaktiv angehen, weil ich glaube, das sind die größten Challenges und da kann uns die Technologie helfen.
01:26:36
Speaker
Vielen Dank, Jeanette, dass du dir die Zeit genommen hast, uns mitzunehmen, zu entführen in deine nerdige, aber sehr, sehr wichtige und informative Welt. Mir hat es total Spaß gemacht. Ich bin um einige Infos reicher, aber auch um viele, viele Fragen. Deswegen bis bald. Danke, dass du da warst.
01:26:58
Speaker
Vielen, vielen Dank. Ich freue mich immer, mit dir zu plaudern. Und selbstverständlich komme ich wieder, wenn du mich noch einmal einlädst. Und lass uns einfach weiter im Dialog bleiben. Und was ich an den Gesprächen mit dir immer so schätze, wir beantworten viele Fragen, aber wir uncoveren mindestens genauso viele wichtige Fragen für die Zukunft. Und ich freue mich auf die Fortsetzung der Gespräche. Danke, Patrick. Danke dir. Mike Ryder Deep Talk.
01:27:33
Speaker
der Mic Rider Podcast.