Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#21 KI als Wirtschaftsfaktor oder doch nur Sales-bubble? Deeptalk mit KI-Anwältin Jeannette Gorzala image

#21 KI als Wirtschaftsfaktor oder doch nur Sales-bubble? Deeptalk mit KI-Anwältin Jeannette Gorzala

S1 E21 · Mic Rider Deep Talk
Avatar
69 Plays21 days ago

KI Anwältin Jeannette Gorzala besucht mich nach knapp einem Jahr zum  zweiten Map im Podcast.  

Wir sprechen über den Status Quo des AI Acts und die Rolle des AI Office  bei der Auslegung und Implementierung des Gesetzeswerks.  

Jeannette berichtet von ihren Eindrücken vom Weltwirtschaftsforum in  Davos. 

Spoiler Alert: die Ernüchterung ist groß. Was letztes Jahr noch  als die Lösung für eh alles gefeiert wurde, muss sich langsam aber  sicher die Frage der Daseinsberechtigung gefallen lassen.   

Lässt sich KI überhaupt flächendeckend wirtschaftlich implementieren  oder verpufft der Zauber gerade und bis auf ein paar Hobby-Youtuber und  TikTok-kanäle hat keiner was davon?  

Wir sprechen über Effizienz, Ressourcenmanagement (Stichwort seltene  Erden) und über Zuverlässigkeit.   

Nachrichten an: deeptalk@mic-rider.com  

Website: https://www.mic-rider.com/  

Host und Redaktion: Patrick Messe (https://www.patrickmesse.at/)  

Zu Gast:  Jeannette Gorzala (https://www.jeannette-gorzala.com/)  

Bild:  Charly Glawischnig (https://www.charlyglawischnig.com/)  

Ton: Lukas Wurm (https://lukaswurm.com/)  

Produktion: Mic Rider (https://www.mic-rider.com/)

Recommended
Transcript

Einleitung und Nutzung von KI in Unternehmen

00:00:00
Speaker
Wir haben alle ein bisschen Text erzeugt, wir haben alle ein paar lustige Bilder generiert.
00:00:04
Speaker
Und die Frage ist, wo können wir diese Technologie im Unternehmen einsetzen, dass sie tatsächlich Wert stiftet.

Krisen, Effizienz und Rohstoffknappheit

00:00:11
Speaker
Wir sind jetzt, glaube ich, schon in der x-ten Krise.
00:00:13
Speaker
Also wir hatten zuerst Corona, dann Energiekrise, Wirtschaftskrise, nicht?
00:00:18
Speaker
Alle Unternehmen sind konfrontiert mit Effizienzdruck, seltene Erden.
00:00:24
Speaker
brauchen wir sehr, sehr viel, insbesondere um die Infrastruktur herzustellen.
00:00:28
Speaker
Hier gibt es Prognosen, dass wir 2040 schon in einen Engpass kommen.
00:00:32
Speaker
Geil.

Vorstellung: Jeannette Gausala und KI-Entwicklungen

00:00:34
Speaker
Mike Rider Deep Talk.
00:00:37
Speaker
Menschen.
00:00:38
Speaker
Business.
00:00:39
Speaker
Diskussionen.
00:00:41
Speaker
Der Sprecher-Podcast.
00:00:44
Speaker
Hi und herzlich willkommen zu einer neuen Folge Micrider Deep Talk.
00:00:47
Speaker
Heute bei mir im Studio Jeannette Gausala, die KI-Anwältin, die auch die Micrider Deep Talk-Reihe eröffnet hat vor fast einem Jahr.
00:00:56
Speaker
Jeannette, schön, dass du wieder da bist.
00:00:58
Speaker
Vielen Dank für die Einladung.
00:00:59
Speaker
Ich freue mich sehr, heute wieder hier zu sein.
00:01:02
Speaker
Ich freue mich auch sehr, weil wir können jetzt besprechen, was in diesem Jahr

Das KI-Gesetz: Fortschritte und Auswirkungen

00:01:06
Speaker
alles passiert ist.
00:01:06
Speaker
Erzähl mal vielleicht aus deiner Perspektive, dein 24 bis Anfang 25, was ist KI-technisch so alles passiert?
00:01:17
Speaker
Es ist sehr, sehr viel passiert.
00:01:19
Speaker
Wenn ich mich noch erinnere, das letzte Mal, dass wir eröffnet haben, haben wir uns noch überlegt, kommt der IAC, in welcher Form kommt er.
00:01:27
Speaker
Nun ist es fix, also seit August 2024 ist der Rechtsakt abgeschlossen und der IAC tritt jetzt schrittweise in Kraft.
00:01:36
Speaker
Wir haben da auch schon die ersten zwei Checkpoints, wenn man so möchte, durchlaufen mit Februar 2025.
00:01:42
Speaker
KI-Kompetenz und verbotene KI-Praktiken waren hier abzuklären.
00:01:49
Speaker
Und auch sonst tut sich sehr, sehr viel im KI-Ökosystem ab.
00:01:53
Speaker
Wir hatten den AI Action Summit in Paris.
00:01:56
Speaker
Es gab sehr, sehr viele Veranstaltungen.
00:01:58
Speaker
Es ist ein großer Buzz und auch Drive im Ökosystem, insbesondere da jetzt mehr Aussicht auf Finanzierung in Europa, auch für KI-Startups und Unternehmen winkt, die sich mit dieser Thematik beschäftigen wollen.

Bedeutung der KI-Gesetzgebung für Unternehmen

00:02:12
Speaker
Ja, spannend.
00:02:12
Speaker
Viele Fragen.
00:02:13
Speaker
Werden wir auch auf alles noch zu sprechen kommen, auch auf den AI Action Summit, aber ich würde gerne kurz vielleicht beim AI Act.
00:02:19
Speaker
Was bedeutet das konkret, die zwei Checkpoints, die du erwähnt hast, die KI-Kompetenz und die verbotenen KI-Praktiken für uns als Wirtschaft, als Bürger, als Europäer?
00:02:32
Speaker
Ich fange mal an vielleicht mit den verbotenen KI-Praktiken, da es relativ einfach erklärt ist.
00:02:38
Speaker
Im AI Act haben wir acht Use Cases, die in der Zukunft nicht mehr in Europa weder entwickelt noch deployed werden sollen.
00:02:48
Speaker
Da geht es um Themen wie Emotionserkennung am Arbeitsplatz zum Beispiel oder in Bildungseinrichtungen, Aufbau von Gesichtsdatenbanken,
00:02:57
Speaker
aber auch bestimmte Formen der biometrischen Kategorisierung oder mit Ausnahmen, aber nichtsdestotrotz, Echtzeitüberwachung an öffentlichen Orten für Rechtsverfolgungszwecke und noch ein paar andere Tatbestände, die sind ab 2.
00:03:11
Speaker
Februar 2025 verboten.
00:03:14
Speaker
Das heißt, alle Organisationen sind und waren aufgerufen, sicherzustellen, dass sie keine derartigen Praktiken im Unternehmen einsetzen, beziehungsweise dass vielleicht Use Cases oder Systeme, die in diese Richtung entwickelt wurden, dass das hier auch entweder in Einklang gebracht wird, auf eine zulässige Art und Weise oder gestoppt wird.
00:03:34
Speaker
Der zweite Punkt war das Thema KI-Kompetenz.
00:03:37
Speaker
Da gab es in den letzten Wochen auch sehr, sehr viel Berichterstattung darüber.
00:03:40
Speaker
Der AI Act schreibt vor, dass Organisationen, die KI einsetzen, hier auch die entsprechenden Kompetenzen aufbauen müssen.
00:03:50
Speaker
Was heißt das jetzt?
00:03:52
Speaker
Als Organisation, als Unternehmen musste ich mich auseinandersetzen mit meiner Rolle.
00:03:57
Speaker
Das heißt, bin ich Anbieter, entwickle ich selbst KI-Systeme oder bin ich vielleicht nur Betreiber und setze Lösungen von Drittparteien ein?
00:04:06
Speaker
Die zweite wichtige Frage ist hier natürlich dann, welche Art von KI-Lösungen, welche Art von KI-Systemen setzt sich ein und welches Risiko ist mit diesen Systemen verbunden?
00:04:16
Speaker
Das heißt, ein LLM, Jenny Eye Tools sind hier natürlich anders zu beurteilen.
00:04:21
Speaker
Hier sind andere Fragen wichtig, wie zum Beispiel Datenverwendung, vielleicht Urheberrechte, vielleicht auch KI- und Medienbildung und kritisches Hinterfragen der Inhalte, die aus diesen Tools kommen.

Anpassungen und Herausforderungen durch das KI-Gesetz

00:04:32
Speaker
Oder andere Systeme, die mit einem erhöhten Risiko vielleicht verbunden sind.
00:04:36
Speaker
Das sind zum Beispiel HR-Systeme, andere Emotionserkennungs- oder biometrische Systeme, KI, teilweise für Kredit- und Bonitätsscoring.
00:04:45
Speaker
Da ist aufgrund des Risikos einfach eine andere Herangehensweise gefragt.
00:04:52
Speaker
Und ich bin als Arbeitgeber quasi verpflichtet, meinen Mitarbeitern dieses Wissen zur Verfügung zu stellen, anzutrainieren, wie auch immer, damit wir alle wirtschaftlich und gesetzeskonform miteinander arbeiten können.
00:05:10
Speaker
Stimmt das ungefähr?
00:05:11
Speaker
Genau, ja.
00:05:12
Speaker
Und der Punkt ist, der AI-Act schreibt hier kein One-Size-Fits-All-Konzept für alle unisono vor, sondern es ist tatsächlich organisationsspezifisch, was ja auch eine Chance ist, weil dann kann ich entsprechend für mich, für meine Organisation hier ein adäquates, passendes Konzept machen.
00:05:31
Speaker
Und tatsächlich, also wie du gesagt hast, es geht hier darum, diese Kompetenz bei den Mitarbeitern aufzubauen, damit die dann entsprechend die Chancen verstehen dieser Technologie und mit den Chancen umgehen können, aber auch Awareness für die Herausforderungen und Risiken besteht und auch für die rechtlichen Themen, die mit dem Einsatz zusammenhängen, um hier natürlich einen möglichst sicheren, möglichst rechtskonformen Zugang zu der Technologie zu fördern.
00:05:58
Speaker
Ja, grundsätzlich finde ich das total gut und richtig und wichtig natürlich.
00:06:04
Speaker
Sonst hätte ich es nicht gesetzlich erlassen.
00:06:08
Speaker
Aber das trifft einen anderen Punkt, den ich gerne mit dir diskutieren würde, nämlich meine Empfindung ist es, dass der AI-Act fast noch mehr Fragen offen lässt oder zumindest Interpretationsspielraum zulässt in der Auslegung, als er eigentlich vorliegt.
00:06:26
Speaker
Fast regelt.
00:06:29
Speaker
Ist das nur meine Empfindung?
00:06:31
Speaker
Siehst du das auch so?
00:06:32
Speaker
Und wie empfindest du das als Juristin, dass man so viel der Auslegung und der Anwendung dem AI Office und in weiterer Folge den Gerichten dann an Verantwortung überlässt?
00:06:47
Speaker
Also ich glaube, er gibt uns schon einen Rahmen.
00:06:52
Speaker
Ich würde den AI Act wie ein Haus sehen.
00:06:54
Speaker
Es stehen jetzt die Grundmauern und jetzt gilt es, dieses Haus einzurichten.
00:06:59
Speaker
Da werden natürlich dann Standards helfen, erste Urteile helfen, Best Practices helfen.
00:07:04
Speaker
Ich glaube aber schon, dass die Grundpfeiler fest eingeschlagen sind.
00:07:08
Speaker
Das heißt, so ganz frei und mehr Fragen aufwerfend, als er beantwortet, würde ich nicht sehen.
00:07:14
Speaker
Und ich sehe das aber auch als einen Vorteil.
00:07:18
Speaker
Das liegt vielleicht auch daran, dass ich mit der juristischen Brille drauf schaue und dass man sich als Unternehmer vielleicht klarere Sätze oder klarere Benchmarks wünscht.
00:07:26
Speaker
Aber ich sehe die Möglichkeiten, die der IACT einräumt, indem man halt
00:07:30
Speaker
einfach auch Spielräume schafft für adäquate, verhältnismäßige Maßnahmen als einen Vorteil, nicht?
00:07:38
Speaker
Weil ich kann natürlich ein fixes, starres One-Size-Fits-All-Konzept machen.
00:07:43
Speaker
Da erfasse ich vielleicht zu viel und Unternehmen müssen vielleicht mehr tun, als sie eigentlich tun müssten oder adäquat wäre.
00:07:52
Speaker
Indem ich unbestimmte Gesetzesbegriffe verwende, auf die du anspielst, die vielleicht jetzt nicht so beliebt sind, gebe ich aber hier die Möglichkeit, passender zu arbeiten.
00:08:03
Speaker
Und das, glaube ich, diese Ermessensspielräume muss man auch als Vorteil sehen.

Einfluss und Fairness in der Entwicklung des KI-Gesetzes

00:08:07
Speaker
Natürlich ist es mit Unklarheiten verbunden.
00:08:10
Speaker
Und es wird eine gewisse Schwankungsbreite wahrscheinlich tolerabel sein.
00:08:14
Speaker
Wenn man dann außerhalb der Schwankungsbreite ist, wird man vielleicht entweder übercompliant sein oder nicht compliant sein.
00:08:21
Speaker
Aber das gilt es jetzt auszuloten und gemeinsam zu formen.
00:08:25
Speaker
Ich sehe das jetzt aber nicht wirklich als einen ausschließlichen Nachteil.
00:08:29
Speaker
Ja, es ist sicher die Perspektive, mit der ich drauf schaue, aus einer selbstständiger, kreativer Dienstleisterbrille hätte ich mir Sicherheit und Klarheit und Eindeutigkeit gewünscht an vielen Punkten, die jetzt halt erst gerade vom AI-Office ausgearbeitet werden, Stichwort Code of Practice.
00:08:51
Speaker
Wie beobachtest du die Entwicklung und den Code of Practice?
00:08:55
Speaker
Hat es deiner Meinung nach, deiner Einschätzung nach Hand und Fuß?
00:08:59
Speaker
Geht es in die richtige Richtung oder wird es auch wieder eher eine, wir versuchen es mal ein bisschen zu bearbeiten, aber dann verschieben wir es doch lieber in die andere Abteilung, nämlich dann überlassen wir es den Gerichten, dann müssen die Musterklagen bis vor das EuGH gehen und so weiter.
00:09:20
Speaker
Ja, also der Prozess zu den Codes of Practice läuft jetzt schon einige Monate.
00:09:27
Speaker
Es sind mehr als tausend Stakeholder eingebunden in vier Arbeitsgruppen, die sich mit den Themen beschäftigen.
00:09:33
Speaker
Für dich als Kreativer ist wahrscheinlich am interessantesten das Thema Transparenz und Copyrights.
00:09:39
Speaker
Das sind ja auch drin mit der UVA, entschuldige, dass ich da reingrätsche, ja, genau.
00:09:43
Speaker
Ja, also das finde ich ja auch gut, dass man hier auch die Stakeholder aus dem kreativen und Medienbereich hat und da einfach die unterschiedlichen Sichtweisen reinbringt.
00:09:53
Speaker
Die Arbeiten gehen gut voran.
00:09:54
Speaker
Wir haben jetzt zwei Entwürfe dieser Codes of Practice schon gesehen.
00:09:58
Speaker
Es ist natürlich eine sehr sportliche Zeitschiene.
00:10:01
Speaker
Also die Arbeitsgruppen haben letztes Jahr angefangen im Oktober, November.
00:10:05
Speaker
Fertig müssen die Codes sein April, Mai, weil die Verpflichtungen dann ab August gelten sollen.
00:10:11
Speaker
Es ist viel Arbeit.
00:10:13
Speaker
Es ist eine komplexe Thematik.
00:10:16
Speaker
Ja, das macht es jetzt nicht unbedingt einfacher, auch diese vielen Standpunkte zusammenzubringen.
00:10:21
Speaker
Ich glaube, alle Stakeholder bemühen sich wirklich nach Kräften hier, zu guten Kompromissen zu kommen.
00:10:27
Speaker
Und ich glaube, die Codes of Practice werden tatsächlich auch die Verpflichtungen für die Modellanbieter besser ausdefinieren und hier mehr Klarheit bringen.
00:10:36
Speaker
Weil wenn wir uns im AI-Act diese Verpflichtungen anschauen oder einfach nur, ich würde sagen, wie viel Text drauf entfällt, dann sind das, glaube ich, schlanke vier, fünf Seiten mit ein paar Annexes.
00:10:47
Speaker
weil das Thema erst relativ spät hineingerutscht ist durch der Rise of JetGPT und Large Language Models.
00:10:53
Speaker
Das heißt, gerade da braucht es mehr Informationen und die Codes of Practice, glaube ich, können hier auch mehr Klarheit, mehr Anleitung bieten.
00:11:02
Speaker
Ja, das empfinde ich grundsätzlich auch so.
00:11:06
Speaker
Mir ist zum Beispiel, weil wir da auch drin sind in diesen Working Groups, ist zum Beispiel schleierhaft die Verteilung der Interessen der Stakeholder.
00:11:16
Speaker
Es sind definitiv alle mir bekannten Branchenvertretungen der Kreativen drin, definitiv.
00:11:25
Speaker
Aber es sind halt auch super viele Anwälte,
00:11:28
Speaker
und industrielle Vertreterinnen dort, die natürlich das hauptberuflich machen.
00:11:35
Speaker
Muss ich ganz ehrlich so sagen.
00:11:37
Speaker
Es ist so, die machen einfach, das ist deren Job.
00:11:40
Speaker
Die werden gut dafür bezahlt, dass sie nur diese Lobbyarbeit, diese Form von Arbeit machen.
00:11:46
Speaker
Und in diesen Working Groups ist mir nicht sehr transparent, ob das ausgewogen ist.
00:11:54
Speaker
Und natürlich, weil du das ansprichst mit dem sportlichen Zeitplan, das muss ich unterschreiben, dass eine Organisation, die ehrenamtlich tätig ist, die sich vielleicht ein, zwei, drei Anwälte leisten kann,
00:12:06
Speaker
hat denselben Zeitrahmen zur Verfügung wie eine ganze Legal-Abteilung eines internationalen Konzerns, der diese Legal-Abteilung nur für diesen Zweck überhaupt ins Leben gerufen hat.
00:12:20
Speaker
Vielleicht oder ausgeklammert hat aus dem allgemeinen betrieblichen Alltag.
00:12:30
Speaker
Findest du das fair?
00:12:33
Speaker
Suggestive Frage.
00:12:36
Speaker
Oder hast du einen anderen Einblick?
00:12:37
Speaker
Ich meine, ich lasse mich ja nichts lieber, als wenn du mir jetzt sagst, nein Patrick, das sind… Alles gut.
00:12:43
Speaker
Danke.
00:12:45
Speaker
Nein, also der Punkt ist halt, also ich glaube jeder Jurist hat das erstes Recht und Gerechtigkeit in zwei Paar Schuhe.
00:12:53
Speaker
Und du sprichst auch Kritikpunkte dieser Arbeitsgruppen natürlich an, die jetzt so nicht unberechtigt sind.
00:12:59
Speaker
Also wie du gesagt hast, der Zeitplan zum Beispiel.
00:13:02
Speaker
Dadurch, dass du eh auch selbst in den Arbeitsgruppen bist, hast du wahrscheinlich mitbekommen, dass es immer relativ kurzfristig kommt.
00:13:09
Speaker
dass die Vorbereitungszeit, wie du gesagt hast, dann auch nicht so lange ist, wie man sich das wünscht oder bei der komplexen Thematik brauchen würde.
00:13:17
Speaker
Insbesondere, wenn es dann ein Ungleichgewicht an Ressourcen gibt, dass man da einfach mehr schneller bewältigen muss.
00:13:25
Speaker
Transparenz in diesen Arbeitsgruppen, also quasi tatsächlich,
00:13:30
Speaker
Ob das Gleichgewicht der Stakeholdergruppen jetzt, wer welche Ressourcen hat, das ist, glaube ich, auch tatsächlich nicht so offensichtlich.
00:13:40
Speaker
Es gibt eine Liste einer öffentlichen, der vertretenen Stakeholder, das schon.
00:13:45
Speaker
Aber ob das dann tatsächlich auch ausgewogen innerhalb der einzelnen Arbeitsgruppen ist, also das kann ich jetzt so auch nicht beurteilen.
00:13:53
Speaker
Ich glaube, das Wichtige ist, auf jeden Fall die Chance zu nutzen, dass man da in dieser Stakeholdergruppe gehört wird.
00:14:00
Speaker
Weil diese Gruppen wurden auch relativ kurzfristig eingerichtet, also im Sommer letzten Jahres, also August.
00:14:06
Speaker
Es ist jetzt auch nicht jeder außer ich alert auf Policy und Legal.
00:14:12
Speaker
Die meisten Leute werden am Strand gelegen sein.
00:14:14
Speaker
Das heißt, es gibt viele, die da auch gar nicht in diesen Stakeholder-Prozess vielleicht hineingekommen sind.
00:14:19
Speaker
Das höre ich auch sehr, sehr oft.

Globale Auswirkungen und der Brüsseler Effekt

00:14:21
Speaker
Und diese Gruppen sind dabei ein abgeschlossener Kreis.
00:14:24
Speaker
Das heißt, wenn man die Möglichkeit hat, dort gehört zu werden, sich auf jeden Fall einzubringen,
00:14:30
Speaker
Und auch würde ich empfehlen, natürlich sind Fristen wichtig, aber wenn man jetzt einfach zwei, drei Tage länger braucht, trotzdem die Chance nutzen, an die Chairs und Vice Chairs schreiben und dort seine Meinung, Stellungnahmen und Empfehlungen einbringt.
00:14:46
Speaker
Ja, mir würde ja schon eine in Anführungsstrichen Klarnamenpflicht in diesen Calls reichen, dass man weiß, welcher Vertreter welcher Kanzlei für wen steht.
00:14:57
Speaker
Das kann man dann eh im Nachhinein sich zusammenreimen anhand des Inhaltes, ob der eher dereguliert oder eher industriefreundliche oder Urheber- oder bürgerfreundliche, sage ich jetzt mal datenschutzfreundliche,
00:15:14
Speaker
Vorschläge einbringt.
00:15:16
Speaker
Aber es ist, fände ich der Transparenz halber nett, aber natürlich, da hast du vollkommen recht, man versucht hier, glaube ich, während das Pferd galoppiert ist, zu satteln und gleichzeitig drauf zu springen und zu reiten.
00:15:31
Speaker
Und das ist natürlich, muss man dann immer irgendwann auch Abstriche machen und sagen, so, das ist es jetzt.
00:15:37
Speaker
Ihr könnt gerne mitspielen, wenn ihr wollt.
00:15:38
Speaker
Und ja, wer nicht, hat halt Pech gehabt.
00:15:41
Speaker
Trotzdem
00:15:42
Speaker
fühlt es sich eben für mich, jetzt habe ich nicht ich gesagt, das hat der gute Matthias Hornschuh mal gesagt, dass wir versuchen ehrenamtlich zu retten, was andere hauptberuflich kaputt machen wollen.
00:15:54
Speaker
Und das ist einfach ein Ungleichgewicht im Kräfteverhältnis und im Ressourcenverhältnis, ob ich das will oder nicht.
00:16:03
Speaker
Also ich verstehe die Bedenken und ich sehe natürlich auch das Ungleichgewicht der Ressourcen, weil wie du sagst, ein ehrenamtlicher Verband, der Sprecher, Sprecherinnen vertritt, die Vereinigungen für diverseste anderen Mediengruppen.
00:16:18
Speaker
Natürlich ist das ein Unterschied, wenn ich jetzt vielleicht ein paar In-House-Juristen habe und externe Unterstützung versus Juristen.
00:16:25
Speaker
Ganze ausgelagerte Rechtsabteilungen mit einer anderen Kriegskasse, die hier auch natürlich ihre Vorschläge einbringen.
00:16:35
Speaker
Ich glaube aber schlussendlich kommt es dann auch auf die Rolle der Chairs und Vice-Chairs an, die ihre Funktion mit Verantwortung hier wahrnehmen müssen.
00:16:44
Speaker
Natürlich ist es klar, dass es hier unterschiedliche Interessen gibt.
00:16:47
Speaker
Das ist ganz natürlich, wenn ich auf der einen Seite Modellanbieter habe und auf der anderen Seite Modellanbieter,
00:16:52
Speaker
Eine Gruppe, die im Wesentlichen Content, hochwertigen Content produziert, diverses der Medienformen und ich hier einen Ausgleich schaffen muss.
00:17:00
Speaker
Und mein Vertrauen liegt in den Chairs und Vice Chairs, dass die diesen Ausgleich dann auch herstellen und ihr Bestmöglichstes tun, einfach hier beide Interessengruppen zu berücksichtigen.
00:17:13
Speaker
Und tatsächlich zu einem Kompromiss kommen, der so gut wie möglich ausgewogen ist, unabhängig jetzt, ob jemand 500 Seiten Stellungnahmen einbringt, unter anderem nur zwei Seiten.
00:17:28
Speaker
Also ich glaube, das ist ein wichtiger Punkt.
00:17:32
Speaker
Ja, total, sehe ich auch so.
00:17:35
Speaker
Und ich finde es sehr spannend, dass sich auch nämlich, sage ich jetzt mal, Vertreter ethischer KI und Versuche von Fairtrade-KI,
00:17:48
Speaker
mit einwandfreiem Trainingsmaterial zum Beispiel oder einem sehr transparenten Entstehungsprozess sich in diesen Working Groups einsetzen, um einen Präzedenzmarkt zu schaffen.
00:18:03
Speaker
Ich habe mich jetzt vor zwei Wochen mit dem Kurt Paulsen unterhalten, der hat das auch so formuliert.
00:18:08
Speaker
dass sie den Brüssel-Effekt sehr wohl sehen, so wie mit den Cookies von der DSGVO.
00:18:17
Speaker
Es macht einfach wirtschaftlich keinen Sinn, zwei Systeme am Laufen zu haben und man orientiert sich dann in der Entwicklung immer am strengsten Ruleset und dann

Innovation und Regulierung im Gleichgewicht

00:18:28
Speaker
rollt man das halt global nach den strengsten Regeln aus und auch wenn die jetzt in den USA gar nicht zwingend notwendig wären vielleicht.
00:18:38
Speaker
Was ich sehr ermutigend fand, weil viele ja auch kritisieren, dass wir uns da irgendwie in ein Eck gemalt haben und uns selbst tot regulieren und so.
00:18:50
Speaker
Wie empfindest du das, was deine Beobachtung so als globalpolitisch gesehen hat?
00:18:55
Speaker
Ja, auf der einen Seite liest man natürlich die Headlines, die relativ reißerisch sind und denen ich nicht allen zustimmen kann.
00:19:02
Speaker
Wie du gesagt hast, Europa schafft sich ab, wir regulieren uns zu Tode.
00:19:07
Speaker
Die gesamte Innovation wird abwandern und wir werden als leerer Standort zurückbleiben.
00:19:13
Speaker
Also dem kann ich in dem Sinne so nicht zustimmen, weil, wie du sagst, der AI-Act war das erste umfassende Regelwerk für künstliche Intelligenzanwendungen.
00:19:24
Speaker
Und wir sehen auch diesen Brussels-Effekt, dass die Prinzipien des AI-Acts hier auch als Anleitung dienen für andere Rechtsräume.
00:19:33
Speaker
Es ist gerade neueste News.
00:19:35
Speaker
Korea hat zum Beispiel einen AI-Act erlassen.
00:19:40
Speaker
In Kalifornien gab es einige rechtliche Entwicklungen und Gesetze, die zu KI erlassen wurden.
00:19:49
Speaker
Colorado hat einen AI-Act erlassen, der 2026 in Kraft tritt und diverse andere Rechtsordnungen auch.
00:19:56
Speaker
Das heißt, wir sehen hier diesen Ausstrahlungseffekt des AI-Acts und der KI-Prinzipien.
00:20:03
Speaker
Und es ist nicht so, dass nur Europa reguliert und KI in allen anderen Jurisdiktionen unreguliert ist und Wilder Westen herrscht.
00:20:12
Speaker
Ganz im Gegenteil.
00:20:13
Speaker
Also wir sehen hier schon,
00:20:15
Speaker
global einen Weg zu Governance, natürlich teilweise in anderer Form, teilweise vertikal mit anderer Zielrichtung, aber es ist tatsächlich nicht so, dass nur wir regulieren, von Asien bis in die USA, von quasi bis in die Südhalbkugel wird hier an Regulierungen gearbeitet, um diese Technologie, die ja eine Schlüsseltechnologie ist und sehr viel Gutes bringen kann, auch auf solide und sichere Beine zu stellen.
00:20:44
Speaker
Wir reden immer vom Gegensatz zwischen Regulierung und Innovation.
00:20:48
Speaker
Ich glaube, es geht darum, sichere Innovation zu schaffen.
00:20:51
Speaker
Und wie mache ich das?
00:20:53
Speaker
Indem ich das Ganze durchaus mit Governance und Risikomanagement angehe, um die Schwachstellen und Herausforderungen entsprechend zu adressieren.
00:21:01
Speaker
Ja, das finde ich sehr spannend, weil du gesagt hast, Südkorea, ich nehme mal an, es war Südkorea, nicht Nordkorea, dass Südkorea ein AI Act erlassen hat und auch in Kalifornien und Colorado.
00:21:15
Speaker
Sind das nach dem Vorbild des AI Acts?
00:21:20
Speaker
ähnliche oder gleiche Regelwerke oder ist es jetzt nur eine Überschrift, ein Name und der Umgang mit dem Thema KI ist aber vielleicht ein ganz anderer, weil gerade zum Beispiel für Kalifornien wäre es natürlich extrem interessant, weil dort natürlich die meisten Tech-Konzerne sitzen, wie dort vor Ort umgegangen wird und wie reguliert wird.
00:21:48
Speaker
Hast du da einen Einblick dazu, wie streng die sind oder wie sie sich unterscheiden zum europäischen Ereignis?
00:21:54
Speaker
Weil du gerade Kalifornien ansprichst zum Beispiel.
00:21:57
Speaker
Also das sind Einzelgesetzgebungen, die bestimmte Aspekte von KI betreffen.
00:22:02
Speaker
Also Transparenz, urheberrechtliche Themen, persönlichkeitsrechtliche Themen.
00:22:07
Speaker
Also es geht quasi mehr in die Richtung thematische Einzelregelungen für bestimmte Aspekte und in die Vertikale.
00:22:14
Speaker
Versus der AI Act ist ja ein horizontales Regelwerk,
00:22:18
Speaker
der über alle Branchen im Wesentlichen hinübergeht und sich bestimmte Aspekte oder bestimmte Systeme herauspickt, die als mit mehr Risiko behaftet gelten.
00:22:31
Speaker
Der Colorado AI Act, da muss man sagen, okay,
00:22:34
Speaker
Da wurde Anlehnung genommen an die Prinzipien, die im AI-Act vorkommen und auch an die Grundsatzprinzipien, weil es gibt ja zum Thema AI-Governance sehr, sehr viel und auch sehr, sehr viel internationale Arbeiten.
00:22:48
Speaker
Es gibt die OECD-Prinzipien aus 2019, die 2024 überarbeitet wurden.
00:22:54
Speaker
Es gibt den Global Digital Compound der UN zum Beispiel.
00:22:59
Speaker
UNESCO Recommendations.
00:23:01
Speaker
Es gibt ja eine sehr, sehr breite Grundlage, auch G7, Hiroshima, Guidelines und Prinzipien.
00:23:07
Speaker
Und auch da, wenn man diese Dinge nebeneinander legt, sieht man ja, es sind bewährte Praktiken, die jetzt jedem, der sich mit KI beschäftigt, auch nicht fremd sind.
00:23:18
Speaker
Datenqualität zum Beispiel.
00:23:20
Speaker
Wir wissen, garbage in, garbage out.
00:23:22
Speaker
Datenqualität ist ein großer Punkt.
00:23:23
Speaker
Risikomanagement, Transparenz, Kontrolle und Verantwortung, technische Robustheit.
00:23:29
Speaker
Also das sind jetzt keine neuen Sachen und Best Practices eigentlich, an die sich KI-Unternehmen ohnehin schon lang orientiert haben.
00:23:38
Speaker
Zumindest diejenigen, die diesen vertrauenswürdigen Ansatz schon gelebt haben und in ihren Produkten

Praktische Anwendungen von KI und geopolitische Einflüsse

00:23:44
Speaker
und Dienstleistungen abgebildet haben.
00:23:46
Speaker
Spannend.
00:23:49
Speaker
Wie siehst du das, weil wir jetzt gerade so bei der Welt und Weltwirtschaft sind?
00:23:53
Speaker
Du warst jetzt auch wieder in Davos.
00:23:56
Speaker
Ich kann mich erinnern, letztes Jahr, als wir gesprochen haben, warst du auch kurz vorher in Davos gewesen.
00:24:02
Speaker
Magst du ein Resümee ziehen, vielleicht auch beide Jahre vergleichen?
00:24:06
Speaker
Wie empfinden die Entscheider, die industriellen Großmächte, klingt jetzt bescheuert, aber du weißt, was ich meine oder jeder weiß, was ich meine, wenn wir von dem Weltwirtschaftsgipfel in Davos sprechen, einfach Innovatoren auf sehr systemischer Ebene.
00:24:24
Speaker
Wie sehen die das Thema KI?
00:24:26
Speaker
Wie wird es dort behandelt dieses Jahr, vielleicht auch im Vergleich zu letztem Jahr?
00:24:30
Speaker
Also man hat heuer gemerkt, die Stimmung ist eine Beyond-the-Hype-Stimmung.
00:24:35
Speaker
Also im Vorjahr, also wenn wir daran denken, 2024 war noch große Aufbruchsstimmung.
00:24:42
Speaker
Alle haben sich mit dem Thema beschäftigt.
00:24:45
Speaker
Es war viel Optimismus da und sehr viel Drive in diese Richtung.
00:24:48
Speaker
Es gab zum ersten Mal eine I-House in Davos.
00:24:52
Speaker
Und heuer war die Stimmung schon etwas, würde ich sagen, nüchterner.
00:24:57
Speaker
weil es jetzt tatsächlich darum geht, nach dieser initialen Aufregung Use Cases zu entwickeln, diese Technologien in den Produktivbetrieb zu bringen und tatsächlich mehr zu implementieren und mehr auszurollen.
00:25:10
Speaker
Und das sind dann schon einige mehr Herausforderungen.
00:25:14
Speaker
Zudem zum Zeitpunkt des Weltwirtschaftsgipfels, da stand ja dann auch die Angelobung des neuen US-Präsidenten Trump an.
00:25:21
Speaker
Das heißt, auch das hat die Stimmung beeinflusst.
00:25:23
Speaker
Alle waren sehr gespannt, haben sehr viel in die USA geschaut,
00:25:27
Speaker
Und dann gab es ja dieses Jahr auch sehr, sehr viele Announcements aus den USA, die genau während des Weltwirtschaftsgipfels dann die Medien erreicht haben.
00:25:37
Speaker
Also Stargate-Projekt, das Announcement, das man plant, 500 Milliarden in KI-Infrastruktur zum Beispiel zu investieren, hat natürlich große Wellen gemacht.
00:25:51
Speaker
Und natürlich den Blick auf Investitionen und Infrastruktur auch in Europa in den Brennpunkt gestellt, dass man da mal sieht, okay, wie sieht es eigentlich mit den Beträgen aus, die von unserer Seite hier investiert werden.
00:26:04
Speaker
Dann natürlich auch das Thema Regulierung slash Deregulierung.
00:26:09
Speaker
Gleich in den ersten Tagen seiner neuen Amtszeit hat der neue US-Präsident diverse Executive Orders erlassen, die dann auch alte Executive Orders aufgehoben haben.
00:26:25
Speaker
Also wenn wir uns erinnern an die alte Executive Order des vormaligen Vice-Präsidenten Biden zu KI, die wurde aufgehoben und es wird jetzt geplant dort einen neuen AI-Action-Plan für American AI-Leadership zu machen.
00:26:39
Speaker
der Ende Juni publiziert werden soll.
00:26:41
Speaker
Also alles ein bisschen in die Richtung Deregulierung.
00:26:44
Speaker
Ja, das waren alles sehr, sehr interessante Gespräche und natürlich das Thema Agenti GI.
00:26:50
Speaker
Das war schon letztes Jahr im Herbst eines der Basu-Wörter.
00:26:53
Speaker
Entschuldige, was ist das genau?
00:26:54
Speaker
Das kenne ich jetzt gar nicht.
00:26:56
Speaker
KI-Agenten, also das Thema, dass man tatsächlich kleine automatisierte Programme oder Module hat, die automatisch Tätigkeiten ausführen.
00:27:07
Speaker
Zum Beispiel einen KI-Agenten, der dir dein E-Mail-Postfach sortiert, die E-Mails zusammenfasst und eine Bullet-Point-Liste schickt von den Inhalten.
00:27:17
Speaker
Also solche Themen.
00:27:18
Speaker
Da kann er sich gleich selbst per E-Mail schicken.

Wirtschaftliche Bewertung und zukünftige Anwendungen von KI

00:27:20
Speaker
Ja.
00:27:22
Speaker
Ganz genau, solche Themen sind jetzt auch sehr, sehr stark im Fokus.
00:27:28
Speaker
Aber wie ist dann, ich höre sozusagen ein bisschen Verunsicherung, große Ernüchterung auch, dass der Hype jetzt eben nicht schon Wahrheit geworden ist.
00:27:42
Speaker
Geht es jetzt dann quasi mehr einfach um die nackten Zahlen und Tatsachen, dass man so ein System halt nicht auf Luft und Liebe aufbauen kann, sondern...
00:27:53
Speaker
In einer kapitalistischen Welt, in der wir nun mal leben, muss es wirtschaftlich auch sein und sich rechnen?
00:27:59
Speaker
Ist das auch ein Gesprächsthema geworden?
00:28:07
Speaker
Wie stellen die sich das vor?
00:28:10
Speaker
Es lebt ja jetzt schon lange nur von gigantischen Investorengeldern und irgendwann wollen diese Investoren ja auch
00:28:18
Speaker
Return on their investment, sonst würde es BlackRock und so gar nicht geben.
00:28:26
Speaker
Das ist ja deren Lebensaufgabe sozusagen.
00:28:30
Speaker
Ist das schon Thema, dass das ein Problem sein könnte, die Wirtschaftlichkeit von KI?
00:28:36
Speaker
Natürlich.
00:28:37
Speaker
Einerseits natürlich bei den Karriereentwicklern, du sprichst an, da werden Millionen und Milliarden investiert in die Modellentwicklung, in die Infrastruktur dafür.
00:28:47
Speaker
Natürlich wollen die Investoren dann am Ende des Tages auch einen Return of your Investment haben.
00:28:54
Speaker
Und das ist natürlich dann die Frage, in welcher Zeit das absehbar möglich wird, insbesondere wo jetzt noch mehr investiert werden soll in diese Modelle und die Beträge immer höher werden, aber auch auf Organisationsebene.
00:29:07
Speaker
Das heißt, alle Unternehmen, die KI einsetzen, sind jetzt in der Post-Experimentierphase tätig.
00:29:13
Speaker
Wir haben alle ein bisschen Text erzeugt, wir haben alle ein paar lustige Bilder generiert und die Frage ist, wo können wir diese Technologie im Unternehmen einsetzen, dass sie tatsächlich Wert stiftet.
00:29:26
Speaker
Wir sind jetzt da, glaube ich, schon in der x-ten Krise, also wir hatten...
00:29:29
Speaker
Corona, dann Energiekrise, Wirtschaftskrise.
00:29:32
Speaker
Alle Unternehmen sind konfrontiert mit Effizienzdruck.
00:29:39
Speaker
Und da ist natürlich die Frage, wenn wir in KI investieren, wie viel können wir hier an Potenzial gewinnen und an Potenzial heben?
00:29:47
Speaker
Und das ist eine Frage, die natürlich viele Unternehmen beschäftigt.
00:29:51
Speaker
Auch Unternehmen, die dann teilweise in Lizenzen investiert haben, ist die Frage, wie rollen wir das aus und wie können wir das sinnvoll einsetzen über die ersten spielerischen Versuche mit dieser Technologie.
00:30:03
Speaker
Ja, genau, das ist es ja.
00:30:04
Speaker
Das ist auch das, was ich beobachtet habe in dem Hobbybereich, wenn es jetzt darum geht, meinen
00:30:08
Speaker
YouTube-Kanal mit irgendwas zu wurscht, mit 24 Abonnenten oder so.
00:30:14
Speaker
Dafür ist das ja super, keine Frage.
00:30:16
Speaker
Das ist aber auch keine kommerzielle Anwendung.
00:30:19
Speaker
Du würdest dir sonst dafür auch nicht einen Menschen bezahlen und beauftragen, dass der dir deinen Hobby-YouTube-Kanal...
00:30:26
Speaker
irgendwie jetzt bespricht in meinem Fall oder dir das Video schneidet oder dir was auch immer Bilder, Content generiert oder so, sondern das ist ja eine Hobbygeschichte.
00:30:39
Speaker
Und wenn ich dann höre zum Beispiel, dass der Meta-KI-Chef selbst sagt, er sieht die Zukunft von KI nicht in generativer KI, wozu machen wir dann den ganzen Reibach?
00:30:53
Speaker
Also wenn schon jemand aus der absoluten Top-Tier-Entwickler-Schiene, aus einem Unternehmen, das das größte Interesse daran hat, das wirtschaftlich zu gestalten, sagt, nee, also KI hat Stärken, werden aber andere Sachen sein, die sich durchsetzen, generative KI,
00:31:17
Speaker
So habe ich es zumindest verstanden, ist eher ein Spielzeug oder ist eh lieb, aber das ist nicht wirtschaftlich zu kriegen.
00:31:26
Speaker
Ja, also ich glaube, es ist wichtig, dass wir genau vor Augen haben, was wir mit KI meinen und auch den Blick haben, dass es nicht nur generative KI gibt.
00:31:37
Speaker
Weil ich glaube, natürlich durch ChatGPT und diese Tools ist KI in der Masse angekommen.
00:31:41
Speaker
Man kann es relativ niedrigschwellig ausprobieren.
00:31:44
Speaker
Jeder kann das machen.
00:31:45
Speaker
Das war ein großartiger Effekt.
00:31:47
Speaker
Aber es gibt nicht nur Generative AI, Foundation-Modelle, Sprachmodelle.
00:31:51
Speaker
Es gibt daneben noch einen ganz großen Block an anderen Technologien, Machine Learning, Logik- und wissensbasierte Ansätze, die auch ihre speziellen Vorteile haben und die...
00:32:02
Speaker
spezifische Probleme lösen können.
00:32:04
Speaker
Und ich glaube auch, dass wir eben diesen breiten Blick brauchen und dass man für viele Applikationen eigentlich nicht Generative AI, sondern andere Technologien braucht und dass man dort eigentlich mehr Werte heben kann im Finanzbereich, im Energiebereich, im Medizinbereich zum Beispiel.
00:32:20
Speaker
Also ich glaube, dass tatsächlich dort sehr, sehr viel Potenzial und sehr, sehr viele Werte zu heben sind.
00:32:27
Speaker
Und wie du sagst, General TVI hat natürlich seine Stärken in der Kommunikation, in Content-Generierung, in Abstimmungsthemen und so weiter.
00:32:36
Speaker
Aber es ist nicht das Allheilmittel für alle Probleme.
00:32:41
Speaker
Das heißt tatsächlich...
00:32:42
Speaker
Sein Problem, auch mit der richtigen technischen Lösung anzugehen, ist etwas, das wir in Zukunft stärker im Blick haben sollten.
00:32:50
Speaker
Und weil du Meta angesprochen hast, etwas, das natürlich auch aufkommt oder immer mehr jetzt in die Richtung geht, ist die Verbindung natürlich mit der Robotik.
00:33:01
Speaker
Open AI hatte ja früher mal eine Robotic Division, die sie wieder ins Leben gerufen haben.
00:33:06
Speaker
Es wurden auch einige Marken angemeldet, wo auch einige Hardware-Produkte dabei waren.
00:33:10
Speaker
Das heißt natürlich Market-Bars, Ökosystem-Gerüchte, dass es jetzt auch in diese Richtung mehr Entwicklungen geht.
00:33:18
Speaker
KI-Roboter, Bewegungssensorik und so weiter.
00:33:22
Speaker
Das heißt auch das ist ein Feld, das man beobachten sollte.
00:33:26
Speaker
Ja, das würde mich ja freuen.
00:33:27
Speaker
Das ist ja nichts lieber als das.
00:33:30
Speaker
Aber dann lasst uns Kreative bitte in Ruhe damit.
00:33:35
Speaker
Du meinst einen KI-Roboter, der quasi deine Küche aufräumt und Boden wischt.
00:33:40
Speaker
Ja, aber nicht ein KI-Roboter, der deine Daten verwendet und dich obsolet macht.
00:33:45
Speaker
Zum Beispiel, wobei auch der KI-Roboter, der in meiner Küche, der putzt für mich, wäre mir schon nicht geheuer.
00:33:52
Speaker
Das nicht, aber ich hätte natürlich gerne eine bessere Krebsfrüherkennung.
00:33:56
Speaker
Ich hätte natürlich, das ist ja kein...
00:34:00
Speaker
Das haben wir, glaube ich, beim letzten Mal auch schon besprochen, wenn ich mich recht erinnere, dass das so von der medialen oder von der Presse-Aussendung der Tech-Konzerne so untrennbar miteinander verbunden ist.
00:34:14
Speaker
Wenn du ein effizienteres, was auch immer, Buchhaltungssystem haben willst, musst du halt leider deine Persönlichkeitsrechte aufgeben oder deine Urheberrechte oder so.
00:34:29
Speaker
Und ich glaube, wir kommen jetzt einfach in den Bereich, wo man das einfach differenzierter betrachtet und sagt, ja, das ist ganz lustig, damit kann man rumspielen.
00:34:38
Speaker
Aber de facto würde man es wirtschaftlich machen wollen, müsste so ein Abo dann plötzlich irgendwie 400-500 Dollar im Monat kosten und dafür ist es dann nicht mehr lustig genug,
00:34:50
Speaker
dass sich das Menschen irgendwie leisten, um was auch immer man halt da so rumspielt, sich Rezepte ausspucken zu lassen oder so, wie auch immer.
00:35:01
Speaker
Aber das finde ich ja grundsätzlich eine positive Nüchternheit, dass man das ein bisschen differenzierter betrachtet und
00:35:11
Speaker
Eben sagt, ja, wir haben das jetzt ausprobiert.
00:35:12
Speaker
Ich finde es immer noch nicht cool, wie das gelaufen ist mit den Trainingsdaten.
00:35:17
Speaker
Um das nochmal festzuhalten, das wird sicher auch nochmal aufgerollt werden.
00:35:25
Speaker
Vielleicht kurz dazu, was steht denn noch an jetzt vom AI Act bis der vollständigen Kraft tritt?
00:35:33
Speaker
Einiges.
00:35:33
Speaker
Die Codes of Practice, wie gesagt, sollen kommen ungefähr April dieses Jahres, weil dann ab August dieses Jahres die Verpflichtungen für Modellanbieter gelten sollen.
00:35:45
Speaker
Das heißt, alle neuen KI-Modelle, die ab 2.
00:35:47
Speaker
August 2025 in Verkehr gebracht werden sollen, müssen diese Verpflichtungen erfüllen.
00:35:53
Speaker
wo dann auch die Themen mit Transparenz und Copyright dabei sind, die in den Codes of Practices ausgearbeitet werden.
00:36:00
Speaker
Das heißt, diese Trainings-Content-Summary wird dann künftig von diesen Modellanbietern zu publizieren sein.
00:36:07
Speaker
Alle Modelle, die bereits am Markt sind, haben noch eine längere Übergangsfrist bis August 27.
00:36:12
Speaker
27, okay.
00:36:13
Speaker
Ich dachte 26, aber gut zu wissen.
00:36:18
Speaker
Also ich habe August 27 im Kopf.
00:36:21
Speaker
Deine Information sticht meine sicher.
00:36:23
Speaker
Na gut, ich kann mich auch hier.
00:36:25
Speaker
Das ist der Wunschvater des Gedanken.
00:36:27
Speaker
Du meinst, das gilt sofort und es gibt gar keine Zusammenfassung, sondern Sie müssen alles offenlegen.
00:36:34
Speaker
Das ist das, was ich geträumt habe.
00:36:36
Speaker
Also August 27 ist der Punkt, an dem der AI-Act vollständig in Kraft getreten ist.
00:36:42
Speaker
Richtig?
00:36:43
Speaker
Ja.
00:36:43
Speaker
Nicht ganz.
00:36:45
Speaker
Also August 27.
00:36:47
Speaker
Vielleicht fangen wir die Zeitschiene einfach noch einmal an, damit wir ein klares Bild haben von den einzelnen Verpflichtungen, weil es ist ja auch nicht so einfach, weil die einzelnen Anwendungsblöcke eben scheibchenweise dann bis August 27 in Kraft treten, aber es dann auch wieder, sonst wäre es ja wieder kein Rechtsakt, Ausnahmebestimmungen gibt für Modelle, die schon im Verkehr sind, die dann teilweise noch ein bisschen eine längere Umstellungsfrist auch haben.
00:37:12
Speaker
Okay.
00:37:13
Speaker
Also Februar 2025 verbotene KI-Praktiken und verpflichtend KI-Kompetenz in Organisationen.
00:37:21
Speaker
Dann August 2025 die Verpflichtungen für KI-Modellanbieter.
00:37:26
Speaker
Das heißt gerade alles, was in die Richtung Sprachmodell, Foundation-Modell, GeniEye geht.
00:37:31
Speaker
Alle Modelle, die neu ab August 2025 in Verkehr gebracht werden, müssen dann die entsprechenden Pflichten erfüllen.
00:37:39
Speaker
Und für Modelle, die schon am Markt sind, gilt dann eine längere Übergangsfrist bis August 2027.
00:37:45
Speaker
Das heißt, das würde vielleicht auch erklären, warum jetzt noch relativ viele Modelle vor diesem Stichtag in Verkehr gebracht werden.
00:37:52
Speaker
Also entscheiden, wer Böses denkt, nicht?
00:37:54
Speaker
Aber wäre zum Beispiel ein Anreiz oder eine Möglichkeit, das zu erklären?
00:37:59
Speaker
Ja.
00:37:59
Speaker
Dann haben wir August 26 als Stichtag.
00:38:02
Speaker
Ab August 26 gelten die Verpflichtungen für die Hochrisiko-KI-Praktiken.
00:38:08
Speaker
Das heißt, ein KI-System im HR-Bereich, im Bildungsbereich, im Bereich kritischer Infrastruktur.
00:38:14
Speaker
Dann muss die Governance für diese Themen sitzen.
00:38:17
Speaker
Dann haben wir August 27, wo wir ein bisschen eine verlängerte Übergangsfrist hatten für KI-Applikationen in bestimmten Produktbereichen.
00:38:26
Speaker
Also wo es um KI-Sicherheitsbauteile in Spielzeug, in Seilbahnen, in Schutzausrüstung, im Medizin- und in-vitro-Bereich geht.
00:38:35
Speaker
Die haben diese verlängerte Übergangsfrist, weil dann natürlich die bestehenden Standards angepasst werden müssen.
00:38:43
Speaker
Für all diese Dinge gibt es ja schon Normen, Produktstandards und dort soll das KI-Thema integriert werden.
00:38:49
Speaker
Und dann haben wir den allerletzten Checkpoint, das ist der August 30, wo dann tatsächlich alle auch unterschiedlichen Übergangsfristen auslaufen und alle, die dann in den AI-Act reinfallen, schlussendlich final compliant sein müssen.
00:39:06
Speaker
Okay, wow, das ist ja doch nochmal ein längerer Ausblick.
00:39:11
Speaker
Das ist ja in KI-Zeit, sind das ja Äonen.
00:39:15
Speaker
Jetzt noch fünf Jahre, naja, oder fünfeinhalb Jahre.
00:39:18
Speaker
Ja, das finde ich schon viel.
00:39:20
Speaker
Also, okay.
00:39:22
Speaker
Also da haben wir noch was vor uns.
00:39:24
Speaker
Wie gesagt, wir haben jetzt erst mal den ersten Schritt gemacht und wie du sagst, wir haben noch fünf Jahre vor uns, wo dann einzelne Checkpoints auch dann greifen, bis wir dann schlussendlich alles im Rahmen des AI-Acts haben.
00:39:39
Speaker
Bedeutet das dann auch in weiterer Folge, dass man erst
00:39:43
Speaker
Ende der 2020er Jahre beginnen kann zu klagen oder laufen diese Klagen dann schon auch in Europa parallel die ersten Instanzen durch und kommen dann vielleicht auch so etwa gleichzeitig zum Ende der 20er Jahre vor den EuGH und werden dann entschieden, wie ist das juristisch zu bewerten.
00:40:08
Speaker
Also klagen kann man immer.
00:40:09
Speaker
Ja gut, aber zum Beispiel, ich persönlich warte ja auf diese Zusammenfassung, diese ausreichend detaillierte Zusammenfassung der Trainingsdaten, in die ich dann einsehen kann, um zu erfahren, ob meine persönlichen biometrischen Daten ohne mein Einverständnis und meine Kenntnis genutzt wurden, um ein kommerzielles Produkt zu trainieren.
00:40:37
Speaker
Zum Beispiel für diesen Fall.
00:40:40
Speaker
Dazu zwei Sachen.
00:40:41
Speaker
Also ich würde jetzt nicht zu viel Hoffnung in diese ausreichend detaillierte Zusammenfassung der Trainingsdaten legen.
00:40:49
Speaker
Du bist ja auch in der Arbeitsgruppe, du hast sicher den ersten Entwurf gesehen.
00:40:52
Speaker
Also das wird nicht...
00:40:57
Speaker
sehr abstrakt und ausreichend detailliert heißt nicht alles.
00:41:01
Speaker
Es gibt dann diese einzelnen Schwellenwerte.
00:41:05
Speaker
Das heißt, man muss nicht alles offenlegen und die Frage ist dann tatsächlich, ob diese Daten so wichtig sind, dass sie eben diese Wichtigkeitsschwelle, dass sie da reinfallen, dass das dann tatsächlich öffentlich ist oder dass diese Daten vielleicht gar nicht so wichtig sind und dann einfach nicht Teil dieser Zusammenfassung sind.
00:41:23
Speaker
Also
00:41:25
Speaker
Hier, glaube ich, noch alles in die Arbeitsgruppe einbringen, was man kann zu diesen Ideen.
00:41:30
Speaker
Das einmal zu dieser Trainingsdaten-Summary.
00:41:33
Speaker
Jetzt zum Klagepunkt.
00:41:35
Speaker
Also wenn du sagst, deine biometrischen Daten, wichtig ist immer, auf welcher Grundlage.
00:41:40
Speaker
Und wenn wir gerade von biometrischen Daten reden, könntest du ja jetzt schon nach der Datenschutzgrundverordnung deine Rechte geltend machen, also die betroffenen Rechte.
00:41:49
Speaker
Anfrage, welche Daten werden über dich verarbeitet.
00:41:52
Speaker
Ja, echt.
00:41:53
Speaker
Läuft alles schon.
00:41:54
Speaker
Dann musst du mich auf dem Laufenden halten.
00:41:56
Speaker
Ist auf dem Weg nach Irland.
00:41:59
Speaker
Die österreichische Datenschutzbehörde hat schon ihr Bestes versucht zu einer gütlichen Einigung bei den diversen Playern.
00:42:07
Speaker
Und ja, jetzt warten wir weiter, was die irische Datenschutzbehörde sagt.
00:42:13
Speaker
Ja, ja.
00:42:14
Speaker
Sehr, sehr spannend.
00:42:15
Speaker
Also ich glaube, dazu müssen wir mal eine eigene Folge machen.
00:42:18
Speaker
Ja, die wird sehr trocken.
00:42:21
Speaker
Das hat der Datenschutz so an sich, deswegen ist er nicht beliebt, aber er ist durchaus ein privates Mittel, hier ein bisschen in diese Richtung zu gehen.
00:42:29
Speaker
Also Urheberrechte zum Beispiel, es gilt ja auch jetzt schon das Urheberrecht in Österreich und in allen anderen Mitgliedstaaten.
00:42:36
Speaker
Das heißt, sollte man hier Indizien haben oder sogar Beweise, kann man ja sich jetzt schon auf das Urheberrecht stützen.
00:42:45
Speaker
Allgemeiner zivilrechtlicher Schadensersatz sowieso.
00:42:49
Speaker
Wenn wir auf den AI-Act schauen, also das Strafkonzept im AI-Act sind im Wesentlichen Verwaltungsstrafen für die Anbieter oder für die Betreiber, wenn sie ihre entsprechenden Pflichten hier nicht erfüllen.
00:43:00
Speaker
Das Problem ist, dass wir, und das ist wieder ein Zeitschienenthema, dafür einmal Behörden brauchen, die dann auch diese Strafen einmal aussprechen könnten.
00:43:09
Speaker
Hier, die Behördenstruktur wird erst eingerichtet, das heißt, es ist Zeit bis dieses Jahr im Sommer.
00:43:15
Speaker
Das heißt, erst wenn wir dann eine Behörde tatsächlich haben, kann hier die Marktaufsicht beginnen und könnte es überhaupt erste Strafen geben.
00:43:24
Speaker
Aber das sind Verwaltungsstrafen.
00:43:25
Speaker
Das heißt, das würde dir jetzt als unmittelbar Betroffenen von Verletzung in vielleicht deinen Persönlichkeitsrechten, Diskriminierung und so weiter und so fort nicht wirklich helfen.
00:43:37
Speaker
Das heißt, du müsstest tatsächlich vor die Zivilgerichte ziehen.
00:43:40
Speaker
Okay, ja und das muss ich halt als Privatperson quasi tragen.
00:43:45
Speaker
Ich empfehle eine Rechtsschutzversicherung, eine möglichst umfassende, auch für außervertraglichen Schaden.
00:43:51
Speaker
Aber dann muss es eigentlich eine betriebliche Rechtsschutzversicherung sein oder reicht eine private Rechtsschutz auch?
00:43:56
Speaker
Das kommt jetzt wieder darauf an, was jetzt genau verletzt ist.
00:44:01
Speaker
Also ich würde empfehlen, sowieso, wenn man unternehmerisch tätig ist, eine betriebliche Rechtsschutz.
00:44:06
Speaker
Und meistens ist es dann nicht viel mehr, auch quasi diese auf den persönlichen Lebensbereich auszudehnen.
00:44:11
Speaker
Du bist professioneller Sprecher.
00:44:14
Speaker
Von daher, wenn jetzt deine Rechte verletzt werden, dann würde ich das schon wahrscheinlich im Rahmen deines Betriebes geltend machen.
00:44:22
Speaker
Und dann könntest du dich wahrscheinlich auf deine betriebliche Rechtsschutzversicherung stützen.
00:44:26
Speaker
Apropos Haftungsfragen und Schadensersatz und so.
00:44:32
Speaker
Die EU-Kommission hat ja gerade erst vor kurzem die AI Liability Directive gestrichen.
00:44:39
Speaker
Und dazu hat sich der gute Herr Axel Voss, ein EU-Abgeordneter, geäußert.
00:44:44
Speaker
Das möchte ich kurz zitieren, damit ich ihm keine falschen Sachen in den Mund lege.
00:44:51
Speaker
Er hat dazu gemeint, die Kommission hat sich aktiv für Rechtsunsicherheit, ein Ungleichgewicht in der Macht der Konzerne und ein Wild West Zugang, der nur Big Tech zugute kommt, entschieden.
00:45:06
Speaker
So, seine Einschätzung.
00:45:09
Speaker
Was sagst du dazu und kannst du vielleicht kurz umreißen, was die AI Liability Directive beinhaltet hätte, wäre sie denn gekommen?
00:45:20
Speaker
Ja, die Alliability Directive ist im Wesentlichen gedacht gewesen als ein Rechtsakt, der unterstützt bei der Durchsetzung von Ansprüchen.
00:45:32
Speaker
Wir haben die Produkthaftungsrichtlinie, vielleicht noch dazu kurz.
00:45:35
Speaker
Die Produkthaftung wurde novelliert, weil sie nicht angepasst war auf den digitalen Bereich.
00:45:41
Speaker
Das alte Produkthaftungsgesetz in Österreich bzw.
00:45:44
Speaker
die alte Produkthaftungsrichtlinie war mehr als 40 Jahre alt.
00:45:48
Speaker
Und haben Software zum Beispiel nicht umfasst.
00:45:51
Speaker
Die neue Produkthaftungsrichtlinie inkludiert jetzt Software und deckt damit in einem gewissen Teil bestimmte Aspekte von Softwarehaftung ab.
00:46:02
Speaker
Aber eben nicht alles.
00:46:04
Speaker
Und das bringt mich zur AI Liability Directive, die unterstützt hätte in der Durchsetzung von Rechtsansprüchen im Zusammenhang mit KI-Schadensfällen.
00:46:14
Speaker
Also gerade, wo es darum geht, von IP-Rechteverletzungen, Diskriminierung zum Beispiel, all diese Dinge hätten in dieser AI Liability Directive adressiert werden sollen.
00:46:27
Speaker
Wenn wir zum KI-Schadensfall gehen, haben wir, glaube ich, drei Probleme.
00:46:33
Speaker
Die KI-Softwarekette, also die Wertschöpfungskette, ist sehr, sehr fragmentiert.
00:46:38
Speaker
Ich habe nicht im Regelfall ein Unternehmen, das alle Komponenten herstellt, sondern im Regelfall ist das eine unterschiedliche Zusammenstückelung von Komponenten, damit ich dann zu diesem System komme, insbesondere im Bereich Gen.ai.
00:46:52
Speaker
Und dieses System wird dann von diversen Leuten genutzt und betrieben.
00:46:56
Speaker
Wenn ich jetzt ein Geschädigter bin, stehe ich vor der Herausforderung, dass ich meine Klage einbringen muss und in dieser Klage muss ich entsprechend auch zumindest unterfüttern können, dass diese Klage Merit hat.
00:47:08
Speaker
Also zumindest glaubhaft machen, dass hier meine Rechte verletzt wurden.
00:47:13
Speaker
Und da stehen Geschädigte meistens vor der Herausforderung, dass ihnen im Regelfall die Informationen fehlen oder die Beweise fehlen, dass entsprechend so, wie das im Zivilprozess notwendig ist, also schon mit einem gewissen Maß an Glaubwürdigkeit zu unterlegen.
00:47:30
Speaker
Und hier hätte die AI Liability Directive eben unterstützt in Beweissicherung zum Beispiel vor einem Gerichtsverfahren,
00:47:39
Speaker
oder mit Auskunftsansprüchen, damit derjenige oder diejenige, die geschädigt ist, dann ihre Ansprüche besser durchsetzen kann.
00:47:47
Speaker
Das ist der eine Punkt.
00:47:48
Speaker
Und wenn wir uns jetzt auf der Unternehmerseite anschauen, wir bauen in Europa sehr, sehr viel auf Applikationen von Drittlandsanbietern.
00:47:58
Speaker
Und tendenziell erfolgt dann in Verträgen oder Nutzungsbedingungen immer die Abwälzung von Haftung und Risiken auf den Schwächeren.
00:48:07
Speaker
Und wer sind die Schwächeren in der KI-Lieferkette?
00:48:10
Speaker
Die Startups, die KMUs, die Einzelunternehmenden.
00:48:14
Speaker
Die Zwischenhändler, die auf einer API aufbauen und ihre Nische irgendwie bedienen.
00:48:21
Speaker
Genau, und da wäre es darum gegangen, in der Haftungsrichtlinie das besser zu adressieren und Haftung besser in dieser Wertschöpfungskette zuordnen zu können.
00:48:32
Speaker
Und teilweise auch, je nachdem, was dann aus diesem Gesetzgebungsprozess herausgekommen wäre,
00:48:38
Speaker
Vielleicht Regressansprüche möglich zu machen oder einfach auch besser diese Haftungsrisiken aufzusplittern.
00:48:46
Speaker
Nicht, dass derjenige, der der schwächste Player in der Wertschöpfungskette ist, dann das ganze Risiko umgehängt bekommt.
00:48:54
Speaker
Das heißt, ich glaube schon, dass die Haftungsrichtlinie ein Vorteil gewesen wäre, gerade für diejenigen, die in der Lieferkette die Schwächeren sind, Einzelunternehmen, Startups, KMUs und so weiter.
00:49:06
Speaker
Und es hätte Geschädigten einfach ermöglicht, hier bessere Ansprüche durchzusetzen, teilweise auch durch Möglichkeiten der Beweislastumkehr.
00:49:16
Speaker
die immer natürlich widerlegt werden können von einem Unternehmen oder Anbietenden, das ist eh klar.
00:49:21
Speaker
Aber es hätte hier ein bisschen, glaube ich, zu einem ausgewogenen Kräfteverhältnis beigetragen.
00:49:26
Speaker
Also ich kann Axel Voss zustimmen, dass es jetzt schwieriger ist.
00:49:32
Speaker
Und warum auch?
00:49:34
Speaker
Das bringt mich wieder zum AI-Act.
00:49:36
Speaker
Der AI-Act harmonisiert.
00:49:39
Speaker
Das ganze Thema, also quasi wie man KI-Applikationen designt und in Verkehr bringt und nutzt für den Binnenmarkt.
00:49:45
Speaker
Die Haftungsrechte sind aber national und werden jetzt national bleiben.
00:49:50
Speaker
Das heißt, ich habe 27 unterschiedliche Gerichtsordnungen, Zivilprozessordnungen und so weiter und so fort.
00:49:58
Speaker
Und kann mich dann jetzt hier in diesem Patchwork-System als Geschädigter oder muss mich hier durchquälen, wenn ich meine Ansprüche geltend machen will?
00:50:09
Speaker
Das heißt, einzig und allein die Frage, wo klage ich?
00:50:12
Speaker
Wie ist die Beweislastverteilung, die unterschiedlich ist?
00:50:15
Speaker
Und so weiter und so fort.
00:50:16
Speaker
Was es natürlich schwieriger macht.
00:50:18
Speaker
Wir haben über deine Rechtsschutzversicherung gesprochen und diese Themen.
00:50:24
Speaker
Das ist natürlich auch eine finanzielle Komponente, nicht?
00:50:26
Speaker
Natürlich.
00:50:28
Speaker
Und für die Gegenseite, also diejenigen, die potenziell in Anspruch genommen werden würden, die haben natürlich auch dann die Möglichkeit, Forum zu optimieren, durch eben Sitzverlegung und so weiter und so fort, sich da den günstigeren Standort rechtsordnungstechnisch für die Durchführung von Verfahren auszusuchen.
00:50:49
Speaker
beziehungsweise natürlich dann das geltende Recht zu bestimmen und so weiter.
00:50:54
Speaker
Das heißt, ja, ich glaube schon, dass diese Liability Directive ein Vorteil gewesen wäre und es ist tatsächlich so, dass wir jetzt mehr fragmentiert sind und mehr Fragmentierung, mehr Rechtsfragmentierung beinhaltet immer mehr Kosten und mehr Hürden als natürlich Rechtsvereinheitlichung.
00:51:14
Speaker
Aber dann wirkt es für mich jetzt als Laien auch total widersinnig, auch aus der Perspektive der EU, das zu kippen.
00:51:22
Speaker
Hast du eine Info, woher das kam oder auf welcher Basis diese Entscheidung getroffen wurde, wenn es denn ja schon angedacht und eigentlich geplant war?
00:51:34
Speaker
Also ich glaube zwei Sachen dazu.
00:51:36
Speaker
Wir sehen oder zumindest kommt es mir jetzt so vor, einen riesigen Push in die Richtung Deregulierung.
00:51:45
Speaker
Und Deregulierung kann natürlich gut sein, weil wir müssen effizienter werden, Sachen besser synchronisieren.
00:51:53
Speaker
Aber bestimmte Sachen werden durch Regulierung einfacher, nämlich immer dort, wo es darum geht, zu vereinheitlichen.
00:52:01
Speaker
Und ich glaube quasi in diesen Deregulierungsbestrebungen und natürlich in diesem Push, Europa wettbewerbsfähiger zu machen, was gut und richtig ist und ich auch sehr unterstütze, ist diese KI-Haftungsrichtlinie jetzt einfach, ja, wurde gestrichen.
00:52:20
Speaker
Es ist dem FOMO zum Opfer gefallen, wenn man es jetzt verkürzt.
00:52:26
Speaker
Dem FOMO zum Opfer gefallen und auch, glaube ich, es ist auch ein bisschen ein Verständnisthema, weil Regulierung wird immer mit Bürokratie in Verbindung gebracht.
00:52:36
Speaker
Mehr Regulierung, mehr Bürokratie, mehr Compliance.
00:52:41
Speaker
Die Haftungsthematik ist aber quasi eine Zivilprozedurale.
00:52:45
Speaker
Das ist kein Materiengesetz, wo es darum geht, inhaltlich Sachen zu regeln.
00:52:48
Speaker
Das ist ein Verfahrensgesetz, wo es darum geht, Verfahren zu vereinfachen eigentlich.
00:52:53
Speaker
Und Verfahrensvereinfachung und Vereinheitlichung führt tendenziell, wenn es richtig implementiert ist, immer zu einer Beschleunigung und eigentlich zu einem Benefit,
00:53:04
Speaker
Für die Personen, die dann einfach davon Gebrauch machen können.
00:53:08
Speaker
Es ist ein komplexes Thema und ich glaube auch da teilweise fehlt im Markt ein bisschen das Verständnis, diese Dinge richtig einzuordnen, wenn man sich natürlich wehrt gegen mehr Bürokratie.
00:53:20
Speaker
Aber ab und zu ist Regulierung auch ein Benefit, gerade wenn es die Schwächere entstützt.
00:53:25
Speaker
Und ich glaube, das ist jetzt im Markt nicht so angekommen.
00:53:29
Speaker
Noch dazu die KI-Haftungsrichtlinie.
00:53:32
Speaker
Das war damals, und die Haftungsrichtlinie, der erste Entwurf ist ja auch schon älter,
00:53:37
Speaker
Das war ein veralterter Text.
00:53:39
Speaker
Es hat jetzt eine Konsultation gegeben, um tatsächlich diesen Rechtsakt so zu formen, dass er zum AI-Act passt, dass er zur Produkthaftungsrichtlinie passt, dass er auf Gen AI-Rücksicht nimmt und hier sich gut einfügt.
00:53:55
Speaker
Aber diesen neuen Entwurf, den neuen Text hat es noch nicht gegeben.
00:53:59
Speaker
Das heißt, alle haben wahrscheinlich nur auf den alten Text geschaut, waren aber auch nicht so tief in der Materie drin und wahrscheinlich deswegen auch sehr, sehr viel Ablehnung.
00:54:08
Speaker
Und schlussendlich wurde es gerechtfertigt, wie man das halt immer auch quasi begründet.
00:54:14
Speaker
Es ist länger nichts mit dem Rechtsakt weitergegangen, deswegen haben wir die Relevanz nicht gesehen.
00:54:19
Speaker
Als Blankostatement natürlich, warum man das gekippt hat.
00:54:25
Speaker
Also ich glaube, wir werden sehen, wo sich der Markt hin entwickelt.
00:54:29
Speaker
Ich hoffe nicht, dass wir sehr, sehr viele Schadensfälle und große Verfahren produzieren im Zusammenhang mit KI.
00:54:37
Speaker
Es gibt eine Datenbank, die auch KI-Schadensfälle systematisch versucht zu erfassen.
00:54:41
Speaker
Ich glaube, das ist auch eine wichtige Sache, die uns da ein bisschen Guidance geben wird.
00:54:48
Speaker
Was sind da die typischen Schäden?
00:54:50
Speaker
Wie sind da die typischen Konstellationen?
00:54:53
Speaker
Und dann, glaube ich, werden wir Stück für Stück einfach uns praktisch hier weiter handeln müssen.
00:54:58
Speaker
Und spätestens dann, wenn es den ersten großen Crash gibt und wir tatsächlich einen massiven Schaden und massive Probleme haben und mit den Auswirkungen konfrontiert sind, nämlich mangelnder Rechtsvereinheitlichung, 27 Jurisdiktionen, unterschiedliche Beweisregeln,
00:55:16
Speaker
unterschiedliche Verfahrensordnungen, dann werden wir vielleicht hier einen neuen Gedanken fassen und einen neuen Anlauf dazu nehmen.
00:55:25
Speaker
Mit der Lage gilt es sich jetzt einmal abzufassen, abzufinden und das Beste daraus zu machen.
00:55:30
Speaker
Das heißt, nur damit ich das richtig verstehe, ist dieser Push zur Deregulierung, kam der aus dem europäischen Inneren oder war das eine Auswirkung von der Trump-Wahl und dadurch dem indirekten Einfluss seiner Tech-Bros, die ihm jetzt links und rechts zur Seite stehen, die sozusagen von außen versuchen, die Deregulierung voranzutreiben und
00:55:57
Speaker
Egal ob ja oder nein, empfindest du da eine konkrete, spürbare Veränderung, eine Auswirkung auf den Umgang mit KI in Europa durch diese veränderte globale Situation mit Trump und Elon Musk und den Tech Bros.
00:56:19
Speaker
Ja, also ich glaube, wenn wir auf den AI Action Summit vielleicht kurz zurückreflektieren, wo natürlich seitens der USA und der USA-Vertreter auch sehr stark gefordert wurde, natürlich möchten sie gerne kooperieren, aber sie raten dringend ab von zu strikter oder strenger Regulierung auf.
00:56:41
Speaker
Und damit den Weg zur Kooperation und Innovation zu versperren.
00:56:44
Speaker
Also man sieht hier schon sehr, sehr stark die Aufrufe.
00:56:50
Speaker
Europa möge bitte nicht zu stark regulieren und diesen Pfad verlassen.
00:56:56
Speaker
Ja, welchen Einfluss das dann tatsächlich hat, das kann ich natürlich auch nicht sagen.
00:57:01
Speaker
Also es wäre hier, glaube ich, falsch, irgendwas zu unterstellen.
00:57:05
Speaker
Was man aber sieht, ist, dass in Europa angekommen ist, dass wir einfach an unserer eigenen Wettbewerbsfähigkeit arbeiten müssen, um hier mitzuspielen.
00:57:13
Speaker
Was ich glaube, eine gute Entwicklung ist, wir sollten das Kind aber nicht mit dem Bade ausschütten.
00:57:19
Speaker
Das heißt, es gilt hier, wie immer, die richtigen Maßnahmen zu setzen und die mit Maß und Ziel.
00:57:26
Speaker
Ich glaube, wir haben jetzt sehr viel Digitalregulierung gesehen, also digital.
00:57:30
Speaker
DSA, DMA, AI Act, Produkthaftungsrichtlinie.
00:57:35
Speaker
Und das ist ein Werk, das muss jetzt anfangen, miteinander zu arbeiten und zu greifen.
00:57:39
Speaker
Das heißt, es braucht jetzt Zeit, bis das sich synchronisiert und einspielt.
00:57:43
Speaker
Ich glaube, die müssen wir uns nehmen.
00:57:46
Speaker
Wir müssen aber auch die Institutionen und den Rahmen schaffen, damit das funktionieren kann.
00:57:50
Speaker
Das ist einerseits die Behörden zu schaffen, aber auch Innovationsräume mit den Sandboxes zu schaffen.
00:57:57
Speaker
Aber auch zu tun.
00:57:59
Speaker
Also in Englisch sagt er, you need to put your money where your mouth is.
00:58:02
Speaker
Jetzt claimen wir sehr viel, wir wollen, wir müssen dann aber auch investieren.
00:58:07
Speaker
Da gab es ja sehr, sehr viele Announcements auch in den letzten Wochen im Rahmen des Action Summits seitens der EU, dass hier Milliarden investiert, wenn 200 Milliarden dann Frankreich investiert.
00:58:18
Speaker
100 Milliarden noch einmal, ausländische Konsortien, die wieder Milliarden investieren wollen.
00:58:25
Speaker
Das sind Commitments.
00:58:26
Speaker
Es geht jetzt tatsächlich darum, dass diese Gelder tatsächlich fließen und um die Verteilung, auch um hier Innovation zu fördern.
00:58:35
Speaker
Und wir brauchen dann aber auch Kompetenzaufbau und das Mindset ein bisschen.
00:58:40
Speaker
Weil du den AI Action Summit in Paris angesprochen hast.
00:58:43
Speaker
Danke, dass du mich retraumatisierst.
00:58:46
Speaker
Nein, so schlimm war er nicht, aber ich habe mir dazu was aufgeschrieben, auch da wieder, damit ich niemandem falsche Vorwürfe mache, aber...
00:58:56
Speaker
So wie ich das gelesen habe, hat wohl Mistral und die französischen KI-Anbieter, allen voran Mistral, eben schon im Vorhinein sehr stark eingewirkt und eben dafür gesorgt, dass wohl alle Sicherheitsfragen und Bezüge zu Risiken und Schäden aus dem offiziellen Programm gestrichen werden.
00:59:17
Speaker
Und die USA haben durchgesetzt, dass in der Abschlusserklärung weder die Haltung der UN, was ja auch eben eine bereits existierende Guideline, eine international sanktionierte Haltung dazu wäre, und noch, dass die Umweltbelastung in der Abschlusserklärung vorkommt oder sonstige existenzielle Bedrohungen durch KI für andere Märkte.
00:59:39
Speaker
Das haben sie auch alles bekommen und am Ende haben sie es trotzdem nicht unterschrieben, weil just because, ich weiß es nicht.
00:59:49
Speaker
Und die Briten haben sich dem aber ausdrücklich angeschlossen, also diesem sehr freien marktwirtschaftlichen und deregulierenden Zugang, sage ich jetzt mal.
00:59:58
Speaker
Mich persönlich lässt das mit dem Gefühl zurück, dass die Franzosen uns hier gerade in den Abgrund reißen und alles, was wir uns mühsam irgendwie aufgebaut haben, jetzt so den Bach runter geht.
01:00:08
Speaker
Wie klingt das für dich und kannst du es vielleicht auch in einen realpolitischen Kontext einordnen?
01:00:16
Speaker
Habe ich vielleicht zu stark emotional reagiert, als ich das gelesen habe.
01:00:22
Speaker
Ja, also es ist schon so, dass der Action Summit sehr positiv war.
01:00:28
Speaker
Also es ging tatsächlich darum, ja, wir müssen jetzt handeln, wir müssen investieren, was ja auch gut ist, um das Ökosystem voranzutreiben, auch das europäische.
01:00:39
Speaker
Aber natürlich die Sicherheitsfragen, die Risikofragen waren nicht im Fokus, wie du das gesagt hast, oder wurden auf Nebenveranstaltungen ausgelagert.
01:00:52
Speaker
Es wurde aber durchaus im Rahmen des AI Action Summits der erste AI Safety Report publiziert.
01:00:59
Speaker
Unter der Leitung von Joshua Benjo und diversen globalen Experten, auch unter internationaler Teilnahme, was ich glaube ein guter Schritt ist.
01:01:09
Speaker
Dieser Bericht beschäftigt sich sehr stark mit Risiken und Herausforderungen im Zusammenhang mit KI.
01:01:16
Speaker
Und ich glaube, es ist wichtig, dass wir das nicht außer Blick verlieren, nämlich einerseits kurzfristig Risikomanagement für die Applikationen, die wir jetzt schon haben, weil es geht nichtsdestotrotz bei aller Innovation auch um einen sicheren Umgang mit dieser Technologie.
01:01:32
Speaker
Und dann, wie du sie immer nennst, die Tech Bros.
01:01:36
Speaker
Das habe nicht ich geprägt, ich finde ihn nur sehr passend, den Begriff.
01:01:40
Speaker
Ja, also es gibt ja einige, die sagen, sie wollen AGI entwickeln for human benefit oder benefits all und auch hier sehen wir ein bisschen eine AGI-Race.
01:01:51
Speaker
Und das ist ein langfristiges Sicherheitsthema, das wir, glaube ich, auch adressieren müssen.
01:01:56
Speaker
Risiken adressieren ist nie populär und it's not fun, aber ich glaube, es ist eine notwendige Komponente, weil diese Technologie sehr viel Benefit bringen kann, aber natürlich auch einen sehr starken Impact hat.
01:02:10
Speaker
Du hast die Umweltaspekte angesprochen.
01:02:13
Speaker
Ist natürlich auch ein riesiges Thema, wenn man sich die letzten Entwicklungen anschaut in dieser Richtung und den gesamtheitlichen Blick natürlich darauf hat, weil seltene Erden brauchen wir sehr, sehr viel, insbesondere um die Infrastruktur herzustellen.
01:02:28
Speaker
Hier gibt es Prognosen, dass wir 2040 schon in einen Engpass kommen.
01:02:32
Speaker
Geil.
01:02:33
Speaker
Und wir sind nicht so gut im Recycling, eigentlich gar nicht.
01:02:37
Speaker
Das ist ein Thema.
01:02:38
Speaker
Wasserverbrauch, der Trinkwasserverbrauch ist um 30 Prozent gestiegen wegen Kühlung.
01:02:43
Speaker
Das ist auch ein Thema.
01:02:45
Speaker
E-Waste ist die am stärksten wachsende Gruppe an Müll mit mehr als 60 Millionen Tonnen pro Jahr.
01:02:52
Speaker
All das wird in Ghana und in Pakistan dann schlussendlich gedampft.
01:02:58
Speaker
Also wir haben hier durchaus große Themen, die auch zu tacklen sind, insbesondere wenn es um diese großen Modellentwicklungen geht.
01:03:07
Speaker
Und ich glaube, es gibt ja auch einen alternativen Pfad.
01:03:10
Speaker
Ich glaube, Deep Seek war ja auch eines der Themen, die am Anfang des Jahres angekommen.
01:03:15
Speaker
sehr, sehr stark einen Impact hatten.
01:03:17
Speaker
Ich glaube, eine Milliarde wurde an der Börse einfach mal so weggewischt, weil man gezeigt hat, man kann effizienter und kleinere Modelle produzieren mit weniger Ressourcen und Kapitalaufwand.
01:03:27
Speaker
Also ich glaube, es gibt alternative Modelle und alternative Wege.
01:03:31
Speaker
Und wir sollten auch das nicht außer Acht lassen, weil es ja schlussendlich dann darum geht,
01:03:38
Speaker
um unseren Planeten und die Infrastruktur, weil wir bauen sehr viele Datenzentren.
01:03:43
Speaker
KI braucht sehr viel Energie.
01:03:45
Speaker
Und auch das dürfen wir nicht außer Acht lassen, dass es hier um ein bisschen einen Ressourcenwettbewerb auch geht, nämlich tatsächlich für Land, Energie, Wasser, das wir Menschen auch brauchen, versus quasi natürlich, um diese Technologie zu stützen.
01:03:59
Speaker
Ja, total.
01:04:00
Speaker
Und deswegen finde ich es ja gerade so...
01:04:04
Speaker
befremdlich, dass auf so einem AI Action Summit nicht, sage ich jetzt mal, die Erwachsenen reden und sich mit Themen befassen, für die es wirklich dringend eine Lösung braucht, sondern dass man sich immer noch von diesem PR-Gag von, ich sage es jetzt einfach nochmal, Tech-Bros bezirzen lässt, bezeichnen.
01:04:28
Speaker
In dem Angesicht der Tatsache, dass zum Beispiel der prognostizierte Energieverbrauch von den USA von derzeit 4% des gesamten Energieverbrauchs, der für KI aufgewendet wird, in den nächsten 5 Jahren, wenn mich nicht alles täuscht, auf 6% ansteigen soll, was massiv ist.
01:04:45
Speaker
Es ist extrem viel Energie.
01:04:48
Speaker
Und im Moment sehe ich nicht den Plan, wie man das nachhaltig, umweltfreundlich und vielleicht sogar ressourcenschonend bewältigen kann, sondern ich höre eigentlich nur schon wieder Atomkraftwerke angeschlossen werden.
01:05:05
Speaker
Ist auch grüne Energie.
01:05:08
Speaker
Ja, das ist aber so ein bisschen das Prinzip von den Simpsons.
01:05:12
Speaker
Wir produzieren jetzt einfach mal total viel Müll und wenn wir nicht mehr wissen, was wir damit machen sollen, dann schießen wir ihn ins All und hoffen, dass er nicht zurückkommt oder verbuddeln ihn eben ganz tief in der Nordsee.
01:05:24
Speaker
Also das finde ich schwierig, weil ja, wir können uns diese Technologie jetzt nicht wieder wegwünschen und so, aber dann müssen wir doch zumindest schauen, dass
01:05:38
Speaker
dass sie uns nicht die Existenzgrundlage raubt.
01:05:42
Speaker
Und wie du sagst, wir können noch so viel Pariser Klimaziele verfolgen und Absichtserklärungen unterschreiben.
01:05:52
Speaker
Und Wien wird bis 2040 klimaneutral geil, wenn du in Pakistan und in Halbafrika irgendwie...
01:06:03
Speaker
nicht recycelbare Mülldeponien, ganze Länder im Endeffekt zu Mülldeponien machst.
01:06:10
Speaker
Das funktioniert so nicht.
01:06:12
Speaker
Auch das ist alles vernetzt und globalisiert.
01:06:16
Speaker
Und ich sehe da einfach, ich höre da einfach keine Lösungen, sondern ich höre nur eher ein Lalalala, wir wollen nicht.
01:06:24
Speaker
Und was kann ich mir noch alles zuhalten, damit ich mich nicht damit auseinandersetzen muss?
01:06:31
Speaker
Und das ist frustrierend, ehrlich gesagt, weil man kann nicht einfach kommen und mit seinem Spielzeug alles kaputt machen oder zumindest auf den Kopf stellen und dann nicht die Verantwortung für die Konsequenzen übernehmen.
01:06:46
Speaker
Also es funktioniert halt leider irgendwie so nicht.
01:06:48
Speaker
meiner bescheidenen Meinung nach.
01:06:51
Speaker
So rant over.
01:06:55
Speaker
Ich glaube, es ist ein großes Problem, auch wie du ansprichst, ein bisschen dieser Digital Divide und auch
01:07:04
Speaker
Die aktuelle Stimmung nicht, weil wie du sagst, es ist alles connected.
01:07:08
Speaker
Schlussendlich.
01:07:08
Speaker
Ich glaube, Covid hat uns das besser vorgeführt, als es jede Ausführung in einem Lehrbuch könnte.
01:07:15
Speaker
Und auch diese Technologie ist eine globale.
01:07:17
Speaker
Die Auswirkungen sind global, auch wenn es quasi jetzt einzelne Länder gibt, die da mehr oder weniger betroffen sind.
01:07:24
Speaker
Schlussendlich die Auswirkungen gehen um den Erdball.
01:07:28
Speaker
Und das ist, glaube ich, etwas, dem wir uns mehr bewusst sein müssen und einfach zusammenkommen, um diese Thematiken zu lösen.
01:07:35
Speaker
Ich glaube, einer allein oder eine Nation allein wird es nicht schaffen.
01:07:39
Speaker
Es braucht hier tatsächlich den globalen Dialog und das gemeinsame Zusammenwirken,
01:07:44
Speaker
um diese Themen anzugehen.
01:07:46
Speaker
Das Sicherheitsthema, das Umweltthema und schlussendlich natürlich auch das gesellschaftliche Thema, weil die Technologie hat jetzt schon Auswirkungen auf die Art und Weise, wie wir kommunizieren, wie wir lernen, wie wir interagieren.
01:08:01
Speaker
Und natürlich auch, wie wir arbeiten.
01:08:04
Speaker
Und auch das ist ein langfristiges Thema, das wir auch lösen werden müssen, weil ich glaube, die Technologie wird nicht mehr weggehen.
01:08:12
Speaker
Sie hat ihre Vorteile durchaus.
01:08:16
Speaker
Es gilt aber, das Ganze auch langfristig, ich würde sagen, gesellschaftlich, wirtschaftlich und auch für die Umwelt erfolgreich zu machen,
01:08:28
Speaker
damit auch wir Menschen in der Zukunft, in der Welt einen Platz haben und einen Lebensort.
01:08:35
Speaker
Das sind schon ziemlich niedrige Ansprüche.
01:08:39
Speaker
Aber ja, ja zu allem, auch wenn das ja eigentlich eher ein da ist, wo ich mich frage, wieso wir das eigentlich überhaupt erwähnen müssen, dass das nicht, das ist total absurd.
01:08:53
Speaker
Aber was ich zuvor noch sagen wollte zu DeepSeek oder DeepSearch, ich bin mir jetzt gerade gar nicht sicher, wie es heißt.
01:08:59
Speaker
Ich hatte selten so ein ambivalentes Gefühl zu so einer Sache, als dieses neue Programm ausgerollt wurde und dann Sam Altman geschrien hat, die haben wir zu unseren Daten geklaut.
01:09:15
Speaker
Ich wusste wirklich nicht, wie ich mich fühlen sollte, aber es war gleichzeitige sehr große Genugtuung und aber auch irgendwie total Dada-Paradox und ich weiß nicht.
01:09:30
Speaker
Irgendwie, das ist nicht normal.
01:09:36
Speaker
Ein Kommentar dazu, Karma.
01:09:39
Speaker
Ja, genau, man kann das auch einfach unter Karma verbuchen.
01:09:42
Speaker
Alles kommt irgendwie zurück.
01:09:43
Speaker
What goes around comes around.
01:09:46
Speaker
Ehe total, aber bevor das sich jetzt so in emotionalen Befindlichkeiten verliert, lass uns vielleicht auf den Boden der Tatsachen zurückkehren.
01:09:55
Speaker
Du bist auch im Beratungsgremium der österreichischen Bundesregierung.
01:10:01
Speaker
Kannst du kurz, was du natürlich erzählen darfst, kannst du einen kurzen Lagebericht abgeben, wie wird das Thema auf nationaler
01:10:10
Speaker
auf österreichischer Ebene behandelt und gibt es vielleicht eine unterschiedliche Meinung, eine unterschiedliche Auslegung.
01:10:18
Speaker
Haben wir überhaupt die Möglichkeit, irgendwas anders zu machen als der gesamteuropäische Plan, den der AI-Act vorsieht?
01:10:25
Speaker
Haben wir da überhaupt auf nationaler Ebene einen Spielraum?
01:10:29
Speaker
Also ich glaube, vom Fahrplan her wird es jetzt der nächste wichtige Schritt sein, die Organisationsstrukturen zu schaffen.
01:10:36
Speaker
Das heißt einerseits eine nationale KI-Behörde, beziehungsweise einfach die Zuständigkeiten an die entsprechenden Stellen zu delegieren.
01:10:44
Speaker
Wir waren in Österreich hier sehr, sehr flott dran und vorreitet, indem wir die KI-Service-Stelle bei der RTR eingerichtet haben als Zwischenlösung, bis diese Organisationsstruktur steht, was ich glaube ein sehr guter Schritt war.
01:10:57
Speaker
Ganz kurz nur die RTR für unsere deutschen Zuhörer und so ist die Rundfunk-Telekommunikations-
01:11:04
Speaker
Die Behörde.
01:11:04
Speaker
Behörde, ich weiß nicht mit R, aber ja, also die Rundfunk-Telekommunikationsbehörde.
01:11:09
Speaker
Genau, beziehungsweise GmbH und die zwei Behörden hängen drüber mit der COA für die Medienzuständigkeiten und die TKK als Telekom Control Commission für Post- und Telekomsektor.
01:11:20
Speaker
Und die RTR ist im Wesentlichen die Geschäftsstelle, die diese zwei Behörden unterstützt.
01:11:25
Speaker
Und in dieser Geschäftsstelle ist aktuell diese KI-Service-Stelle eingebettet, die in der Zwischenzeit Informationen bereitstellt, versucht dem Markt ein bisschen Richtung zu geben und vorbereitend dient für die Behörde, die dann kommt und auch für den Zeitplan des AI-Acts.
01:11:45
Speaker
Okay.
01:11:46
Speaker
Das heißt, da haben wir schon ein gutes Vehikel geschaffen für die Zwischenzeit, um das zu überbrücken.
01:11:51
Speaker
Dann geht es darum, die KI-Behördenfrage zu lösen, aber auch darum, zum Beispiel AI-Sandboxes einzurichten.
01:12:01
Speaker
Von europäischer Ebene kommen die AI-Factories.
01:12:05
Speaker
Was ist da geplant?
01:12:06
Speaker
Der Ausbau der bestehenden KI-Infrastrukturen.
01:12:09
Speaker
Und auch hier ist es so, dass es einmal fünf bis sieben gibt und Österreich natürlich auch hier mitspielen will bei den AI Factories, um natürlich mehr zu ermöglichen.
01:12:21
Speaker
Das heißt Zugang zu Infrastruktur, auch angebundene Services, um das nationale KI-Ökosystem zu fördern.
01:12:28
Speaker
Österreich grundsätzlich ist ja auch ein sehr guter KI-Standort mit natürlich einem Cluster in Wien, aber auch in Graz und in Linz.
01:12:36
Speaker
wo sehr viel in KI-Richtung gemacht wird und geforscht wird.
01:12:40
Speaker
Es wurde oder es wird jetzt eigentlich im Februar auch gelauncht, das Bilateral AI, das heißt der Zusammenschluss, das Netzwerk aller Universitäten, die sich in Österreich mit KI beschäftigen, um hier einfach mehr zusammenzuwirken.
01:12:54
Speaker
mehr Austausch zu fördern.
01:12:56
Speaker
Wir haben sehr, sehr viele KI-Talente.
01:12:59
Speaker
Wir haben auch eine sehr gute Grundförderung gehabt mit den KI-Programmen der AWS und der FFG.
01:13:05
Speaker
Ich glaube, hier gilt es, wenn wir in die Zukunft schauen, das auf jeden Fall beizubehalten und auszubauen, dass Österreich auch weiterhin ein attraktiver KI-Standort ist für KI-Entwicklungen, KI-Startups und KI-Innovationen.
01:13:21
Speaker
Ändert das jetzt irgendwas für dich und deine Arbeit, dass wir gerade im Regierungslimbo uns befinden und keiner weiß, wie es weitergeht von der Ausrichtung, die Parteien, welche Partei, welches Ministerium und welche Zuständigkeit bekommen oder ist das ein parteipolitisch übergeordnetes Thema, das KI?
01:13:42
Speaker
Also der KI-Beirat ist ein Expertengremium.
01:13:44
Speaker
Wir sind zwölf diverse Experten und wie gesagt, wir stehen der Bundesregierung zur Verfügung in KI-Angelegenheiten als Sounding Board, als Sparing Partner und sind natürlich kommentiert stets, auch jetzt, falls es Fragen gibt.
01:13:59
Speaker
Wir werden sehen, wie unsere zukünftige Regierung aussieht.
01:14:02
Speaker
Ich glaube, man braucht es nicht sagen, es gab da einige spannende Entwicklungen und wahrscheinlich freuen sich alle oder sehen alle dem Ergebnis gespannt entgegen.
01:14:13
Speaker
Es gibt jetzt natürlich auch Vorbereitungsarbeiten, weil das muss ja dann alles auch in nationale Durchführungsgesetze gegossen werden.
01:14:21
Speaker
Das heißt, da gehen die Arbeiten voran.
01:14:24
Speaker
Aber es ist natürlich schwierig, weil man dann einer neuen Bundesregierung auch nicht vorgreifen will.
01:14:29
Speaker
Das heißt, hier bleibt es abzuwarten für neue Impulse, dann tatsächlich neue Strategien, welche Bundesregierung wir dann haben werden, um hier dann natürlich weiter kommentiert zusammenzuarbeiten.
01:14:42
Speaker
Aber hätte die überhaupt irgendeine Kompetenz, da was anders zu machen, als der AI-Act vorgibt?
01:14:47
Speaker
Oder ist das nicht eh schon dem... Ich würde nur ein Gefühl dafür kriegen, wie viel ist so heiße Luft im Wahlkampf und wir machen dann, wenn man uns nur lässt, dann zerreißen wir das ganze Regelwerk und machen unser eigenes Ding.
01:15:04
Speaker
Oder kann man tatsächlich auch was...
01:15:09
Speaker
selbst gestalten und sagen, danke, den Teil nehmen wir uns lieber nicht.
01:15:13
Speaker
Dafür formulieren wir den Teil noch ein bisschen besser aus oder so auf nationaler Ebene.
01:15:18
Speaker
Indem der EIG eine EU-Verordnung ist, steht das Rahmenwerk in diesem Sinne.
01:15:24
Speaker
Es gibt aber schon Spielraum für Mitgliedstaaten, den man ausnutzen kann.
01:15:29
Speaker
Also zum Beispiel ein Thema, das immer wieder kommt in diesem Zusammenhang, ist die Verwendung von KI zu Sicherheitszwecken.
01:15:37
Speaker
Da gerade quasi, wenn es um die Aufklärung bestimmter Straftaten gibt, da gibt es hinten einen Katalog von, ich glaube es sind 16 oder 18 schwere Straftaten, da ist dann Menschenhandel dabei,
01:15:47
Speaker
und kriminelle Vereinigung und so weiter und so fort.
01:15:49
Speaker
Und hier die Möglichkeit, Ausnahmen zu schaffen, dass man vielleicht KI für die Aufklärung solcher Straftaten dann tatsächlich verwenden darf, nämlich im öffentlichen Raum.
01:15:59
Speaker
Also es gibt schon Spielraum, den Mitgliedstaaten hier ausnutzen können.
01:16:05
Speaker
Der AI-Act im Wesentlichen als Rahmenwerk ist aber gesetzt,
01:16:09
Speaker
Das, was es gilt in den Durchführungsgesetzgebungen zu adressieren, ist wahrscheinlich der wichtigste Punkt, die Behördenstruktur.
01:16:16
Speaker
Also wer quasi ist auf nationaler Ebene zuständig hier für die Überwachung, Marktüberwachung, Einhaltung.
01:16:23
Speaker
Dann AI-Sandboxes, diese eigentlich sehr positive Sache auch umzusetzen und den Rahmen zu schaffen, dass wir hier Innovation fördern können.
01:16:32
Speaker
Und dann geht es um solche Spielräume.
01:16:35
Speaker
Aber wie gesagt, den AI-Act wegwerfen und neu machen wird nicht möglich sein.
01:16:42
Speaker
Genauso wenig, wie man sagt, okay, ich nehme jetzt die verbotenen KI-Praktiken, aber die Transparenzpflichten lasse ich bleiben.
01:16:48
Speaker
Also in der Ebene nicht.
01:16:51
Speaker
Ja, okay.
01:16:54
Speaker
Ja, magst du vielleicht noch einen kleinen Ausblick wagen in was dieses Jahr noch passieren wird, was vielleicht auch für dich persönliche Höhepunkte oder Checkpoints sind, auf die du dich freust oder auf die du hinfieberst, weil es dann vielleicht mehr Klarheit geben sollte oder so.
01:17:19
Speaker
Was erwartet uns dieses Jahr noch in Sachen KI?
01:17:23
Speaker
Vor der Frage habe ich mich gefürchtet, weil in so einem dynamischen Umfeld, wo täglich x Modelle released werden, Announcements nur so durch die Welt fliegen von Investitionen und Infrastrukturprojekten, ist es natürlich schwierig, hier eine korrekte Prognose abzugeben oder irgendwie vorherzusehen.
01:17:41
Speaker
Das mache ich auch nur, um dich festzunageln zu können.
01:17:44
Speaker
Später in einem halben Jahr kann ich dann sagen, da, die Janett hat es gesagt, im Februar.
01:17:51
Speaker
Nein, entschuldige.
01:17:52
Speaker
Also das, was ich quasi, die Sache, wo ich sagen kann, das wird uns sicher ereilen, wenn man so möchte, sind eben, wie gesagt, der Code of Practice, der kommen wird, die Verpflichtungen für Modellanbieter, die ab August gelten werden.
01:18:08
Speaker
Im Sommer wissen wir dann auch, wie es mit der Behördenstruktur ausschaut.
01:18:12
Speaker
Wir werden mehr Klarheit haben zu AI-Factories, ob wir da vielleicht in Österreich eine bekommen wollen.
01:18:17
Speaker
Oder bei welcher AI Factory Österreich dann andocken kann, um hier weiter Innovation zu fördern.
01:18:23
Speaker
Das sind so die Sachen, die relativ sicher sind und die ich mich traue zu prognostizieren.
01:18:28
Speaker
Ansonsten glaube ich, wird 2025 ein sehr, sehr spannendes, dynamisches Jahr sein.
01:18:35
Speaker
Wir haben schon gesehen, das Jahr hat so begonnen, überraschend mit diversen Announcements.
01:18:41
Speaker
Was ich mir für das Ökosystem wünsche, ist, dass all diesen finanziellen Commitments dann auch Kapitalflüsse folgen und dass Österreich ja auch partizipieren kann und das österreichische Ökosystem, dass wir hier Innovation fördern können und uns auf unsere Stärken konzentrieren.
01:18:57
Speaker
Österreich hat sehr viele Stärken, insbesondere auch zum Beispiel im MedTech-Biotech-Bereich, dass wir diese Stärken nutzen und auch hier nicht nur Anwender sind, sondern auch Architekten zukünftiger KI-Applikationen, nämlich derartige Applikationen, die wir auch nutzen wollen.
01:19:15
Speaker
Ich glaube, da ist sehr, sehr viel möglich.
01:19:18
Speaker
Genau, sonst, was ich mir vorgenommen habe oder was mich beschäftigt dieses Jahr, ist sehr, sehr stark das Thema Implementieren.
01:19:26
Speaker
Also wir haben jetzt sehr, sehr viel gesprochen.
01:19:29
Speaker
Wir haben jetzt sehr, sehr viel reguliert.
01:19:31
Speaker
Wir haben sehr, sehr viel Policy und Strategy gemacht.
01:19:33
Speaker
Es geht aber jetzt tatsächlich um die Implementierung und ums Tun.
01:19:38
Speaker
Und das, was wir machen, ist es tatsächlich Unternehmen dabei begleiten, den AI-Act umzusetzen in ihrer Governance, in ihren Prozessen, in ihren Rollen und haben hier schon sehr erfolgreiche Projekte mit Unternehmen gemacht, auch im hochregulierten Bereich.
01:19:54
Speaker
Und die Konklusion, die ich vielleicht mit den Zuschauern oder Zuschauerinnen teilen möchte, ist, der AI-Act ist besser als sein Ruf.
01:20:02
Speaker
Und es ist tatsächlich einfacher, den AIAC zu implementieren, als es jetzt so scheint.
01:20:10
Speaker
Das Wichtige ist, damit anzufangen und sich damit zu befassen.
01:20:15
Speaker
Und das merken wir bei allen Projekten, dann sieht man, dass die Unternehmen schon sehr, sehr viel haben.
01:20:20
Speaker
Es ist ja schon sehr, sehr viel da.
01:20:22
Speaker
Die meisten Organisationen fangen ja nicht Greenfield an, sondern haben eine Art von Data Governance, haben eine Art von Risikomanagement,
01:20:30
Speaker
Da gilt es, die Teile zusammenzuführen und strukturiert weiterzumachen.
01:20:35
Speaker
Und das möchte ich allen Unternehmen mitgeben.
01:20:38
Speaker
Fangt damit an.
01:20:40
Speaker
Es ist nicht so schlimm, wie es scheint.
01:20:42
Speaker
Und es gibt sehr, sehr viele Stellen, die unterstützen euch dabei.
01:20:46
Speaker
Weil ich glaube, wenn man...
01:20:47
Speaker
diese Kuh vom Eis bringt oder beziehungsweise diesen Knoten auflöst, dann kann man einfach mit mehr Mut, mehr Entschlossenheit und mehr Drive weitermachen, ohne dass einen permanent die Gedanken plagen, oh Gott, vielleicht bin ich im Scope des AI-Acts und um Gottes Willen, was muss ich dann tun?
01:21:06
Speaker
Also ich glaube tatsächlich, diese Angst, diese Unsicherheit gilt es einmal quasi zu adressieren und wir sehen, dann läuft es.
01:21:13
Speaker
Und es funktioniert dann einfach besser mit KI-Applikationen, KI-Anwendungen und einfach das auch erfolgreich einzusetzen, weil einen dann diese Sorgen nicht mehr plagen, man genau weiß, okay, das ist die Richtung und dort stoßen wir hinein.
01:21:27
Speaker
Ja, sehr, sehr spannend.
01:21:30
Speaker
Viel zu tun, glaube ich, für dich.
01:21:34
Speaker
Das wird ein arbeitsreiches Jahr.
01:21:36
Speaker
Aber klar, natürlich, es geht um den realen Alltagskontext, um die Rechtssicherheit im betrieblichen Alltag, um die Aufgaben und Pflichten und die Verantwortung.
01:21:48
Speaker
wie in jedem anderen Rechtsbereich auch.
01:21:52
Speaker
Und ich glaube, der Wunsch oder das Bedürfnis von Unternehmen ist da sehr groß nach Klarheit und nicht, ich glaube, gefühlt oder instinktiv,
01:22:05
Speaker
Begreifen die Verantwortlichen in den Firmen schon, dass man sich jetzt nicht einfach auf eine Presseaussendung aus dem Silicon Valley verlassen kann, dass das alles super easy und sexy und die Antwort auf alle meine Fragen sein wird und auf meine Bedürfnisse.
01:22:25
Speaker
Ja, also man kann dich auch mit privatwirtschaftlichen Anfragen kontaktieren und du hilfst dann weiter als deine Anwältin.
01:22:36
Speaker
Und du hilfst dann nach bestem Wissen und Gewissen weiter da Licht ins Wasser.
01:22:42
Speaker
AI-Act dunkel zu bringen.
01:22:44
Speaker
Janett, vielen Dank, dass du da warst, Rede und Antwort gestanden hast und für ein gutes Gespräch zu mir ins Studio gekommen bist.
01:22:53
Speaker
Ich hoffe, ich lade dich jetzt hiermit wieder ein, in absehbarer Zeit für ein Update wiederzukommen.
01:23:01
Speaker
Hast du Lust?
01:23:02
Speaker
Sehr, sehr gerne.
01:23:03
Speaker
Ich komme immer gerne zu dir zum Plaudern auf die Couch.
01:23:05
Speaker
Ich versuche so gut wie möglich Rede und Antwort zu stehen.
01:23:09
Speaker
Aber deine Fragen sind ab und zu tricky.
01:23:11
Speaker
Da muss ich dann die juristischen Tricks auspacken, um mich dann ein bisschen rauszuwinden.
01:23:15
Speaker
Es kommt drauf an, habe ich schon gelernt.
01:23:17
Speaker
So ist es.
01:23:18
Speaker
Obwohl, das habe ich heute nicht einmal benutzt.
01:23:19
Speaker
Das stimmt, das hast du heute nicht gesagt.
01:23:22
Speaker
Nächstes Mal wieder.
01:23:23
Speaker
Danke, mir ist schon klar, dass du nicht die Antwort auf alle Fragen haben kannst.
01:23:26
Speaker
Noch nicht.
01:23:27
Speaker
Wir arbeiten daran.
01:23:28
Speaker
Excellent.
01:23:32
Speaker
Aber tatsächlich werde ich deine Website natürlich in die Shownotes packen, auch für Interessensvertretungen, die mit jemandem in Sachen AI Governance zusammenarbeiten wollen, wie wir es ja auch schon getan haben mit der UVA und dir.
01:23:50
Speaker
dass man dich auch findet.
01:23:51
Speaker
Und ansonsten, ja, schön, dass du da warst.
01:23:55
Speaker
Bis zum nächsten Mal.
01:23:56
Speaker
Auch an euch.
01:23:57
Speaker
Vielen Dank, dass ihr dran geblieben seid.
01:24:00
Speaker
Ich hoffe, es hat euch ein wenig den Tag versüßt oder die Nacht.
01:24:05
Speaker
Ich weiß es nicht, wo ihr das gerade auch hört.
01:24:08
Speaker
Wenn ihr Fragen habt, gerne an deeptalkatmike-rider.com.
01:24:14
Speaker
Und ich freue mich natürlich sehr über ein Abo oder über eine Bewertung des Podcasts auf der Plattform eures Vertrauens.
01:24:22
Speaker
Und über Mundpropaganda freue ich mich natürlich am allermeisten.
01:24:26
Speaker
Danke euch und bis bald.
01:24:28
Speaker
Ciao.