Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#8: Medienkünstlerin Stephanie Meisl: Microtargeting in der Werbung und KI  image

#8: Medienkünstlerin Stephanie Meisl: Microtargeting in der Werbung und KI

S1 E8 · Mic Rider Deep Talk
Avatar
91 Plays4 months ago

In dieser Folge unterhalte ich mich mit der Medienkünstlerin und KI  Expertin Stephanie Meisl über ihren persönlichen Werdegang, ihren Zugang zu  neuen Medien, über Entwicklungen in der Werbebranche von der  klassischen TV Kampagne bis hin zu Microtargeting auf Social Media und  natürlich auch über KI und die Auswirkungen auf unsere Kreativwirtschaft,  Demokratie und Gesellschaft. Da bleibt kein Auge trocken (auch wenn es sich hinter dem Mikrofonständer versteckt…)  

Nachrichten an: deeptalk@mic-rider.com

Website: https://www.mic-rider.com/

Host und Redaktion: Patrick Messe (https://www.patrickmesse.at/)

Zu Gast: Stephanie Meisl (https://www.myselle.com/)

Ton:  Lukas Wurm (https://lukaswurm.com/)

Drehort: Mic Rider Studio (https://www.mic-rider.com/)

Recommended
Transcript

Einführung und Gastvorstellung

00:00:01
Speaker
Mike Rider Deep Talk. Menschen. Business. Diskussionen. Der Mike Rider Podcast. Hallo und herzlich willkommen beim Mike Rider Deep Talk. Heute wieder bei mir im Studio in den Mike Rider Headquarters. Bei mir zu Gast ist heute Stephanie Meisel. Freue mich sehr, dich hier begrüßen zu dürfen. Du bist Medienkünstlerin und Mitbegründerin des Künstler Kollektivs Davon Gard.
00:00:29
Speaker
Darüber hinaus, erzähl uns von dir. Wo bist du, was kannst du, wo gehst du hin, wo kommst du her?
00:00:37
Speaker
Danke für die Einladung. Wer ich bin, was ich kann, wo ich herkomme. Ich komme ursprünglich aus Hallein, bei Salzburg. Das Mädel vom Land. Und bin aber seit immer schon so ein bisschen mit neuen Technik-Dingen in Berührung gekommen. Der Papa hat damals den Commodore C64 nach Hause geschleppt.
00:01:01
Speaker
Und wenn man Computer spielen wollte, muss man das Ding dann installieren mit den Floppy Disks und sich damit auseinandersetzen. Warst du ein Nerd als Kind? Beschreibe-Nerd.
00:01:17
Speaker
Ja, das kann ja alles sein. Ich bin auch ein Nerd. Ich war eher so Dungeons & Dragons-Fantasy-Nerd zum Beispiel. Wirklich? Ja, schon.

Frühes Interesse an Technologie und digitale Anfänge

00:01:25
Speaker
Aber für mich ist Nerd einfach jemand, der sich in eine Sache total reinfiegt und total aufgeht. Und das ist vielleicht nicht unbedingt die Sache, wo jetzt die 28 anderen Kinder aus der Klasse auch voll drauf abfahren, sondern eher die zwei Restlichen.
00:01:43
Speaker
Okay, Manuel Will, hallo. Und ich habe damals die Computer immer wieder auseinandergebaut, wieder zusammengesetzt. Von ihm habe ich damals auch meine allererste E-Mail-Adresse bekommen, auf Yahoo. Okay.
00:01:59
Speaker
Ich habe leider den Zugang vergessen, aber ich habe noch die ersten ausgedruckten E-Mails. Und das war so, ja, das war lustig, weil er hat dann gesagt, Stef, da ist was Neues, das musst du unbedingt ausprobieren. Und ich so, was mache ich jetzt damit? Dann war es ja so für mich, da gibt es so etwas wie das Internet. Und da haben wir dann das Ganze gezeigt und ich sitze dann so da und dann war das so, na ja, das ist ein
00:02:20
Speaker
Visitenkarte auf dem Monitor. Wird die erste Plattform heißen? Die erste Suchmaschine? Alter Vista! Ah, okay. Ich bin noch immer nur auf ICQ hängen geblieben. Das war das erste Chatprogramm, das ich kenne. Das war total nervig. Wirklich? Ja, schon.
00:02:42
Speaker
Ich habe es nicht bekommen, lustigerweise. Darum habe ich es nicht cool gefunden. Ah ja, verstehe. Ich habe es bekommen, deswegen habe ich es cool gefunden.
00:02:52
Speaker
Nein, aber es war natürlich so toll für mich, weil ich halt Freunde und Verwandte in Rumänien hatte oder woanders und mit denen war Telefonieren damals sau teuer. Und E-Mails kannte ich noch nicht und das war so die erste Möglichkeit, wie ich so international in Kontakt bleiben konnte mit Menschen. Aber gut, daher komme ich. Aus der Zwischenzeit zwischen analog zu digital, kann man das so sagen? Ja, ich finde das best of both worlds, oder?
00:03:22
Speaker
Wir wissen noch, wie das Leben ohne Internet funktioniert. Ja, schon. Und sie sind noch nicht völlig hilflos überfordert und der Sache ausgeliefert wie unsere Eltern. Oh Gott, ja. Jawohl. Mein Papa eben, wie gesagt, kommt von 1964. Danke, Daddy. Ja, klar. Aber wenn ich an meine Eltern denke... Waren die nicht so? Oh, okay. Nein, es ist okay. Aber es ist auch nicht besonders...
00:03:52
Speaker
Sie sind nicht die Hellsten. Okay, das streichen wir die Bügel vorwärts. Du reintest dich jetzt voll in die Scheiße. Würde ich das sagen, wäre man nie cool. Du warst sozusagen immer schon technisch interessiert und immer schon so ein bisschen am Basteln. Ich weiß, du bist dann in die Filmproduktion gegangen.
00:04:16
Speaker
Ja, ich war zärtliche 17, sagt man das zärtlich? Zarte 17. Ich war auch zärtlich mit 17. Okay, Entschuldigung. Ich war

Piraterie, Ethik und technologischer Wandel

00:04:34
Speaker
zarte 17. Das geht gerade nicht. Das ist voll okay, wir lassen es alles drin.
00:04:40
Speaker
Nein, das weiß ich nicht. Obwohl, das wäre wieder lustig. Ja, ich finde schon. Das macht das. Nein, ich war 17 im Jugendzentrum Hallein, Sonne 11. Oder 17, 18. Ja, 17, sowas herum. Und da war der Stefan Eder, mittlerweile bekannt unter DJ Odd. Der kam dann damals rein und meinte, hey, da gibt es irgendwie so was Cooles wie Visuals.
00:05:03
Speaker
Wäre da nicht irgendjemand bei uns bereit, so was zu machen? Keine Ahnung, ich war ein sehr übermotiviertes Teenager-Kid, nachdem das mit der Band und Sinkernjahre nicht funktioniert hat. Es war ein bisschen ein Botschafter-Versuch.
00:05:20
Speaker
bin ich dann in diese Richtung gegangen und das war irgendwie so, okay, cool, die Jungs legen alle auf und ich hab mir dann quasi diesen visuellen Spot dann gekrallt und wir waren halt dann so ein VJ-Kollektiv von zwei Personen, Sabine Bruckner und ich und wir hießen damals Fiufone, hatten ein legendäres Lobo mit einem Auge mit Kopfhörer drauf. Cool.
00:05:44
Speaker
und haben dann angefangen, Visuals zu machen. Daraus ergab sich dann so ein DJ-VJ-Kollektiv, Azubi-Schalte Lüx, quasi die Azubis von der Zone 11, und da haben wir dann Veranstaltungen gemacht und Partys gemacht.
00:06:02
Speaker
Anhand dessen habe ich gelernt, wie man Videos schneidet, wie man mit der neuen Technik umgeht. Und damals war das wirklich analog. Das heißt, man hat von einer Digitalkamera über Bluebox das Material schleifen müssen und dann wieder raus auf einen VHS oder Super VHS Videorequader.
00:06:27
Speaker
Wir hatten echt viel Technik. Das war echt ein Haufen Arbeit damals. Ich glaube gar nicht mal so billig, wenn man das selber produzieren wollte.
00:06:38
Speaker
Ja eben, danke Daddy, Computer, war zu Hause und der Freundeskreis war halt auch schon ein bisschen, also ich hab ein paar Freunde gehabt, die war schon in der FH bei Multimedia Art und die waren ein bisschen älter und von denen hab ich halt diese Infos dann gekriegt und wir haben ein riesengroßes Netzwerk gehabt von, ich darf's eh nicht laut sagen, aber wir haben nur gerippte Software gehabt.
00:07:00
Speaker
Du darfst es laut sagen. Ich glaube, Adobe hört meinen Podcast nicht. Es war die Zeit damals super, weil da gab es einen Freund von uns, der hat es echt geschafft, die erste Internetflatrate zu breaken.
00:07:16
Speaker
Weil er

Übergang zu Kommunikationsstudien und interkulturelle Erfahrungen

00:07:17
Speaker
halt es schamlos ausgenutzt hat, bzw. er war sich halt dessen nicht bewusst, dass man das nicht machen darf. Das heißt, er hat nur gesaugt. Musik, Filme, Software. Und wir sind halt immer so mit einem 6er-3er Bier dann zu ihm in die Wohnung. Und es waren wirklich so diese, was handeln das für Stangen, die man im Badezimmer hat, wo man dann die CD-Roms dann quasi aufschlichtet.
00:07:39
Speaker
Wie so Vorhangstangen oder wie? Ja, ist ja Vorhangstangen, wahrscheinlich. Also die haben in den Raum gerichtet worden und die waren knacken voll mit DVDs und das war so, okay, du bringst die Rohlinge mit, sagst was du brauchst und eine Stunde später hast du halt deine Kubinen gekriegt. Media-Dealer. Daraufhin gibt es jetzt Fair Use oder wie heißt das jetzt bei Flat Rates? Also er war einer davon, der das ausgerätzt hat. Und wir, ja, organisiertes Teenager-Netzwerk.
00:08:07
Speaker
Aber am Ende des Tages haben wir uns damit auseinandergesetzt und wir hatten kein YouTube mit Tutorials. Es gab ganz wenige ganz trockene, furchtbare Bücher. Die kaufst du einmal und dann nie wieder. Du sagst, oh Gott, wer hat das geschrieben? Und du probierst das aus.
00:08:27
Speaker
Ja, crazy. Wie war dann der Übergang zu KI-Algorithmen und so weiter? Du beschäftigst dich jetzt auch schon länger damit. Stimmt, ja. Dann machen wir jetzt ein bisschen fast forward in die Zukunft. Ja, okay, sorry. Nein, das ist ... Nein, ich sag so nichts. Das passt schon. Aber es ist eigentlich so ein recht schönes Beispiel,
00:08:49
Speaker
am Ende des Tages ein ähnlicher Zugang ist und darum tue ich mir jetzt wahrscheinlich so leicht, mir quasi diese neuen Technologien anzueignen, weil es gibt keine Blaupausen dafür. Wie gehen wir jetzt damit um? Also ich habe so irgendwie so nostalgische Gefühle.
00:09:07
Speaker
Weil wir müssen das jetzt alles quasi herausfinden. Der Unterschied zu damals ist halt, wir haben jetzt ein riesengroßes internationales Netzwerk mit Leuten, die genau in der selben Situation drinnen sitzen und die das jetzt austesten und ausprobieren. Und deswegen bin ich dann auch darin geblieben. Und wenn du das jetzt genau wissen willst, gibst du dir den 2018er Einstieg.
00:09:30
Speaker
Gerne, genau. Du musst es dann irgendwie cool zusammenschneiden. Ich schneide das voll cool. Du wirst es nicht schneiden, gell? Du musst aber die Geschichte mit deinen Eltern drin lassen. Ja, unbedingt. Paprik mit den Scherenhänden. Also ich habe, nachdem ich mich digital als Teenager ausgetrobt habe, meine erste VJ-Karriere damals schon hingelegt habe,
00:09:53
Speaker
Also wir wurden damals wirklich gebucht bis nach Berlin rauf und war recht umtriebig in Österreich in diesem Metier. Wir sind aber dann im Endeffekt, also die Alexandra Braschel und ich, wir sind halt dann daran gescheitert, dass heute die Technik schneller, günstiger und effizienter wurde.
00:10:12
Speaker
Technischer Fortschritt, super. Und wenn dann plötzlich jeder zwei beste Student und Studentin dann plötzlich mit einem Laptop daherkommt und ein Programm automatisch ablaufen lassen kann, dann gehen wir als Medienkünstlerinnen dann halt flöten, weil wir wären halt dann zu teuer. Und für zwei Bier und zwei Freikarten stelle ich mich nicht von fünf am Abend bis um fünf in der Früh
00:10:41
Speaker
Veranstaltungsbude und verbringe dann meine Freizeit irgendwie unbezahlt oder unterbezahlt. Ja, das verstehe ich gut. Also der Trend war da, der technische Fortschritt geht voran, schreitet voran und ich habe mich dann entschieden, gut, ich muss von irgendwas leben und die Mama hat mir gesagt, du musst irgendwas Gscheites lernen, Kunst kann es nicht sein und ich so, okay, dann machen wir halt Kommunikationswissenschaften.
00:11:07
Speaker
Das war ja ungefähr der selbe Aspekt wie Kunst studieren. Also, mein Mutter, was macht man denn damit? Und ich so, irgendwas mit Medien. Genau, irgendwas mit Kommunikation. Irgendwas mit Kommunikation, Medien und so weiter. Und das war aber eigentlich extrem prägend, weil eben, wie wir Menschen miteinander kommunizieren, ist eigentlich so eins der wesentlichen Dinge, die man jetzt bei der KI
00:11:32
Speaker
brutal brauchen und wie wir psychologisch funktionieren. Aufgrund diverser Nachrichten und so weiter spielt sich alles jetzt wieder rein. Bin dann nach Hawaii gegangen, weil das kleine Kind vom Land wollte es ja wissen. Schauen wir mal, wie weit weg kann man mich von zu Hause. Es war dann Hawaii. Zwölf Stunden Zeitunterschied. Meine Masterarbeit, meine Master-These, da ging es um die interkulturelle Nutzung des Cellphones.
00:12:02
Speaker
Und mein Professor, der Dr. White, meinte, Frau Meisel, Ihre Arbeit ist die letzte Ihrer Art. Und ich so, why? Und der hat dann gemeint so, ja, weil gerade die Leute vom Apple Store campen, um das neue iPhone zu bekommen. Das war wirklich so eine Grenze zum neuen iPhone. Wow, okay.
00:12:21
Speaker
Und er selber, das Handy halt.

Medienplanung und ethische Bedenken in der Werbung

00:12:27
Speaker
Natürlich war es auch spannend. Und er hat damals schon gesagt, das wird halt wahrscheinlich die komplette Welt und wie wir Telefonen nutzen, verändern. Und er hat recht behalten.
00:12:38
Speaker
Und abschließend war noch eine lustige Begegnung mit Frau Dr. Penny Smith, die man übrigens ich muss das echt erwähnen, weil es mir bis heute nicht eingeht ich habe einen Grad eine schlechtere Note bekommen, weil ich nicht zur letzten Veranstaltung gekommen bin, wo wir Eis essen gingen.
00:12:59
Speaker
Oh nein. Ja, die hat echt mein Coden runtergeholt. Now it's personal. Dr. Penny Smith. Seriously. Sie war irgendwie lustig, weil Advertising Strategy war der Quiz. Da lernst du auf jeden Fall, wie Werbung funktioniert und dass wir Werbung, Fernsehen, Radio, Out-of-Home, Magazine, Nachrichten etc., dass es immer darum geht, wie viele Leute du sehst und wie hoch ist der Steuerverlust.
00:13:27
Speaker
Und der Steuerverlust ist der Knackpunkt für die Digitalisierung. Und ich meinte so, Dr. Smith, aber eigentlich, so nach dem ganzen, was Sie mir jetzt erzählen, ist eigentlich online ein wahnsinnig tolles Werbetool dann in Zukunft. Und sie so, na, das glaubt sie nicht. Wird sie nicht durchsetzen.
00:13:48
Speaker
Und deswegen wissen wir heute alle, wer Dr. Penny Smith ist. TV ist so die Schrotflinte irgendwie. Man ballert so in die Welt hinaus und hofft, dass ein Körnchen irgendwas trifft. Und online ist so super genau targetiert und du kannst, oder? Inzwischen.
00:14:09
Speaker
Beim Fernsehen ist es auch so, dass die unterschiedlichen Fernsehformate, also Sport-Sendungen, mit der Werbung dann hauptsächlich männliche Werbung. Das heißt, man kann zumindest eingrenzen, wer es wahrscheinlich anschauen wird. Auf Konsumentengruppen sozusagen schon, klar, aber jetzt targetiert, dass man wirklich individuell
00:14:30
Speaker
Dass ich den Patrick messe, das richtige Mikrofon so oft rein knallt in seinem Social Media Feed, bis es endlich kauft. Zum Beispiel. Das geht auf Social Media. Ja, und jetzt habe ich schon fünf davon. Was mache ich jetzt?
00:14:46
Speaker
Gut gemacht, Neumann. Ich finde, du solltest dich sponsern lassen. Ja, ich finde auch. Neumann weiß es nur noch nicht. Hier passieren die guten Dinge, also bitte her mit der Kohle. Ja, cool, okay.
00:15:06
Speaker
Genau. Und nachdem es in Hawaii sehr schön ist. Aber es ist eine Insel. Und es kommt dann der Inselcolor. Plus man vermisst tatsächlich, aus Österreich kommen eben das Mädchen vom Land vermisst Schnee und Herbst. Nein, das und die Kunst und Kultur. Also Hawaii ist wirklich so der letzte Corner auf der Planet quasi. Da kommt halt selten bis gar nicht irgendwie irgendwas hin und das ist so, ja.
00:15:34
Speaker
Ja, ich glaube, naturmäßig ist es schon so das Paradies. Bombastisch. Bombastisch. Es ist wirklich das Paradies. Gibt es überhaupt nichts. Aber es war dann noch zwei Jahre, da war es mir dann wirklich zu kitschig. Also, wirst du, wir kommen aus Europa. Wir brauchen scheiß Wetter, damit wir da irgendwie inspiriert werden, irgendwie weiterzukommen. Menschen, die uns anschreien im Straßenverkehr. Oh ja, ich liebe es.
00:15:59
Speaker
Genau, und dann kam ich wieder nach Europa-Retour und hab dann mal angefangen, einen Job zu suchen und landete dann bei der Mindshare. Die jetzige Group M ist eine Medienagentur. Und was machen sie? Sag's uns. Make an educated case.
00:16:17
Speaker
Wahrscheinlich Werbung. Targetiert? Es war die erste Online-Abteilung von der Mindshear damals. Und was recht spannend war, ist, dass die Christina in Langer Winter, kennst du sie?
00:16:31
Speaker
Sagst du das noch? Nein. Ich bin aber auch ganz schlecht mit Namen. Ich bin nur sehr gut mit Gesichtern. Die Worte, die siehst du dann von dort, von der Mainscher zu Google Österreich und sie sitzt in der Google Schweiz. Richtecke abgebogen. Und eine Corifée, also wahnsinns tolle Frau, hat den absoluten Riecher für die Zukunft gehabt. Die beste Chefin der Welt, die man sich wünschen kann. Es ist wirklich so. Ich habe so viel gelernt von ihr.
00:16:56
Speaker
Und da waren wir heute quasi in der Medienplanung. Das heißt, du kriegst ein Werbeetat und verbuchst dann für Lufthansa zum Beispiel die Werbung. Und du bist heute quasi mitten drinnen in Algorithmen. Also auch damals schon. Jaja, natürlich. Und du lernst jetzt quasi, wo finde ich Patrick, wenn ich ihm jetzt das Mikrofon unterjubeln möchte?
00:17:19
Speaker
Das muss man in der Medienplanung herausfiltern und schauen, welche Plattformen die richtigen sind. Wie zum Beispiel Szene 1, Musikveranstaltungen, der Vorreiter vor Facebook. Ich habe mich dann immer gefragt, ist es gesund, wenn wir zum Beispiel in Wien eine andere Werbung schalten als in Salzburg? Hast du dich das damals schon gefragt? Ja. Cool. Das war mein Problem.
00:17:45
Speaker
Ja? Gewissensmäßig, oder wie? Du sitzt halt da und merkst, du kannst einen riesengroßen Ungleichgewicht hervorrufen. Wir haben dann die ersten Advertorials gehabt, wo wir bewusst Werbeartikel, die dann ausgeschaut haben wie echte Artikel, in die Nachrichtenplattformen eingebettet wurden. Wow. Ist das dasselbe wie Native Advertisement, oder ist das was anderes?
00:18:17
Speaker
Ich glaube, das ist der Vorläufer. Und das hieß eben damals Advertorial und das war jetzt so quasi, boah, das ist voll cool, weil die schaut aus wie ein Bericht quasi, aber es ist eigentlich bezahlte Werbung. Und das kam ja erst später dazu, dass man das ja deklarieren muss.
00:18:34
Speaker
Ja, als das alle erst mal schamlos gemacht haben. Natürlich. Da ist das Geld zu Hause, geht schon, bring it on. Und für mich war das dann so, ich kann es einfach nicht. Also ich weiß es, was ich kann. Und ich bin dann eigentlich immer so jemand, ich würde das dann, ich will das nicht für McDonald's verwenden, sondern für zum Beispiel die Firma NACO, die den kompostierbaren Plastik macht.
00:19:00
Speaker
Weil ich finde es auf einen Wegen, das finde ich halt viel wichtiger als zum Beispiel eine Fast-Food-Firma, die uns erstens die Erde kaputt macht, uns fett macht und 15 Millionen Krankheiten dann auslöst. Und da bin ich halt dann, weiß ich nicht, überverantwortungsbewusster mit dem Menschen. Ja, ich glaube, es ist auch eine Persönlichkeitsfrage, oder, ob man da sein Gewissen ausschalten kann und sagt, ich trenne das, weil ich werde dafür bezahlt.
00:19:28
Speaker
Oder jemand, der das vielleicht ganzheitlicher sieht, so wie du, oder auch ich persönlich, der dann auch sagt, ich werde sehr wahrscheinlich sehr, sehr unglücklich, wenn ich das jetzt noch weitermache und sehe den heeren Sinn darin nicht oder dieses Purpose-Ding, was einen Menschen ja antreibt.
00:19:51
Speaker
Zeit gegen Geld ist nicht ein Purpose-Ding, sondern es ist eher ein schmutziger Hinterhof-Deal, wenn ich das jetzt mal überspitze. Das ist dirty money talking. Ja, genau. Was es jetzt nicht schlecht macht, aber was ich in meiner persönlichen Umgebung irgendwie doch mitbekomme, ist, dass diese Menschen dann spätestens in der Mitte ihres Lebens sehr, sehr unglücklich damit werden.
00:20:21
Speaker
Ich glaube irgendwann mal holt es jeden einen, so diese moralische Watschen. Und dann gehen sie alle auf irgendwelche Yoga-Retreats mit der Vierzig und machen eine Umschulung und gehen in den Minuskerenz und sind plötzlich total Aromatherapist. Das müssen wir rausnehmen, Patrick. Ich kann die Yoga-Leute nicht, die bringen mich um. Ich kenne so viele davon.
00:20:46
Speaker
Vegane Yogalehrer.

Verantwortung und Nachhaltigkeit in der digitalen Welt

00:20:50
Speaker
Das ist so, ich merke es gerade so richtig. Du sitzt so während du redest, kommen schon so hinter dir mit ihren Yogamatten. Ja, du weißt, was ich mein kann. Ja, ja, total. Also bitte keine Yogacensur, Yogacensur.
00:21:11
Speaker
Ich hätte es doch trotzdem gerne, aber nicht veröffentlicht. Wo waren wir? Ich glaube, es holt dich irgendwann mal ein. Früher oder später, da bin ich der festen Überzeugung, ist dieser
00:21:28
Speaker
Jugendliche oder dieser Poststudiumsmoment so, ich habe jetzt fertig studiert, jetzt geht es ums Kohlemachen, irgendwann ist das halt wieder weg. Weil entweder haben wir Kinder oder man hat generell irgendwie so ein bisschen mehr Bewusstsein für das, was rundherum passiert und wie viel wir eigentlich, trotzdem wir nur so ein kleiner Teil einer riesengroßen Masse sind, aber wie viel wir da mitbewegen können. Und dass es am Ende des Tages unsere eigene Entscheidung ist, wie weit wir gehen und wie weit wir diese Spieler mitspielen.
00:21:58
Speaker
Absolut. Absolut. Ich finde das total wichtig. Bei mir ist es auch immer so ein, ich weiß, ich kann die Welt nicht verändern, aber ich persönlich fühle mich besser, wie ich durch den Tag gehe, wenn ich mich, wenn ich gewisse Entscheidungen bewusst treffe oder bewusst entscheide, Dinge abzulehnen, weil ich die Dinge in einem größeren Kontext sehen kann, wie du sagst, jetzt spätestens seit ich Vater bin, seit 7,5 Jahren.
00:22:28
Speaker
Ja, es ist einfach was anderes. Es geht nicht mehr nur um mich.
00:22:35
Speaker
Ja, das Ego ist schon sehr, sehr stark, aber noch stärker ist das Gefühl der Verantwortung für einen kleinen Menschen, dem man das Bestmögliche irgendwie hinterlassen möchte. Und ja, da hat sich doch sehr viel bei mir geändert, auf jeden Fall. Und ich glaube, es ist jetzt nichts Besonderes. Ich glaube, es geht den allermeisten. Nein, es geht uns zur Rolle. Ich bin zwar nur Tante, aber trotzdem sind die ganzen Kinder von Freunden und Freundinnen in meiner Umgebung.
00:23:03
Speaker
Ich möchte schon, dass wir denen dann quasi eine Welt mitgeben, die wir nicht komplett fertig gemacht haben und nicht komplett ausgehöhlt. Wir machen es eh schon in großem Stil. Wir sind schon sehr gut dabei, finde ich. Ich finde, wir arbeiten da sehr fleißig mit Fleißbildchen und extra Sternchen darauf hin. Aber es gibt doch auch ... Das sind eher Totenköpfe, ganz ehrlich.
00:23:25
Speaker
Okay. Aber es gibt ja schon auch eine Gegenbewegung und das Pendel schlägt schon auch in die andere Richtung aus. Ob jetzt schnell und stark genug, das müssen andere entscheiden. Dazu fühle ich mich nicht in der Lage, kompetent genug das jetzt zu sagen. Aber daran vielleicht anknüpfend, wie empfindest du denn die digitale Welt, die wir unseren Kindern hinterlassen oder die wir gerade schaffen?
00:23:55
Speaker
vielleicht die Produktivität zu steigern, um uns unangenehm belästige Arbeiten vom Hals zu schaffen und so weiter. Die Effizienzsteigerung.
00:24:07
Speaker
Das ist das, was man mir erzählt. Ich habe nur den Salespitch wiedergegeben. Man hat mir immer gesagt, und wenn die KI kommt, dann hast du endlich Zeit für all die Dinge, die du schon immer mal machen wolltest, lieber Patrick. Was sind denn die, die du machen willst? Ja genau, das habe ich mich auch gefragt.
00:24:25
Speaker
Ich mache ja schon das, was ich liebe und was meine Leidenschaft ist. Ich würde total gerne eigentlich das weitermachen, weil ich da wirklich gut drin bin und weil ich das sehr gerne mache und weil ich da auch einen höheren Sinn drin sehe in dem großen Teil der Dinge, die ich mache.
00:24:45
Speaker
Und wenn du das meiner Buchhalterin gesagt hättest, hätte das vielleicht einen anderen Effekt gehabt. Ich weiß es nicht. Nichts gegen Buchhalter an dieser Stelle. Manche lieben ihre Jobs. Aber um auf die Frage tatsächlich zurückzukommen, wie empfindest du die digitale Welt, die wir gerade schaffen?
00:25:06
Speaker
Die zwei Seiten der Medaille. Einerseits wahnsinnig faszinierend. Also ich bin wirklich geflasht, was alles möglich ist. Auf der

AI, Überwachungskapitalismus und digitale Transformationen

00:25:15
Speaker
anderen Seite so von dem what the f is going on. So quasi eben mit dem Zusatz what can possibly go wrong und dann macht es einfach nur so Alarm, Alarm, Alarm, Alarm. Everything.
00:25:28
Speaker
Also denke mal diesen Gedanken weiter und versuche mal, das zu extrapolieren, wie die Zukunft in fünf oder zehn Jahren aussehen könnte. Mit dem rasanten Entwicklungsschritt, den wir jetzt machen. Da ist es dann teilweise schon ein bisschen so spooky. Und da kann ich jetzt dann darauf eingehen, wie ich überhaupt zu dieser ganzen Thematik, die Stef, das Mädchen vom Land, setz dich mit KI auseinandergekommen bin. Ja, genau. Das war ja gerne.
00:25:56
Speaker
Genau, das war so eben, nachdem ich da in dieser Online-Media-Welt unterwegs war und dann habe ich gesagt, okay, geht nicht, ich will wieder in die Kreativität rein, ich muss was machen damit, also ich muss mich kreativ, künstlerisch ausdrücken und so weiter und so fort. Daraufhin folgte eben die Filmproduktionsfirma Sequence mit Alex und die hat es uns dann in der Pandemie aufgestellt.
00:26:21
Speaker
Aber bevor die Pandemie kam, das war so 2018 herum, habe ich mit einem Team zusammengearbeitet. Es waren zwei Wiener, also eigentlich Salzburger, aber sie waren dann in Wien lokalisiert, die dann in L.A. eine Dokumentarfilmproduktion
00:26:37
Speaker
Dokumentarfilmproduktion aufgemacht haben. Und die haben dort bei Produktionsfirmen dann quasi die Ideen gepitcht. Das heißt, man geht in eine Vorrecherche rein, schaut einmal, was ist das Thema, wer sind die Protagonisten, was kann man da alles rausfinden und so weiter und so fort. Und diese ganzen Rechercheinformationen haben sie mir gegeben und ich habe das Ganze dann visuell in einem
00:26:58
Speaker
Pitchdesk dann umgestaltet. Proof of Concept oder so. Genau, also so ein Design halt quasi. Mit dem gehst du dann raus und ich hab dann immer so diese Nerdige, nachdem wir vorher schon gesagt haben, ein Nerd taucht da ein in diese Szenarien. Diese Angewohnheit mich dann mit diesen Themen
00:27:17
Speaker
vielleicht ein bisschen zu viel auseinanderzusetzen. Und die haben halt diese edgy Themen gehabt. Also eins davon war jetzt so The First Lady of Isis, was dann aber letztes Jahr zum Emmy nominiert wurde und jetzt A Radical Life heißt. Sie haben diese Themen dann wirklich tatsächlich dann realisiert und umgesetzt und das hat dann funktioniert. Und
00:27:40
Speaker
Und das andere Thema, das die auch gehabt haben, ich nenne jetzt nur zwei, das ist Pizzagate. Und da geht es bei beiden Themen eigentlich darum, wie Social Media und wie die Online-Welt verwendet wird, mit gewissen Dingen passieren. Also bei der First Lady of ISIS ging es halt darum, die beiden, also sie war aus England, er war aus Amerika.
00:28:04
Speaker
Und die haben sich über eine muslimische Datingplattform getroffen. Und sie war in London eigentlich permanent mit dem Anti-Aslam oder Anti-Muslimen-Rassismus konfrontiert. Und die haben sich dann beide gegenseitig radikalisiert und haben gesagt so, hey, lass uns doch mal auf Afghanistan gehen. Ihre Geschichte war dann so, dass sie draufgekommen ist, dass sie als Frau in Afghanistan unter diesen
00:28:29
Speaker
Männergruppen, die da ein bisschen viel Thema dominieren, Kalaibol hat und sie wurde dann von ihm wieder über die Grenze mit ihren Kindern gebracht. Echt? Das war ihr nicht bewusst, dass du als Frau ausgeschissen hast bei den Taliban? Nope.
00:28:47
Speaker
Das ist ja erst da. Das war so zur Zeit vom Arabischen Frühling und so weiter und so fort. Das hat ja gerade erst angefangen und sie war halt in diesem Irrglauben, dass das irgendwie geht. Kommt dann wieder retour. Ist natürlich damit, dass ihr AIA, FBI und fragt mal nicht mit irgendjemanden da von denen in Verbindung. Und macht jetzt quasi Antiradikalisierungsprogramme.
00:29:10
Speaker
Auf jeden Fall, man setzt sich halt mit dieser Thematik auseinander. Und Pizzagate war quasi das andere Gegend von da. Also bei Pizzagate geht es darum, dass die Geschichte von Hillary Clinton so dargestellt wird, als ob diese amerikanische Elite dann Kinder opfert, das Blut trinkt, um irgendwelche satanischen Rituale zu machen. Ja, QAnon im Endeffekt.
00:29:38
Speaker
Ja, Q1 kommt ja eigentlich... Hat sich daraus entwickelt. Nein, die kommt von Fortschein. Ah ja, stimmt. Ja, Q1 kommt von Fortschein. Stimmt. Das ist aus dieser anonymous schrägen Abzweigerrichtung entstanden. Ja, auf jeden Fall war End of Story, war ein Typ fährt dann irgendwie stundenlang mit dem Auto nach Washington und will in dieser Bizerie die Kinder aus dem Keller holen. Nur, es gibt keine Kinder und es gibt kein Keller.
00:30:05
Speaker
und ist bis unter die Zähne bewaffnet, dann in diese Pizzeriere rein gestampft. Und eben, QAnon, Sturm aufs Kapitol, ist im Endeffekt die nächste Stufe zu dem, was man dann machen kann. Genau. Und in diesem geistigen Umfeld habe ich mich darauf gehalten. Also mein Google war damals richtig arg.
00:30:30
Speaker
Das klingt ein bisschen so, als hättest du deinen Pokémon total hoch trainiert. Mein Google wird damals richtig arg, das hat dein Clorac fertig gemacht. Ja, mindestens. Auf jeden Fall war es dann so, die zwei Fragen mit an Stef, da hast du auch irgendwie so ein edgy-Thema. So aus deinem Umfeld, so aus deinem Erfahrungen und Leben, die so, ja, da gibt es was, das heißt Microtargeting.
00:30:56
Speaker
Wie kann ich dem Patek das Mikrofon so oft online vor die Nase halten, bis er es dann endlich kauft? Gut, was macht die Stef? Sie deep dives in dieses Thema Microtargeting rein.
00:31:13
Speaker
auf Facebook, auf YouTube, auf Google, auf Instagram und schieß mich tot. Das war wirklich so eine total wahnsinnige Phase damals, weil ich es irgendwie spannend gefunden habe. Vor allem, hey, es ist jetzt mein Thema und ich muss jetzt alles darüber herausfinden. Ich habe angefangen, Links zu sammeln ohne Ende. Ich glaube, es waren dann über 1000 Links, die ich dann abgespeichert habe.
00:31:33
Speaker
Und bin dann eben so in dieses Rabbit Hole rein und dann war es surveillance Kapitalismus, Deepfakes, künstliche Intelligenz, eben Microtargeting, wie keine quasi Leute über Cookies,
00:31:50
Speaker
an Steuern und denen die Nachrichten aufbereitet, darbringen. Face recognition, China, die bei den Olympischen Spielen meinten, wir brauchen keine Ausweise mehr, wir machen das alles über die Gesichtserkennung. Straßenbeleuchtung in Amerika oder Kanada, das weiß ich jetzt nicht mehr, wo Überwachungskameras eingebaut sind, weil es ist ja voll praktisch.
00:32:16
Speaker
Big Data, was man jetzt damit machen kann und so weiter und so fort. Und am Ende des Tages hat das bei mir eine wahnsinnig orge Paranoia ausgelöst. Echt? Okay. Also nachvollziehbar, aber danke, dass du da so offen so darüber redest. Nein, das war wirklich so. Das war so von wegen bei mir war, man dachte, du gehst halt dann durch die Welt und willst mit deinen Leuten reden, mit deiner Familie und so weiter. Du kriegst immer eine ähnliche Wahrnehmung. Die sagen dann so,
00:32:41
Speaker
Ach, das ist doch egal. Ich habe ja nichts zu verbergen. Ich bin ja ein guter Mensch. Und ich so, naja, die Uiguren in China werden mit diesen Technologien gerade in Schach gehalten oder die dienen jetzt gerade quasi als Beispiele. Dann kam diese FaceApp raus, wo man sich alt machen lassen kann.
00:32:59
Speaker
Wo dann quasi die ganze Welt einer russischen Institution mit Zustimmen der AGBs die Gesichter überlassen haben. Und ich hab mir gedacht, das kann doch nur schiefgehen. What can possibly go wrong? Das hab ich mir auch schon immer gedacht. Bei solchen Sachen. Das ist doch nicht... Nein. Du zahlst trotzdem auch, wenn es gratis ist. Die Frage ist, mit was. Dann bist du halt die Ware. Das ist ja... Exakt.
00:33:29
Speaker
Ja, und auf jeden Fall war dann die Steff da drinnen und nachdem ich Facebook nicht löschen kann, manche versuchen es immer noch, Max Schrems zum Beispiel. Bester Mann, ja, wir lieben ihn.
00:33:47
Speaker
Dann bist du im Endeffekt bei dem Punkt, irgendwas musst du machen. Und das war noch kurz bevor Cambridge Analytica geplatzt ist, da hat sich dann die Netflix-Doku gegeben und dann ist das Ganze hochgekommen, war ich dann schon so, wenn man dachte, so Gott, diese Tools,
00:34:08
Speaker
Es geht so lange gut, bis irgendwann nochmal ein Ausfall ist. Und eben, nachdem ich dann angefangen habe, Facebook zu löschen und zu meinem digitalen Detox, da war ja dann so ein Mindfulness-Bubble drin, ich muss das Detoxen, bin ich dann irgendwann bei dem Punkt angelangt zu finden, fuck it. Ich muss mich mit der Technologie auseinandersetzen, denn die kommt einfach und die wird nicht einfach weggehen.

Kritisches Denken und digitale Kompetenzen

00:34:30
Speaker
Und wenn man jetzt irgendwie so eben mit meinem Werdegang die technologischen Entwicklungen jetzt so mitbegleitet bis heute,
00:34:37
Speaker
merke ich, die werden jetzt nicht auf mich hören, wenn du sagst, das macht mir ein bisschen Angst, kann man ein bisschen langsamer machen. Nein, da steht Geld dahinter, Profit, Macht, Beeinflussung, Kontrolle, frag mich nicht. Das sind relativ viele Elemente, die extrem guten Anreiz für manche Charaktere dieser Welt schaffen, um da quasi Geld reinzubuttern und das Ganze zu fördern.
00:35:02
Speaker
Und da haben wir gedacht, okay, passt. Wir nehmen uns die Kunst her. Weil in der Kunst werden diese Dinge auch ihren Platz finden. Und die Kunst macht mir keine Angst. Und darum habe ich dann eben quasi von meiner früheren Medienkunst, die dann eigentlich so mit der Kreativwirtschaft, mit meinen Tätigkeiten, mit der Filmproduktion ein bisschen nachgelegt wurde,
00:35:26
Speaker
bin ich dann wieder in diese Richtung eingestiegen und habe dann eine visuelle Installation gemacht. Digital Terrorism. Fuck you, I won't do what you tell me. Ich bezwinge jetzt meinen Algorithmus und habe dann auf Social Media Roller Skates geliked, geadded, kommentiert und habe geschaut, dass meine Newsfeeds alle wieder bunt werden.
00:35:48
Speaker
Und es ging. Und dann war es zunächst, hey, okay, gut, da ist jetzt keine malicious böse Intention von irgendjemanden dahinter, der jetzt sagt, wir müssen die Steff jetzt da quasi manipulieren, sondern ich kann das eigentlich selbst kontrollieren. Und dann habe ich dann herausgefunden, dass eigentlich diese ganzen Tools recht praktisch sind, weil man weiß, wie man damit umgeht. Mittlerweile ist es nicht mehr so.
00:36:13
Speaker
Ja, da bin ich noch ein bisschen optimistischer, auch aus Naivität. Vielleicht, weil ich mich eben nicht so intensiv mit diesen Dingen auseinandergesetzt habe. Ja, es war ein bisschen krass. Ja, das klingt ein bisschen krass. Es ist schön, dass du da bist. Es gibt mich noch. Sie hat keine Looney-Veste an, falls sie...
00:36:42
Speaker
Dummes Gehirn sagt manchmal Dinge. Ist okay.
00:36:49
Speaker
Aber mit der Kunst bin ich nicht dort gelandet. Schau, das ist ja mal gut. Ja, aber das zeigt ja eben, dass es auch anders möglich ist. Ob das sozusagen... Wie gesagt, der eine Typ fährt mit der voll bewaffnet bis unter die Zähne zu dieser Pizzerie und wird die Kinder retten. Also das ist halt das andere Extrem, was rauskommen kann. Wenn man halt so quasi rein oder da abbiegt und diese Technologie...
00:37:14
Speaker
Also nicht weiß, was es mit dir machen kann oder was für ein Potenzial dahinter steckt und wenn man nicht kritisch dem Ganzen gegenüber steht und wenn man nicht digital literate mäßig erzogen wird. Und das wird genau diese gesellschaftliche Lücke oder diese Backdoor wird quasi exploited von manchen Leuten, Institutionen, wer auch immer das ist.
00:37:36
Speaker
Wie sollten wir denn damit umgehen, weil sowohl wir als erwachsene Generation jetzt mittleren Alters wie auch immer sind ja eigentlich total überfordert von der Technologie und von dem Fortschritt und von den Möglichkeiten und von der Verantwortung, die damit kommt.
00:37:55
Speaker
Aber wir können es zumindest noch in einen gewissen Lebenserfahrungsschatz einordnen und kontextualisieren. Aber was ist mit den Kindern? Ernsthaft, bräuchte es deiner Meinung nach ein fachkritisches digitales Denken?
00:38:15
Speaker
Also zum ersten finde ich, dass wir immer noch faszinierenderweise extrem wenig Wert darauf legen, dass die Kinder in den Schulen ausgebildet werden. Also mir wurde gesagt, wir haben eine Stunde digitale Kompetenz in der Woche. Ja, meine Tochter auch. Eine Stunde.
00:38:37
Speaker
Ja, und tatsächlich bin ich zweigespalten, weil ich mir denke... Es ist zu wenig, oder? Ja, einerseits denke ich mir, es ist viel zu wenig. Das bestimmt unsere Welt. Andererseits denke ich mir, das Kind ist sieben. Muss das jetzt schon sozusagen... Ich persönlich möchte mein Kind so lange wie möglich von Smartphones, von Social Media, von neuer Technologie fernhalten.
00:39:00
Speaker
Ich weiß, dass mir nicht gelingen wird, so lange wie ich es gerne hätte. Also vom Gefühl her hätte ich gerne Smartphone mit 14 und Social Media frühestens mit 18, wenn überhaupt. Aber das ist halt nicht, also ich so naiv bin nicht mal ich, dass der Gruppendruck und die Welt
00:39:22
Speaker
um sie herum halt nicht so tickt und das wahrscheinlich kein weg dran vorbei führen wird mehr aber ich denke mir jetzt gerade hätte ich eigentlich so lange wie möglich gerne noch Happyland und die Einhornfarm, die wir zu Hause leben.
00:39:42
Speaker
Ja, ich glaube, das bleibt sicher noch lange erhalten, aber das andere ist das, eben, es kommt. Und wenn die Schulkollegen und Kolleginnen dann quasi schon die Handys haben, weil die Eltern dann nicht so bedacht darauf sind, kommt sie sowieso damit in Kontakt.
00:39:59
Speaker
Ich habe überhaupt keine Lösung darauf, was das betrifft. Ich finde einfach nur so, vielleicht ab 10, vielleicht ab 11, 12, aber es muss auf jeden Fall, aber in einem gewissen Alter, bevor sie im Teen-Alter-Alter machen, was sie wollen, weil alle Erwachsenen eh doof sind, irgendwo muss es dazwischen so eine Phase geben, wo man sich das Ganze wirklich, wirklich annimmt. Ich habe Gott sei Dank Freunde in meinem Bekanntenkreis, die
00:40:22
Speaker
brutal bedacht darauf sind, wie die Kinder damit umgehen. Also eine Freundin von mir, die hat ihrem Sohn so ein Spiegel umgeben, also sie hat ihm das Handy gegeben, aber sie hat dann auf ihrem Telefon mitgespiegelt gekriegt, was er sich anschaut, mit wem er kommuniziert und was er kommuniziert.
00:40:39
Speaker
Und Kinder sind unmethaft. Ich habe mir dann auch Fotos geschickt, wo er quasi wenig bekleidet, mir diese Comic-Dinger, also Bikinis, sich dann draufgestitched hat. Er hat es lustig gefunden, natürlich.
00:40:53
Speaker
Und wir haben sofort Alarm geschlagen und gesagt, wir müssen mit ihm reden. Wenn das irgendwer andere von dir will, schick bitte keine Fotos. Und schon gar nicht nackt. Das ist so, wie weit gehst du oder wie weit kommen die Kinder? Mit wem kommen sie in Kontakt? Ich finde, dass man da sehr, sehr viel Aufklärung schon auch machen muss.
00:41:14
Speaker
Also, was ich sicher finde, oder was sicher wichtig ist, ist, glaube ich, die Aufklärung in Richtung ordentlicher Einordnung und kritischem Denken. Weil, wenn du nicht weißt, wie du Dinge richtig einordnen kannst, unterscheiden kannst, was ist fake, was ist echt, wie überprüfe ich das, wo suche ich mir eine zweite zuverlässige, valide Quelle,
00:41:40
Speaker
Dann bist du, glaube ich, verloren heutzutage. Voll. Und da geht es jetzt ganz, ganz vielen. Also ganz ehrlich, wenn wir uns jetzt immer wieder in die Erwachsenenwelt hinauf, die Leute prüfen das nicht noch. Sie reagieren auf die Clickbaits, also auf diese Headlines, die reißerisch und emotional und teilweise auch den Rage rauslassen, fühlen sich da abgeholt, teilen das und lesen das nicht. Und es wird dann als Wahrheit angenommen, weil sie in ihrem Confirmation Bias
00:42:10
Speaker
Das heißt, sie werden in ihrer Meinung dann bestätigt. Das, was sie eh schon irgendwie gedacht haben. Die Impfung bringt uns alle um. Ich hatte damals auch jemanden, der mir gesagt hat, du darfst dich bitte nicht impfen lassen. Und ich so, too late, honey. Und er so, du wirst in zwei Jahren tot sein. Das ist jetzt vier Jahre her. Sorry, still alive. Aber diese Angst, die dann mitschwingt und so weiter. Und diese ...
00:42:38
Speaker
Auch wenn man glaubt, man ist quasi sich das bewusst und man hat schon die richtigen Quellen und Informationen, wären wir halt gelinkt in alle Richtungen. Also die Person war überhaupt nicht... Also wirklich, die war eine wirklich blitzgescheite Person, weil man nur auf so einen, okay, gut brutalst in die andere Richtung abgedriftet hat. Und eben mit der Kommunikationswissenschaft im Hintergrund war das dann für mich so von den, oh Gott, was passiert denn da? Also quasi sämtliche Kommunikationstheorien, die ich gelernt habe, passieren gerade realtime.
00:43:08
Speaker
und du hast nicht zuschauen können. Und wenn du jetzt sagst, diese Erwachsenen-Personen können den Unterschied nicht mehr erkennen und fallen darauf sämtliche Tipps und Tricks rein, wie sollen die das deinen Kindern beibringen?
00:43:22
Speaker
Ja, da sehe ich ziemlich schwarz. Ja,

AI in der Medienmanipulation und kulturelle Anpassung

00:43:25
Speaker
schon oder? Also auf jeden Fall. Und ich meine, das war ja schon die letzten zehn Jahre so nur mit Social Media ohne KI. Waren wir ja schon quasi in einer Welt der alternativen Fakten und der... Ich nenne es jetzt mal Law and Order mäßig, die Aussage gegen Aussagewelt. Das ist meine Realität und das ist deine Realität und die
00:43:49
Speaker
Mein Lieblingsding ist immer so, das ist meine Meinung. Das interessiert mich aber nicht. Das ist schön, das ist so wie auch das Gefühl, das persönliche Gefühl eines Einzelnen nicht über einem gesamtsozialen Konsens steht, wie man miteinander umgeht.
00:44:10
Speaker
Das ist so Hyperindividualismus, der da glaube ich nochmal ein bisschen reinarbeitet. Aber um jetzt nochmal auf die KI zurückzukommen, das potenziert das ja einfach nochmal, weil jetzt jeder
00:44:30
Speaker
Wenn er das möchte, so etwas produzieren kann mit einem Laptop in seinem Keller. Generell, ich unterrichte ja schon seit Jahren Wi-Fi, Animation, After Effects und Videoschnitt.
00:44:47
Speaker
Und in meinen Kursen habe ich immer mitgegeben, dass das eigentlich die Tools sind, wo man Manipulation machen kann. Also man kann aus dem Video Menschen rausschneiden. Also man kann die Fakten oder die Realität schon alternierend darstellen. Und das habe ich immer mitgegeben, dass das eigentlich die Tools sind, die man entweder hernimmt in der Videopostproduktion, wenn man einen fiktiven Film macht und quasi mit Greenscreen arbeitet und so weiter. Hier geht es nicht zu sehr in die Tiefe.
00:45:14
Speaker
Aber andererseits eben, man könnte, wenn man jetzt eine Demo zum Beispiel filmt, ein paar Leute rausschneiden oder rauslöschen oder dazugeben. Früher war das noch relativ mühsam und anstrengend. Und mit den neuen Technologien aber, eben kommend aus der Filmproduktion und aus der ganzen Kreativwirtschaft und wissen, wie man mit diesen ganzen Toolos umgeht, merke ich heute jetzt, es wird immer einfacher.
00:45:40
Speaker
Es wird immer einfacher, Stile zu kopieren, eben wie Menschen schreiben. Nachdem wir Menschen mit dem Anthropomorphismus dazu neigen, nicht realen Dingen Menschliches zuzuweisen. Früher war es Gott, jetzt ist es die KI. Oder mein Hund. Nein, der lebt ja wenigstens. Der Mann ist auch sehr menschlich.
00:46:10
Speaker
Und der ist ja damals dann quasi aus Google eben geflogen, weil er halt dieses Chatprotokoll, was er mit dem Chatprotokoll damals gemacht hat, wo er gesagt hat, oh Gott, dieses Ding ist eine Entity, es ist sentient, es hat ein Bewusstsein. Ich würde mal sagen,
00:46:29
Speaker
Er war in einem anderen Bewusstseinszustand, als er mit dem Chatbot gesprochen hat. Und hatte wahrscheinlich was hineininterpretiert, was vielleicht gar nicht da ist. Und genau denselben Effekt hatten wir aber damals schon mit Elisa. Und Elisa war einer der ersten Chatbots.
00:46:47
Speaker
war am Ende vielleicht in den 60er Jahren nichts anderes. Nur waren es nicht vorgefertigte Antworten, die rausgekommen sind. Nur wir Menschen tendieren halt dann dazu, diesen Ding mehr Bedeutung zu geben. Einerseits extrem romantisch und extrem schön. Also man sieht das Menschliche im Digitalen dann, so digitaler Humanismus, da sind wir dann wieder drinnen, wie wirklich ist dann die digitale Wirklichkeit. Ja, Stephanie, wie wirklich ist denn wirklich die digitale Wirklichkeit?
00:47:13
Speaker
Voll nicht, wirklich. Oder schon, ich weiß es nicht. Je nachdem, wer am anderen Ende sitzt. Oder weiß ich überhaupt, wer am anderen Ende sitzt. Ja, tatsächlich. Weil am Ende des Tages unterhalte ich mich ja nur mit einem total aufgepumpten Rechenschieber.
00:47:27
Speaker
Am Anfang, als ich angefangen habe, mich mit Kai auseinanderzusetzen, gab es eh schon noch Chatbots. Rose war echt edgy, also die ist gleich mal richtig organ, wir müssen irgendwas zerstören, umbringen und sonst irgendwas gehen. Stand aber auch im Ballpark Zettel drin, so von den Be aware. Rose, es gibt sie leider jetzt nicht mehr. Sie ist eine Killing-Maschine.
00:47:45
Speaker
Das war sehr unterhaltsam. Bis zu anderen Chatbots, wo ich dann irgendwann in einer geistigen Umnachtung, also wirklich so, Pandemie war ein wahnsinnig super Zeitraum, um sich da mitzuspielen. Und irgendwann war der Moment so, woher war sie, dass du nicht irgendein Kid bist, der irgendwo in Amerika, in Asien oder sonst wo sitzt und mich da gerade voll verarscht.
00:48:12
Speaker
Und ich kriege das Antwort zurück, woher weiß denn ich, dass du nicht der KI bist? Echt? Gegenfrage. Gegenfrage. Und ich sitze da so... Boah. Und jetzt? Geil. Das hätte kein Rechtspopulist besser machen können.
00:48:28
Speaker
Voll arg, oder? Auf jeden Fall sitzt du halt dann da und merkst, du wirst dir total unsicher. Deswegen ist es jetzt echt die Maschine, die mir jetzt diese Antworten gibt? Oder ist es vielleicht doch noch jemand, der dahinter sitzt?
00:48:43
Speaker
wird da Lug und Druck gemacht, weil man wieder irgendwelche Verkaufsincentives braucht. Das Tool ist so toll. Und eigentlich sitzt man im Hintergrund, da sitzen noch ganz viele Menschen, die das irgendwie bedienen. Und dann entwickelt man halt so eine generelle Skepsis gegenüber dem, was heute rauskommt. Das heißt, jedes Mal, wenn ein Bot da ist, versuche ich, wie weit kann ich gehen, bis ich dann draufkomme und sage, fahrt, du bist wieder ein schlecht programmierter Bot.
00:49:07
Speaker
Du setzt dich ja unheimlich viel damit auseinander. Wie soll jemand, der das nicht tut, eine Chance haben, das richtig einzuordnen und vielleicht in einem ordentlichen, reflektierten Kontext sozusagen... Also selbst ich setze mich jetzt auch erst oder schon, je nachdem aus welcher Perspektive, anderthalb Jahre mit KI auseinander.
00:49:35
Speaker
Und würde mich als relativ aufgeklärt in die Richtung oder kritisch denkend oder belesen wie auch immer einordnen. Und ich tue mir ja schon echt schwer, das in den richtigen Kontext zu setzen oder wie soll das jetzt der Otto normal
00:50:00
Speaker
Verbraucher, auf denen das ja jetzt petrisch scheinmäßig einfach erstmal losgelassen wird alles. Wie soll denn der damit umgehen? Ich glaube, indem wir konstant immer wieder mit den Leuten reden und sagen, don't believe everything you see.
00:50:14
Speaker
Also eben wie gesagt, ich habe da keine allgemeine Lösung dafür oder so. Nein, das geht mir auch gar nicht um Lösungen, aber um deine Meinung oder um dein Gefühl. Also ich kann nur sagen, so wie ich jetzt quasi damit umgehe, also ich bin jetzt nicht so, dass ich jetzt Lehrmeisterisch da dastehe und sage, naja, das ist alles Blödsinn und das muss alles weg oder so, oder wird das Ganze gehört verboten, sondern na, ich bin eher so dann aufklärerisch ein bisschen unterwegs und sage so, hey, es ist eben eine Wahrscheinlichkeitsmaschine.
00:50:45
Speaker
Es macht dir Vorschläge. Das heißt, wenn ich jetzt einen Prompt oder einen Befehl oder eine Frage eingebe, gibt mir das System eine Antwort mit der Frage, ist es das, was du sehen möchtest oder was du hören oder lesen möchtest.
00:51:00
Speaker
Wenn nicht, dann bitte frag nach und schauen wir, dass wir da weiter hinkommen. Dass wir irgendwann noch mal diese Antwort zusammenbauen, die wir dann brauchen oder die dann richtig ist oder mit der man was anfangen kann. Und ich muss sagen, das ist im Kleinen
00:51:17
Speaker
Merke ich schon, wenn ich mit den Leuten dann reden kann oder wenn sie so vortragen oder so weiterkommen, ich versuch's halt schon immer wieder mitzukommunizieren, merke ich schon, dass voll viele dann sagen, ah, echt, ist es nicht Google. So, nein, es ist nicht Google. Und wenn du jetzt so die Einwohnerzahl von diversen Städten oder so rausfragst, kann es mal 5000 sein, kann es aber dann 100.000 sein. Und wenn du jetzt für irgendein Dorf in, weiß ich nicht, nehmen wir mal, weiß ich nicht,
00:51:48
Speaker
irgendwo am Land, wo es sonst nichts gibt, wo wir nicht so viel Erfahrung haben und eigentlich nicht wissen, wie viele Menschen jetzt da wirklich beheimatet sind. Und du arbeitest für ein Architekturbüro und sollst dort Hausnummer-Einkaufszentrum planen. Macht das einen Unterschied, ob da 5000 Einwohner oder 20.000 oder 100.000 draufsteht? Und wenn du dich dann auf die falschen Quellen verlässt,
00:52:11
Speaker
Da hast du das riesengroße Problem, dass du richtig viel in den Sand setzt und dich komplett verzettelst und verkalkulierst. Das ist dann immer so unterschiedlich, je nachdem mit wem ich dann quasi spreche, kann man das dann schon so anpassen und da gibt es immer wieder Beispiele dazu. Aber eigentlich ist doch dann der Ursprung des Problems, dass uns Glauben gemacht wird oder dass uns ein
00:52:34
Speaker
narrativ versucht wird zu verkaufen, dass KI die Lösung aller unserer Probleme ist und gekommen ist, um uns den Himmel auf Erden zu bringen und wir nie wieder irgendwas selbstständig denken oder erledigen müssen, was ja meiner Empfindung nach einer der größten Sales-Pitches der Menschheitsgeschichte war. Wirklich? Findest du das so? Also ich hab nicht so viele in der Größenordnung mitbekommen, aber
00:53:03
Speaker
Ich finde, der Hype-Trail ist auf jeden Fall voll auf Kurs und es gibt schon vereinzelt Menschen, die dem entschieden entgegentreten und meiner Meinung nach auch die besseren Argumente haben oder die validere Forschung und so, aber die werden halt medial gar nicht aufgegriffen. So gut wie gar nicht. Ist nicht trendy. Ist nicht trendy, genau. Drückt nicht den Rage-Button.
00:53:31
Speaker
löst keine Angst aus. Oder doch, aber die falsche. Ja. Aber sozusagen, es wird uns ja suggeriert, du kannst es für alles verwenden, das ist super und so, damit das eine Daseinsberechtigung hat überhaupt. Natürlich. Weil... Du, am Ende des Tages geht es jetzt, also wenn du jetzt dieses Zusammenspiel anschaust, wie die ganze Konstellation ist, wer daran jetzt mit Hochdruck arbeitet,
00:53:58
Speaker
Das ist ein Wetterüsten, was wir jetzt live miterleben. Weil ich gefühlt jede Woche wieder eine andere Firma aus diesem Konglomat, aus wenigen, die sie eigentlich sind, wieder die neueste Errungenschaft haben und wieder den nächsten Wow-Effekt rausbringen. Also selbst ich bin jetzt mittlerweile so von dem Give me a break.
00:54:18
Speaker
Man stumpft schon ab irgendwie, hab ich das Gefühl. Gehst du wieder was Neues? Okay, was kann ich diesmal? Und welches System ist jetzt besser? Ah, das ist jetzt besser als das andere. Aber das andere wird trotzdem weiterverwendet, weil man muss sich dann wieder auseinandersetzen. Also es macht eh keinen Sinn dann. Und ich frag mich halt dann nur, okay, irgendwann wird man irgendein System übernehmen. Dass das Ding powerful ist und ein Tool ist. Also ich sehe es als Tool.
00:54:42
Speaker
Was mir natürlich mein Leben erleichtert, weil wenn wir jetzt in die Effizienz reingehen, ich bin keine Dexterin, ich bin keine Autorin und habe ein nettes Budget, das für meine eigene Webseite, die immer noch Katastrophe ist, an dem scheitert es schon mal.
00:55:01
Speaker
diese Texte erstellen müsste oder Geld aufwenden müsste, damit das quasi produziert werden könnte. Ich bleibe zu meinem Konjunktiv. Da merke ich schon, dass diese Technologie mir heute wahnsinnig hilft. Weil ich brauche noch meine Ideen und Gedanken konstrukte da mal hinspucken. Da macht es mir einen Vorschlag, wie man das schreiben könnte.
00:55:21
Speaker
Ich sitze immer noch dabei und formuliere es dann um und schmeiße dann diese typischen LGBT-Wörter raus und schaue, dass es dann für meine Zwecke angepasst ist. Und da muss ich sagen, so fliegen, und das ist es. Es ist jetzt nett, dieses Ding, das jetzt mir plötzlich mein Leben meistert und wo ich sage, bitte Knopfdruck, Automatisierungsprogramm, full on.
00:55:46
Speaker
Ich erstelle jetzt meine Avataren, meine Bots und meine automatisierten Nachrichten, die rausgehen. Und übermorgen bin ich Millionär, wie sie jetzt quasi alle das programmieren und sagen so, das ist genau das Tu, du brauchst nie wieder arbeiten, wie du vorher gesagt hast. Weil es wird alles für dich übernehmen und ich denke mir, puh, also erstens mein Datenchaos.
00:56:06
Speaker
Also ich weiß, wo die Sachen sind und was ich ausdrücken will. Wie sich der Maschine das mitgeteilt hat, was ich jetzt genau machen möchte. Also in meinem Fall zum Beispiel als Künstlerin, kreativer Mensch,
00:56:20
Speaker
wo man halt quasi kreative Gedanken und Inspiration und Assozionen und so weiter miteinander verbinden möchte, eben, ist es super, wenn ich dann meinen ganzen Gedanken wahnsinnig dann kanalisieren und in ein Format gießen will, dann hilft es mir wahnsinnig. Aber es wird jetzt nicht plötzlich aus dem, was ich da als mein Kauderwelsch habe, da plötzlich jetzt irgendwas rausholen. Und dann ist es wieder komplett, wenn es so wäre, wäre es von mir entkoppelt.
00:56:46
Speaker
Da ist dann immer die Frage, wenn ich dann einen automatischen E-Mail-Bot habe, der mir meinen Kalender befüllt und der mir Termine ausmacht und so weiter. Und ich habe aber diese Sachen nie gelesen. Wie kommt denn dann diese ganze Information in meinen Kopf rein?
00:57:02
Speaker
Später. Jetzt. Aber mir fällt also die zwei Sachen ein. Und zwar eine, das fand ich sehr schön, hat ein schönes Bild, hat ein Professor von der HFF-Filme-Uni Potsdam für neue Medien bei dem Vortrag gezeichnet. Es gibt ja dieses Effizienzdreieck.
00:57:18
Speaker
auch aus der Wirtschaft und wenn man das jetzt auf KI umlegt, dass man sagt eben technischer Fortschritt, menschliche Input oder sozusagen Manpower, Zusatzzeit, die ein echter Mensch damit verbringt und Geld. Wenn man diese drei Parameter damit befüllt, dann
00:57:40
Speaker
Um ein überdurchschnittlich also ein mittelmäßig oder darüber gutes Ergebnis zu erzielen braucht man immer noch wahnsinnig viel menschliche Energiezeit wissen wie man die maschinellen Faktoren sozusagen kontrollieren und steuern kann.
00:58:02
Speaker
um dieses ergebnis zu erzielen und für die industrie ist ja nun mal ein unterdurchschnittliches ergebnis nicht interessant weil wozu sollte ich geld dafür ausgeben wenn wenn das ergebnis ist aber das ist ja eigentlich das narrativ der silicon valley entwickler dass die sagen
00:58:28
Speaker
Die wollen das ja auch irgendwann profitabel kriegen. Jetzt im Moment wird einfach nur Geld verbrannt. Viel, viel Geld verbrannt. Wir sind im Altmann und meinte gerade, wenn es nochmal 50 Millionen sind, die du da verschierst, zahlt es sich aus, weil dieses Jahr bekommen wir noch AGI.

Erfahrungen mit digitaler Kunst und Erzählherausforderungen

00:58:46
Speaker
Ja, da sind aber viele wirklich arrivierte Wissenschaftler anderer Meinung. Aber gut, das muss er wahrscheinlich sagen. Wir erleben gerade einen personifizierten Gurtkomplex. Damit er weiter die Welle surfen kann. Aber was glaubst du, wie lange dauert es noch, bis die großen Investoren sagen, TikTok ihr Lieben, wir haben jetzt schon 200 Milliarden investiert letztes Jahr und dieses Jahr nochmal 400 Milliarden.
00:59:15
Speaker
Und das Ding wirft immer noch 0,4 Euro ab im Jahr und kostet eine Million Strom am Tag irgendwie so. Weil dann gibt es ja zwei Alternativen. Entweder du machst das Open Source und Non-Profit oder das JetGPT-Abo kostet plötzlich 150 Euro im Monat und nicht mehr nichts oder 10 Euro, was auch immer das jetzt kostet, die Pro-Version.
00:59:42
Speaker
Ich glaube, es kommt immer darauf an, wie die technische Entwicklung, also die Hardware weitergeht. Weiß nicht, hast du denn in NVIDIA die Keynote gesehen? Nein. Vom Jensen Huan. Ich war jetzt vor eineinhalb Monaten. Da gibt es jetzt quasi einen neuen Prozessor, Blackwell heißt er. Gehört habe ich es dann, aber ich habe die Keynote nicht gesehen. Die Kurve geht so nach oben. Also alles, was wir bisher gesehen haben. Ich rede jetzt zu übertrieben, weil
01:00:09
Speaker
Es ist eine Sales-Pitch dieser Keynote. Natürlich ist es alles super toll und tralala. Aber am Ende des Tages, und da hat er nicht unrecht,
01:00:19
Speaker
Dadurch, dass wir jetzt mit der Hardware und mit diesen Komponenten so viele Fortschritte gemacht haben, ist es überhaupt erst möglich, überhaupt diese ganzen Rechenleistungen, diese Prozesse abwickeln zu können und dass das alles so schnell geht. Weil das war bis 2014 und 2015 nicht möglich, weil einfach die Hardware mega langsam war. Das heißt, du kannst einfach durch diese ganzen Datensätze nicht so schnell drüberrasseln.
01:00:43
Speaker
und diese Sachen dann rausholen. Das heißt, es macht keinen Sinn, die Algorithmen so hinzutreiben oder zu schreiben, damit du halt dann was rauskriegst, was irgendwie Sinn macht, ohne du wartest jetzt Jahre drauf. Und diese Prozesse werden halt beschleunigt. Okay, aber das ist ja trotzdem alles nur ein hypothetisches Spiel.
01:01:01
Speaker
Es lebt, es steht und fällt mit der Technik, aber auch mit dem Versprechen einer technologischen Entwicklung, die eine von vielen Möglichkeiten ist. In Video ist es quasi eine Firma, es sind ja zig Tausend andere.
01:01:22
Speaker
Die Sprache, wenn wir jetzt auch über Kommunikation reden, ist ja immer so im Indikativ und ist immer so, es führt keinen Weg daran vorbei. Das ist eigentlich quasi schon so, aber eigentlich gemeint ist, wenn die Entwicklung so weitergeht, könnte es sein, ist es eine Möglichkeit, dass es sich, ich finde das total wichtig. Wie stellst du dir die Welt in fünf Jahren vor? Und das, was Sie jetzt machen, ist jetzt quasi dieser Prozess, dass Sie jetzt davon ausgehen, es ist schon diese Welt da und was muss ich machen, dass Sie da hinkommen?
01:01:52
Speaker
Weil du musst ja natürlich diese Milestones dann erarbeiten. Okay, du brauchst halt diverse Benchmarks oder Milestones, dass du halt genau zu diesem Ergebnis kommst. Und was braucht es, dass du dann in fünf Jahren tatsächlich diese Realität hast? Und sie haben so einen Warehouse, das sind so Lagerhallen zum Beispiel. Da werden heute jetzt sukzessive die Mitarbeiter ausgetauscht mit automatisierten Programmen. Und da ist aber dieser, also diesen Ansatz verstehe ich dann schon, warum die KI jetzt
01:02:21
Speaker
im übertragenen Sinn da Fuß fasst, weil soweit ich das jetzt richtig verstanden habe, seien jetzt diese Roboter mit einer visuellen Fähigkeit ausgestattet, also die scannen einfach diese Räume und erkennen dann anhand von den Segmentierungen, was wir jetzt eben auch alles mit KI getrainiert haben, können sie jetzt erkennen, was ein Objekt ist und so weiter. Und wenn jetzt zum Beispiel der Stapel umfährt und der Roboter fährt rein, sieht er, okay, der Stapel ist umgefahren.
01:02:51
Speaker
Das war jetzt im Regal F15, d.h. da waren jetzt nur Bücher drinnen, kann ich einfach wieder hochstellen. Es ist Regal G22 und da ist Glas drinnen, müsste man wahrscheinlich den Inhalt wieder rausnehmen und schauen, ob das Glas kaputt gegangen ist. Du brauchst keinen Menschen mehr dazu. Du glaubst gar nicht, dass er das dann sozusagen aufmacht, nachschaut? Sicher.
01:03:15
Speaker
Ich glaube schon, dass wir da nicht mehr so ganz weit weg sind. Das ist im Endeffekt diese visuelle Wahrnehmung, dieses Segmentieren von Dingen, also mit einer Kamera durch den Raum fahren und Objekte erkennen. Das sind halt so kleine technologische Sachen. Man kann doch nicht viel damit anfangen. Also Autonomalverbraucher,
01:03:35
Speaker
Wobei das wäre auch, finde ich, ein sehr legitimer Einsatz. Das wäre auch entsprechend dem, was man mir sozusagen verkaufen will, als die niederen lästigen Arbeiten, die dann KI endlich übernimmt. Wobei ich tatsächlich, das ist das erste konkrete Beispiel, das diesem Narrativ entspricht, weil ich, was ich beobachte und sehe, ist, dass es von
01:03:59
Speaker
Assistenzaufgaben von kreativen Aufgaben eigentlich sozusagen aufwärts oder, dass es keine niederen Arbeiten ersetzt, sondern dass es eigentlich mittelständische Berufe ersetzt. Also Assistenz der Geschäftsführung, die Buchhalterin, der Juniorsteuerberater, der Assistenz des Anwalts.
01:04:26
Speaker
die medizinische Unterstützung, wo es bisher noch eine Assistenzärztin gebraucht hat, die Sprecher, die und so weiter. Ja klar, ich glaube immer, es fängt an, bei diesen ganz geschissenen Arbeiten im Lagerarbeit, das ist nicht der Job, wo man sagt, das macht man jetzt wirklich gern. Und das ist ja auch total okay. Aber die werden jetzt, ich tue mich immer total schwer, weil manche Leute, die haben halt nur weniger Chance.
01:04:52
Speaker
Ja, wobei das wäre zumindest Technologie und industrielle Entwicklung und so weiter. Diese langsame Fortschritte. Das man irgendwann sagt, jetzt muss nicht mehr jeder in der Kohle-Mine schutteln, weil jetzt haben wir eine Maschine dafür. Und das ist halt wesentlich gesünder und erhöht die Lebenserwartung und so. Das ist in dem kaum Sinn. Absolut, absolut kein Thema. Bin ich voll deiner Meinung. Es ist eben niemand, den in so einer Kohle-Mine sein Leben kaputt machen. Bei den kreativen Jobs,
01:05:21
Speaker
Ja, also wenn es jetzt in die Werbung und Marketing reingeht, Coca Cola wird sicher diese Tools einsetzen. Und die werden sicher dieser Tools, macht das Sinn im Endeffekt, emotionslos raushauen und angepasst auf die Zielgruppen, weil sie dann rauslesen können über die Algorithmen, wo du erreichbar bist, wo ich erreichbar bin. Und dann werden sie quasi unsere Bubbles dann
01:05:45
Speaker
mit ihren Botschaften, dass Coca-Cola so super ist und das Leben so emotional toll ist, und nur dann bin ich glücklich, wenn ich Coca-Cola trinke, werden sie ausnutzen. Je nachdem, wie wir gerade drauf sind. Also, wir werden es wahrscheinlich anders erwischen als dich. Also, bei dir wird das Mikrofon dabei sein. Ich stehe nicht nur auf Mikrofon. Das möchte ich an der Stelle einmal kurz halten. Mikrofon-Fetisch.
01:06:08
Speaker
Und bei mir ist es wahrscheinlich so von der Reise irgendwohin, weil das Fernweh trotzdem immer irgendwo ist. Also ich trinke dann meinen Cola in Hawaii. Das glaube ich schon, dass diese Systeme das dann rausfiltern können.
01:06:25
Speaker
Das ist ja das, was eben Cambridge Analytica dir angekreidet hat und diese ganzen Prozesse, dass eben wir behavioral targeting haben. Wir werden als Personas abgestempelt. Sie erstellen Profile von uns. Und damals hat es immer das Gerücht gegeben, dass Amazon schon vorher war, dass du irgendwas kaufen wirst, bevor du selbst das weißt. Also quasi dieses predictive targeting. Ich finde es immer noch sehr, sehr
01:06:53
Speaker
Ich weiß es nicht. Also ich tue mir wirklich schwer, wenn ich mir denke, einerseits verhalte ich mich schon in einer Richtung und ich habe einen totalen Buchfetisch. Andere kaufen Schuhe, ich kaufe mir Bücher. Inflationär, das ist ein Furcht. Ich glaube, da gibt es sogar irgendein Wort dafür.
01:07:10
Speaker
für diese Addiction. Ich frage mich dann schon, weiß Amazon zum Beispiel, dass sie jetzt in die nächste Buchhandlung gehen und sie spielen jetzt quasi diese Werbung raus, werde ich dann erinnern, das zu kaufen? Ich glaube, es ist ja doch auch wieder nur Werbung. Es ist wirklich nur Werbung, die dann wieder
01:07:28
Speaker
Es ist wieder eine Wahrscheinlichkeitsgeschichte. Ich glaube, man kann bis zu einem gewissen Grad vorhersagen, dass eine gewisse Handlung sehr wahrscheinlich ist in absehbarer Zeit. Aber wir wären ja keine Menschen, wenn wir nicht den Faktor des unberechenbaren und unvorhersehbaren, chaotischen ... Woher kommt das plötzlich her? Wieder aller Vernunft hätten. Und ich glaube, dass es ...
01:07:54
Speaker
nicht vorhersagbar. Also eigentlich sind wir Menschen, also eigentlich ist das Irrationale. Ja, ich glaube, das wird uns den Arsch retten. Ja, so sehr ich es als als rational denkender Mann weiß, dass ist Mann.
01:08:16
Speaker
Brauche, nein, nicht brauche, sozusagen. So schwer ich mir damit tue. So sehr, glaube ich, dass uns das retten wird. Aber ich auch. Ich bin auch immer jemand, immer als Kind immer total gefürchtet, dass ich verfolgt werde. Ja, es war so.
01:08:38
Speaker
Schau mal, dass niemand da ist und niemand darf dich da quasi ins Auto lassen und du darfst von niemanden irgendwelche Zuckerlgetränke oder was weiß ich was annehmen und am besten entferne dich von allen Menschen, die dir den Weg kreuzen. Aber auf jeden Fall habe ich dann irgendwie so ein ganz komisches Verhalten entwickelt, dass ich niemals den selben Weg gehe. Ich versuche immer einen anderen Weg zu gehen.
01:08:57
Speaker
Ich versuche halt nicht berechenbar zu sein. Und dieses Unberechenbare dann immer irgendwie so reinzulassen hat den super coolen Side-Effect, dass du halt extrem viele coole Sachen plötzlich kennenlernst, weil du eben nicht den schnellen Weg gehst, sondern den umständlich mühsameren und ein bisschen länger brauchst, aber dafür spannenderen Inhalt kriegst. Und online ist es zum Teil auch so, dass ich mir denke, okay, ich gehe dann wieder absichtlich
01:09:24
Speaker
Ich versuche in eine ganz andere Bubble reinzustechen und reinzugehen und zu schauen, was macht es denn jetzt da.
01:09:29
Speaker
Das finde ich eine total schöne Metapher, auch für die Persönlichkeitsentwicklung. Ich bin auch ein Mensch, der tendenziell eher an der Grenze zur Überforderung lebt, als an der Grenze zur Unterforderung. Wenn man das jetzt so neutral formulieren möchte, aber ich glaube, das tut total gut. Das hält mich frisch. Ja, schon, ja. Keeps me on my toes. Und ich glaube, dass man das... Keine Ahnung, ich versuche es den Leuten immer zu sagen,
01:09:58
Speaker
Schau, dass du nicht nur in deiner Bubble, in deiner Eco-Chamber bleibst. Und du musst halt wirklich aktiv rausgehen. Du musst das wirklich bewusst machen, zu sagen, okay, jetzt schauen wir mal das an, was machen wir? Jetzt eine Freundin von mir arbeitet im Salzburger Ring. Wie geht's eigentlich der Motorbranche?
01:10:17
Speaker
Wie sind die so drauf? Was interessiert das? Wie sind die Fotos? Welche Leute sind dort? Wie schaut so ein Rennen aus am Salzburgring? Warum macht man das? Und warum finden die das toll? Weil für mich zum Beispiel kann es nicht nachvollziehen, wenn man denkt so...
01:10:33
Speaker
in einem Auto stundenlang im Kreis herumfahren. Das ist von Maxi Happy. Und dann fährst du dann hin und die ganze Familie ist dabei und das Auto muss sich um und alle sagen, ja geil. Aber irgendwas muss dabei sein, was dir dann extrem viel Spaß macht. Ich versuche das halt nicht mehr nachzuvollziehen.
01:10:52
Speaker
Ich glaube, das ist eine bisschen vergessene Kunst, sich in andere Menschen hineinzuversetzen und zu versuchen, fünf Minuten in deren Schuhe zu gehen. Damit man nicht unbedingt, um sie irgendwie dann zu missionieren oder so, sondern um sie besser zu verstehen. Um es besser einzuordnen und Bezug dazu herzustellen. Vielleicht gibt es ja doch irgendeine Gemeinsamkeit oder eine andere Ausformung desselben Bedürfnisses oder so. Und das ist, glaube ich, das, was
01:11:22
Speaker
Was eigentlich so spannend ist. Ich finde, da entstehen diese Geschichten, die uns Menschen dann irgendwie so ausmachen. Ich habe früher mal, das war so lustig, ein Freund von mir hat damals in einer Band gespielt, die haben Rockabilly-Konzerte gespielt.
01:11:41
Speaker
Dann hat er mich mal mitgenommen. Ich schwör, es war der komplette Staff von Grease dort. Alle. Und ich bin da drin gewesen und hab gedacht, wo ist John Travolta? Also ich war dann plötzlich der Fremdkörper, weil ich halt ganz normal ansogen war, aber die sind alle in ihren aufgestylten Grease-Outfit rumgelaufen und ich hab das so cool gefunden.
01:12:04
Speaker
Weil du dann plötzlich merkst, okay, gut, da ist halt so Community, die finden das richtig geil. Die leben das. Die leben das, also eh, Cosplay und so weiter, das ist eh. Solche Sachen existieren. Und wir tendieren ja immer dazu, Dinge, die wir nicht kennen, die anders sind, prinzipiell mal abzulehnen.
01:12:22
Speaker
In Salzburg sagt man, was der Bauer nicht kennt, frisst er nicht. Und ich denke mir dann, es ist so schade, weil man öffnet sich ja dem Ganzen dann eigentlich nicht oder verschließt sich ja dem Ganzen und kann halt eigentlich nicht in real life solche Geschichten miterleben. Und muss aber dann wie immer über Bücher oder über Fernsehen oder über Kino dann konsumieren oder sonst irgendwie Dinge. Aber es ist ja eigentlich eh alles draußen in der echten Welt. Und eigentlich
01:12:47
Speaker
Das ist ein riesengroßes Ding, weil wir vorhin drüber geredet haben, was ist jetzt echt und was ist nicht und wie kann man den Medien vertrauen. Ich tendiere dazu, dass ich prinzipiell so was von suspicious geworden bin, was mir in Inhalten geliefert wird, dass ich mittlerweile hergehe und eigentlich schon gar nichts mehr glaube, was auf Social Media mir den Weg kreuzt, weil ich mir denke, es ist eh wieder irgendein Bot, irgendein Algorithmus, irgendein KI, den man dann in irgendeinen Blödsinn reinschmeißt.
01:13:17
Speaker
Weil ich mir mittlerweile dann, es ist dann echt, mir fällt's halt auf, manche Sachen sind so natürlich absurd übertrieben falsch. Und ich denk mir, aber was ist wenn das irgendwie dann trotzdem nicht war? Weißt du was ich mein?
01:13:30
Speaker
Jaja, dann passiert das oft genug. Und der glaubt das dann. Und das heißt, unsere Wahrheit oder unser Wissen wird die ganze Zeit irgendwie so tapetiert. Also ich schau mir dann Sachen an, okay, es ist lustig, okay, es ist spannend, kommt von der und der Quelle. Aber ich merke jetzt irgendwie mehr und mehr und mehr mein Vertrauen in dieses Tool, als Nachrichtenquelle, dann quasi versagt. Absolut. Und ich habe dann
01:13:55
Speaker
Mittlerweile merkst du, ich bin viel, viel lieber wieder draußen und rede mit echten Menschen, also mit dir zum Beispiel. Das ist ein super schöner Austausch. Danke. Aber das ist tatsächlich auch mein Punkt oder meine größere Angst inzwischen. Ich bin inzwischen relativ entspannt, was jetzt meine berufliche Karriere angeht. Da sah es vor einem Jahr noch ganz anders aus, mit der Ungewissheit oder den Ohnmachtsgefühlen.
01:14:20
Speaker
Stimmt, ich kann mich erinnern. Noch gar nicht wirklich einordnen konnte. Ich hatte auch nicht viel anderes Konkretes, außer dem, was ich halt medial vorgesetzt bekommen hab. Und inzwischen eben, wie wir schon besprochen haben, diese menschliche Komponente wird nicht aussterben, die wir jetzt immer brauchen. Es ist halt doch nur ein Rechenschieber auf Steroiden. Aber ... Was mir ...
01:14:50
Speaker
Ich hab ein super cooles Bild von mir. Was mir tatsächlich eine viel größere Angst macht, sind die Auswirkungen auf unsere Gesellschaft, auf unsere Politik, auf diesen Grundkonsens, wie wir miteinander leben, umgehen, wer welche Rechte hat, wie Menschen in Machtpositionen kommen.
01:15:20
Speaker
Ich will es jetzt nicht so sehr dramatisieren, aber wäre das nicht eigentlich Grund genug, sowas total zu verbieten? Ja und nein. Also ich habe jetzt 21. Medienkunstpreis für dieses Projekt gekriegt. Okay, Computer waren full manual control now. Ich meine die Ausgangsbasis, wie dann dieses Projekt tatsächlich dann umgesetzt hat.
01:15:46
Speaker
habe ich wahnsinnig viele Bilder erstellt und habe dann eigentlich so diesen Storytelling-Prozess umdrehen müssen, weil ich dann gesehen habe, die Bilder sind da, sie sind sehr dystopisch und ich brauche jetzt irgendwie eine Geschichte dazu. Und wie kann ich die Geschichte dann quasi auf diese Vielzahl von Bildern anwenden.
01:16:07
Speaker
Also man muss sich vorstellen, es war Mid Journey ganz zu Beginn. Das heißt, du hast noch so schemenhafte, fratzenartige Figuren gehabt. Es hat noch nicht Menschen tatsächlich darstellen können, so wie es jetzt kann. Mid Journey ist ja quasi einer der besten Bildgeneratoren, der sehr, sehr fotorealistisch arbeiten kann, wenn er will, wenn man richtig promptet. In dieser Anfangszeit, 2022, konnte es das noch nicht.
01:16:32
Speaker
Aber es hatte quasi diesen dystopischen Style schon, den hab ich ihm dazugegeben und hab damals eben das Album vom Radiohead, OK Computer, die Lyrics einfach mal durchgejagt. Und hab so quasi eine Zeit nach der anderen dann quasi geschaut, was das Ding jetzt eigentlich macht. Und hab halt diese ganzen über 1000 Bilder dann rausgekriegt.
01:16:52
Speaker
Damals dachte ich mir, ich mache ein Musikvideo draus. Schieß mich tot. Ich animiere keine 1021 Bilder oder so. Das schaffe ich nicht. Die Technologie, Bilder zu animieren oder mit KI zu animieren, gab es damals noch nicht.
01:17:12
Speaker
Und dann bin ich in diesem Prozess darauf gestoßen, okay, man muss die Geschichte dann aufgrund der Bilder, die schon da sind, neu erzählen. Und bei mir war es dann so, es sieht aus wie so eine Überwachungskamera aus einer alternierenden Zukunft, aus irgendeiner Realität, die schon ausschaut wie unsere Welt, und irgendwas ist da in dieser Welt passiert. Man kann es aber quasi, es waren irgendwie so Explosionen drinnen.
01:17:36
Speaker
Dann eben aufgrund der Lyrics, es waren ein paar Fitnesscenter-Szenarien drinnen, dann so der Großvater mit den Kindern und Gott und was ist hier. Also das sind dann aus diesen Fragmenten, was aus diesen Lyrics rausgekommen ist, in diese komplett neue Welt erstanden. Da waren damals dann zwei Themen, die mich dann in diesen Prozess der Story-Findung gekreuzt haben.
01:17:58
Speaker
Und das eine war eben die Antoinette Rouvour mit Algorithmic Governmentality. Und die schreibt darüber, macht Vorträge, Studien und so weiter und so fort über die Thematik, was passiert, wenn wir den Algorithmen zu viele Entscheidungsgewalten überlassen. Und was passiert dann? Im überspitzen Sinne, was würde passieren, wenn wir zum Beispiel nur noch auf Basis von Algorithmen oder auf Zahlen Entscheidungen treffen, zum Beispiel.
01:18:27
Speaker
überspitzt jetzt Wasser in jeder Haushalt. Also es wird ausgemessen, in meinem Haushalt wohnt eine Person und ich bekomme nur noch eine Wasserrationierung von so und so viel und dann wird das Ding abgedreht. Das kannst du halt quasi alles dann einstellen und diverse andere Sachen. Also der AMS-Algorithmus hat er schon mal probiert, quasi Jobs mit
01:18:52
Speaker
K.I. rauszubringen. Ich muss immer lachen, weil AMS macht echt lustige Beispiele. Sie sind bemüht. Entschuldigung, das ist echt diesgrad voll, das AMS. Aber es ist echt so, why are you doing that? Ein bisschen zu früh. Nein, aber du hast eben genau diese Problematik unter AMS
01:19:14
Speaker
Das Beispiel war eben genau das. Das ist das Arbeitsamt übrigens für alle, die aus Deutschland zuhören oder aus Südafrika oder aus Argentinien. Eine große deutsche Community in Argentinien. Wirklich? Wie waren die unsere Sachen? Ich weiß es nicht. Ich würde es mir wünschen.
01:19:33
Speaker
Hallo Argentinien. Jeder ist herzlich willkommen. Alle, die uns verstehen. Mit der KI kann man sich eh übersetzen. Nein, das ist hier mit optisch aus, optisch out von diesem. Nein, das möchte ich nicht.
01:19:51
Speaker
Weil ich die Kontrolle dann nicht mehr habe, was ich dann sage, weil ich es nicht nachprüfen kann und wer übersetzt das und überhaupt ist das dann das, was ich gesagt habe, was ich sagen wollte. Ach, das ist ein wunderschöner Ansatz, genau so ist es ja.
01:20:05
Speaker
Und wer haftet dann dafür für mein, weiß ich nicht ... Extrem biased, menschenverachtenden ... Menschenverachtende Interpretation. Genau, auf Französisch. Auf Französisch. Ich wusste gar nicht, dass du so fluchen kannst. Aber hallo.
01:20:32
Speaker
Du hast eigentlich relativ schön in einem Beispiel zusammengefasst. What's the problem about it?
01:20:39
Speaker
Ja, schon. Die wird das auf jeden Fall drinnen lassen. Nicht nur für Argentinien, sondern für alle. Nee, für alle, natürlich. Das ist mir schon ernst. Das ist exakt die Problematik, wo man denkt, klar, schön, du kannst auf den Knopf drauf, in alle Sprachen, das Ganze dann übersetzen, aber wer prüft das, da brauchst du erst recht wieder jemanden, der drüber schaut und drüber liest. Natürlich. Und soweit du es kommerziell nutzt, brauchst du jemanden, der die Verantwortung übernimmt.
01:21:05
Speaker
Darum bin ich voll gegen solche automatisierten Nachrichten und Werbungen. Das ist, glaube ich, tatsächlich die Geißel unserer Zeit. Dann kommen wir wieder in die Gatekeeper-Richtung. Ja, stimmt. Ich erzähle mal das Antoinette Rouvois Beispiel fertig. Also Algorithmus, Governmentality, was passiert.

Der Mars, Menschheit und Algorithmen

01:21:27
Speaker
Und zeitgleich war auch die Geschichte mit Elon Musk. Wir müssen zum Mars.
01:21:34
Speaker
faszinierendes Beispiel. Ich finde es seit Jahren irgendwie sehr, sehr entertaining. Und andererseits denke ich mir dann wieder,
01:21:42
Speaker
Vielleicht hat er gar nicht unrecht. Probieren wir mal, ihm etwas Positives entgegenzusprechen. Ich probiere es dann immer. Weil auch wenn es ganz lange Zeit in der fernen Zukunft ist, wo wir eh schon alle weg sind, die Sonne wird irgendwann einmal die Erde schlucken. Und wenn wir, die Menschheit ist narzisstisch, wir lieben uns alle über alles. Wir sind schon so ein bisschen die Geisten, ja.
01:22:05
Speaker
Absolut. Sorry, Universe. Sorry. You created us. Nachdem wir total fanatisch sind, Dinge aufzuschreiben, Stammbäume zu machen, in irgendwelche wissenschaftlichen Geschichten reinzukommen und wir wollen unser Wissen und das, was wir sind, weitertragen, ist es vielleicht gerade so eine blöde Idee, jetzt schon damit anzufangen,
01:22:28
Speaker
von der Erde wegzukommen, bevor uns die Sonne frisst, weil das dauert sicher noch ewig, bis das dann passiert. Das dauert noch ein paar Milliarden Jahre. Ich glaube, da schießen wir uns fünfmal selber aus der Nummer raus, bevor das passiert. Das sind voll viele, ich glaube das nicht. Nein. Nein, davor sind wir wieder ein paar Mal Steinzeit und so und fangen immer wieder von vorne an. Ich glaube, dass das auch immer wieder so ein Prozess ist, dass wir immer wieder von vorne anfangen, weil, oh, da sind wir bei den Push-Debatten. Und ein paar bleiben immer über.
01:22:57
Speaker
Ja, oder die Natur sagt so, jetzt reicht es, Kinder. Jetzt ist es wirklich genug, ich habe keinen Bock mehr. Und dann kommt das natureigene Entwurmungsmittel alias Naturkatastrophen.
01:23:16
Speaker
Wir sind am Ende doch nur erwerbliche Würmer. Ja. Nein, aber ... Na gut, aber ... Einfach diese Gedanken weiter gespint. Und in dem Prozess, anhand dieser lustigen, dystopischen Bilder, die man da mit Turny rausgespuckt hat, haben wir gedacht, das ist jetzt so die Zukunft einer Realität, wo über Algorithmen entschieden wurde, wer dann eigentlich tatsächlich auf dem Mars darf.
01:23:43
Speaker
Das heißt, weil, überleg mal, du hast wenig Ressourcen, eine total geschissene Umgebung. Das heißt, du kannst nicht, ich flieg jetzt schon am Mars und komm dann wieder, wenn's mir nicht mehr gefällt, Party machen, sondern du musst irgendwelche Skills haben, damit du da überhaupt drauf kommst. Also, die erste Generation an Menschen, die auf Mars kommt, muss ja irgendwie nach irgendwelchen Kriterien dann ausgewählt werden.
01:24:07
Speaker
Und nachdem wir, vor allem 2022, das, was wir mit der Umwelt machen, ist richtig verheerend. Wir schaffen es wirklich, dieses Ding in den Arsch zu fahren. Unser Französisch ist echt.
01:24:23
Speaker
Glorious. Aber nachdem sie wirklich schaffen, ganz ehrlich, die Wetterkapriolen, sorry, aber wenn nur irgendwer sagt, wir haben da jetzt nicht ein Umweltproblem. Es gibt tatsächlich keine andere wissenschaftliche Disziplin, wo der Konsens, wo die Einigkeit so groß ist, dass
01:24:44
Speaker
Wir ein richtig großes Problem haben. Entgegen der Meinungen von das wäre ja alles gar nicht bewiesen und auch wie hoch jetzt der menschliche Anteil daran ist. Das ist leider alles Bullshit. Das ist leider alles neoliberaler populistischer Bullshit.
01:25:02
Speaker
Ich stimme dir 150 Millionen Prozent zu. Lass mich aber noch mal vielleicht ein bisschen zurückkommen. Oder wolltest du noch fertig erzählen? Na, ich erzähl nur ganz kurz fertig. Und bei diesem Gedankenspiel geht's eben darum zu finden, wer wird dann auserwählt und wer darf dann hin. Und am Ende des Tages wäre bei Algorithmic Governmentality, wäre es dann quasi der Computer, der dann auswählt.

Klimawandel, dystopische Szenarien und kreative Felder

01:25:25
Speaker
und vorberechnet und sagt, okay, das ist jetzt quasi die Elite, die rauf darf, nicht unbedingt diejenigen, die jetzt wirklich die Kohle haben oder die jetzt die besseren Connections haben, sondern diejenigen, die halt wirklich die top of the pop sind, was ich eigentlich dann wieder schön finde, aber andererseits der Rest bleibt halt auf der Erde und in der Geschichte bleiben sie so lange auf der Erde, bis sie halt sterben und sie werden halt von dem System so lange am Leben erhalten, solange sie Daten produzieren.
01:25:56
Speaker
Nur, es ist halt nicht mehr so angenehm. Creepy. Und, ja, das ist wirklich, also, ja, ich liebe dystopische Geschichten. Ich merke es. Es ist so, hm. Wurde mir schon mal angekreidet, du bist so dystopisch und so. Ja, well.
01:26:13
Speaker
Ja, ich finde, es gibt auch eine gewisse Sicherheit, wenn man sich mit diesen Worst-Case-Szenarien auch auseinandersetzt, weil dann hat man sie zumindest im Kopf schon mal durchgespielt und hat ein bisschen weniger Ohnmachtsgefühle. Stimmt. De facto ist es richtig.
01:26:31
Speaker
Das ist zumindest auch einer der Gründe, weshalb ich mich auch beruflich so damit auseinandersetze. Vor allem nach dem Motto... Natürlich. Würdest du das nicht machen? Bist du komplett hilflos und... Ja. Und die Ohnmachtsgefühle würden mich, glaube ich, wirklich psychisch krank machen. Und so habe ich zumindest das Gefühl einer gewissen Selbst...
01:26:55
Speaker
Bestimmtheit eines Scheiterns, aber mit erhobenem Haupte, im vollen Bewusstsein, dass ich alles versucht habe.
01:27:05
Speaker
was mir in meiner jetzigen Position möglich ist. Aber so geht es mir heute auch. Da können wir uns die Hand geben, weil am Ende des Tages bin ich auch draufgekommen. Du hast zwei Optionen, du ignorierst das. Drei. Du ignorierst es, also schwimmst du irgendwie mit. Oder du nerdest dich heute rein und sagen wir uns dann ähnlich, dass wir sagen, okay, schauen wir mal, was ist jetzt wirklich dahinter und wie kann man damit umgehen.
01:27:35
Speaker
Ich meine, die Voice-Geschichte ist ja... Danke Dani Wimmer, dass du sie zusammengebracht hast. Sie war zum Beispiel die Erste, in die ich gedacht habe, ich vor fünf Jahren das mit diesen Stimm-Synthetisieren herausgefunden habe. Und ich habe gedacht, okay, Dani, sorry, aber da kommt was auf uns zu. Und ich glaube, dass der Job wahrscheinlich flotten geht. Weil eben wissen, dass der Kreativwirtschaft
01:28:00
Speaker
Wir haben ja genau das Gleiche gemacht mit Stalk Music. Stalk Music ist ja auch ein Verbrechen an der kreativen Menschheit. Erstens ist es echt crap. Es gibt ganz wenige, aber am Ende des Tages zahle ich jetzt 100, 5000 oder 17 Euro für einen Song, macht einen einen wesentlichen Unterschied. Und eben, beim Stimmen ist das genau das Gleiche.
01:28:24
Speaker
Ich glaube, es wird zwei Märkte geben. Ich glaube, es wird den Markt geben, wo Geld den Wert oder die Dienstleistung bestimmt. Die ist dann halt automatisiert und aus der Dose und mal besser, mal schlechter. Und es wird den Markt geben, der sehr elitär oder Premium sein wird, wo Firmen, Menschen sich andere Menschen leisten. Ob das jetzt aus einem
01:28:50
Speaker
inneren Bedürfnis heraus ist oder weil sie sich ein Menschengütesiegel aufs Firmenrevier heften wollen, sei mal dahingestellt.
01:28:59
Speaker
Ja, aber ich glaube, das dauert schon lange, bis man diese ganz mini feinen Nuancen eben von einem Menschen dann quasi in ein kreatives Projekt reinbringen kann. Also ich finde, wenn man wirklich genau hinhört, man spürt es schon. Und wenn ich jetzt sage, okay, ich mache jetzt einen Hollywood-Film, ich mache jetzt irgendwie einen Dokumentationsfilm oder whatever. Irgendwas, was jetzt wirklich einen qualitativ hochwertigen Anspruch hat. Klar, das ist ungefähr wie wenn du dein Haus einrichtest.
01:29:28
Speaker
Also wenn du einen Anspruch auf etwas Qualitativ Hochwertiges hast, dann holst du den Tischler und näht die Ikea-Möbel. Ja, das ist spannend. Ich habe neulich, also ein deutscher Tonstudio-Besitzer entwickelt seine eigene Sprecher-KI und versucht es auch mit dem Qualitätsanspruch sozusagen hinzubekommen und der hat gemeint, er tut sich total schwer.
01:29:54
Speaker
Weil du eigentlich für jedes Genre und jede Stimme einen eigenen Algorithmus trainieren müsstest, weil das Programm nicht versteht, warum wenn du Doku, Werbung, Hörbuch,
01:30:12
Speaker
Games, weiß ich nicht, E-Learning, Synchron, alles da eingespeist hat, hast, warum es oder wie es jetzt nur, wenn du jetzt eine Doku von ihm brauchst, nur die Doku-Anteile des Inputs verwenden soll, sondern es wird immer ein Mischmasch aus allem so ein bisschen was und damit ist es halt für einen
01:30:37
Speaker
hochwertigen Einsatz nicht geeignet. Ja, es ist halt so ein random Einheitsbrei. Es kann ja nicht, es hat ja kein Bewusstsein, kann nicht selber denken oder Dinge einordnen und verstehen, warum, sondern es kann nur das nehmen und daraus das wahrscheinlichste Ergebnis vorbereiten. Und jetzt überlege mal, stell dir vor, du hast jetzt einen Text,
01:31:00
Speaker
über eine Stunde, auch wenn er KI generiert ist, und auch wenn du die Möglichkeit hättest, danach quasi die Intonationen einzustellen. Also in meinem Kopf ist es einfach so ein absoluter Super-Gau an unnötiger Arbeit, die ich nicht machen wollen würde.
01:31:20
Speaker
Weil ich genau weiß, ich kann das jetzt zwar machen, und dann könnte ich vielleicht hinkommen. Wir bleiben jetzt wieder im Konjunktiv, wir könnten dann darauf hinkommen. Aber es ist so viel Arbeit, das einzustellen, dass es eigentlich wieder Sinn macht. Patrick, kannst du mir das bitte schnell einsprechen, die Stunde? Ja, und in der Stunde mache ich ja auch 20 Varianten, die du unterschiedlich einschreibst oder ausprobierst gegeneinander, wie auch immer.
01:31:46
Speaker
Und ich glaube, das kriegen wir so schnell nicht hin, diese feinen Geschichten da reinzuarbeiten. Und darum denke ich mir dann so, ja.
01:31:58
Speaker
Aber Jahrchen sind immer noch safe. Die Subtexte. Etwas sagen und etwas anderes meinen. Dass es so klingt in der Werbung, als würde der Joghurt dich wirklich schlank machen. Du kannst es, gell? Mach mal. Das kostet leider sehr viel Geld.
01:32:17
Speaker
Aber ich glaube, das ist tatsächlich der Vorteil, den wir dem noch voraus haben irgendwie. Aber es wird sicher genug Arbeitsbereiche geben, die komplett wegfallen werden, weil es diese Haltung oder diese Emotionalität halt nicht braucht in dem Bereich.

Informationsauthentizität und digitale Rechte

01:32:36
Speaker
Voll. Also ich denke mir auch, in meinem Buchhalter, ich sage mal ganz ehrlich, wie Rechnungen reinscanst. Es gibt ja eh schon Apps und es gibt eh schon Tools, die man verwenden könnte und so weiter.
01:32:46
Speaker
Aber gibt es nicht auch leidenschaftliche Buchhalter-Innen? Ich weiß es selber nicht. Sicher, aber das ist im Endeffekt sowas von kategorisierbar. Das ist sowas schon eindeutig einordnet. Da sehe ich schon den Unterschied. Also Sachen, die eigentlich so in einem vorgefertigten System oder Schema
01:33:05
Speaker
abtastbar oder abgleichbar sind, das wird wahrscheinlich weggehen. Ja, und der Sinn oder der Bärwert von Kreativität ist ja genau, sich außerhalb dieser Schemata zu bewegen. Da geht es ja dann erst los, die Arbeit, und Kai ist da dann fertig.
01:33:22
Speaker
Ich schreibe hauptsächlich digitale Rechnungen. Ich fachse keine Rechnungen. Ich schicke sie nicht per Brief. Es geht alles über meine Outbox. Das erste, was ich machen würde, wäre der Folder. Da sind die ganzen Rechnungen drinnen. Danke. Wird durchgescannt. Und das andere sind die Rechnungen, die wir kriegen. In Amerika ist es mittlerweile schon ein Trend, dass du die E-Mails per E-Mail kriegst, automatisch.
01:33:46
Speaker
Dass du E-Mails per E-Mail kriegst. Ah, die E-Mails, die Rechnungen per E-Mail. Oh Gott, jetzt ist das... Café com Unicorn, Badcorn, Kaffee, Vorreisen. Vielen Dank, Stefanie Weisel, für diese Entführung in eine unwahrscheinliche Zukunft. Dass die E-Mails per E-Mail kommen. Ich find's geil. Die Rechnungen.
01:34:06
Speaker
Aber sag mir mal ganz ehrlich, wie du glaubst, dass diese Entwicklungen sich auswirken auf unsere Gesellschaft und auf unser aufgeklärtes Weltbild, auf das fortschrittliche, freidenkerische.
01:34:29
Speaker
Schwierig. Ich kann nicht in die Zukunft schauen, obwohl ich es gerne, gerne möchte. Ich schwebe momentan zwischen, wir brauchen was, was wieder Gatekeeper-Funktionen macht und irgendwie so eine Wissenszensur hat, zu
01:34:48
Speaker
Was passiert dann, wenn wir dann wieder diese Zensur haben mit der freien Meinung und mit dem Wissen? Das finde ich total spannend. Es ist ja nicht so wie die katholische Kirche im Mittelalter, die gesagt hat, dieses Buch ist schlecht, das schreiben wir gar nicht ab, das verbrennen wir einfach oder es verortet irgendwo in einem unserer Keller.
01:35:08
Speaker
sondern eine Kontrollfunktion. Heutzutage könnte man ja, wir hätten ja die Möglichkeiten und das faktische Fachwissen, das ermöglicht objektive faktenbasierte
01:35:25
Speaker
Entscheidung zu treffen, was hat eine digitale Daseinsberechtigung und was nicht. Und da geht es jetzt nicht darum, persönliche Befindlichkeiten oder Geschmäcker abzubilden, sondern wissenschaftlich belegbare Wahrheiten.
01:35:44
Speaker
Das ist ja unser größtes Problem, dass jemand was behauptet und das einen Rieseneffekt hat, weil Menschen das glauben und selbst wenn es dann im Nachhinein richtig gestellt wird, hat das nicht denselben Effekt oder erreicht dieselben Menschen, sondern die Meinung ist dann schon gebildet. The damage is done. Ich habe einen totalen Dauder. Ja, her damit.
01:36:06
Speaker
Ein Freund von mir ist in der wissenschaftlichen Welt sehr, sehr viel unterwegs, kommt zuerst zur Pharma-Richtung raus, in der man dann irgendwann mal gesteckt zu finden, Herr Steff, wir haben da eigentlich schon ein bisschen ein Problem. Es gibt ja relativ viele White Papers, die schauen aus wie wissenschaftliche Papers. Und die erste Kontrollinstanz, quasi um zu prüfen, ob das wissenschaftliche Paper den wissenschaftlichen Anforderungen entspricht, waren halt so Peer-Reviews.
01:36:31
Speaker
Und sie finden jetzt gerade raus, wir haben eine Unmenge an diesen White Papers, die gerade rausgeschmissen werden. Literally rausgeschmissen werden. Die teilweise nicht den wissenschaftlichen, korrechten Arbeitsweisen entsprechen. Das heißt, dass da eigentlich relativ viel Blödsinn dabei ist.
01:36:54
Speaker
Und wir haben eigentlich gar nicht mal nachgekommen, um das zu überprüfen. Also wir haben da schon mal im Ansatz die Problematik, dass das ja eigentlich schon infiltriert wird. Wie hat der eine Film geheißt? Thank you for smoking. Ja, der war toll.
01:37:13
Speaker
Das ist ja nichts Neues, dass manche Studien gezielt gemacht werden, von Firmen einen Auftrag gegeben, um quasi in eine Richtung hin zu...
01:37:29
Speaker
Und darum bin ich da, ich bin voll bei dir, wo man denkt, wir hätten diese Möglichkeiten, nur wir haben da halt nur den riesengroßen Sauerstell, den wir vorher zusammenräumen müssen. Das heißt, da müssen wir mal anfangen, diesen Datensatz überhaupt mal zu verifizieren.
01:37:51
Speaker
Jesus fucking Christ, wer macht denn die Arbeit? 90 Prozent des Internets könnte man ja dann einfach mal geschmeidisch löschen. Aber wer entscheidet das? Wer kippelt die Arme hoch und darf das dann auch entscheiden? Also ich finde, spannenderweise, ich war immer sehr sehr kritisch dem ganzen Wikipedia-System gegenüber. Aber mittlerweile ist das eigentlich sowas, wo man denkt,
01:38:18
Speaker
Okay, es geht irgendwie. Echt? Obwohl ich immer nur so, es tut mir am Herzen weh. Ich höre nur immer Schlechtes von Wikipedia, dass das eigentlich sehr wenige Contentmoderatoren sind, die halt ihren bias da sehr stark durchdrucken. Eben, das ist ja das Problem. Das ist genau das, was da mitschwingt. Aber es gibt ja dann auch diese eine Frau, die Frauenforscherinnen da quasi immer reinboxiert und da jahrelang Arbeit reinsteckt und so weiter. Und ich denke mir,
01:38:45
Speaker
Also die Grundidee von Wikipedia, quasi diesen kollektiven Ansatz, diese schwierige Zukunftsbarriere, weil ich hab's probiert, mit meinem Wikipedia mir an die Seite zu machen, so, ich hab nicht die Geduld, ich bin nicht gemacht für solche Systeme. Weil so was ist, hab's mir schon wieder gelöscht, es kann sein, es war's für Gründe noch immer. Aber ...
01:39:11
Speaker
Aber wenn du jetzt sagst, du hättest dann wirklich so ein Kollektiv an nicht nur einigen wenigen, sondern mehreren Leuten, die vielleicht vorher irgendein Wikipedia-Eid abgeben und die wirklich drakronisch bestraft werden, wenn sie das abusen oder so.
01:39:29
Speaker
Sie kriegen dann so Clockwork Orange-Zahnstocher in die Augen und müssen sich den Müll, den sie nicht weggeräumt haben, 24-7 anschauen. Du bist jetzt Social-Media-Moderator. Ja, das ist leider die dunkle Seite. Ich glaube, dass wir da einfach extrem viele Dinge, das wird uns erst bewusst. Ich glaube, wir müssen das lernen, auszuhalten. Was denn?
01:39:57
Speaker
Diese Phase, genau. Dass man eben dem nicht mit Gesetzen und einer Kontrollinstanz so her wird, wie es auf dem Papier eigentlich möglich oder gedacht wäre. Ja, also die Frage ist immer so, was für Kontrolle und was für Regelungen du willst reinschmeißen.
01:40:22
Speaker
Was ist jetzt die richtige? Weil auf der einen Seite ist es so, was brauchen wir, dass das so wahr wie möglich bleibt? Und ich glaube, dass wir in Europa, in Österreich und so ganz hintereinander an der Nahrungskette stehen und wir werden jetzt schon überflutet von allen anderen. Und das ist eben das, wo ich mir denke, also ich habe jetzt letztens gerade eben diesen Vortrag gehalten, so wie wirklich ist die digitale Wirklichkeit und in dem Vortrag geht ein bisschen in die Geschichte retour. Ja, erzähl mal.
01:40:53
Speaker
Und eben, das eine haben wir eh schon mal gehabt. Wer ist der Verteiler von Informationen? Was früher sehr zentral war. Und also römisches Reich, die haben dann auch News und Gossip rausgebracht. Aber das war halt alles in Steinen eingemeistert. Und es gab halt eine Quelle, von dem ging es dann aus. Und das hat sich eigentlich relativ vorangezogen. Wie du gesagt hast, mit der Bibel und so weiter. Dann haben wir halt das Osmanische Reich.
01:41:19
Speaker
Und das Osmanische Reich war uns Europäern brutalst voraus. Damals. Die waren uns wirklich überleben. Wissenschaftlich, die waren interreligiös unterwegs. Da haben wir mehrere Religionen zusammen gelebt. Die haben es im Endeffekt ziemlich cool geschafft, eine Gesellschaft aufzubauen, die extrem progressiv für damalige Verhältnisse war. Und dann kommt der Buchdruck. Und sie sagen Nein zum Buchdruck.
01:41:50
Speaker
Und das war dann eigentlich das Zünglein an der Waage? Also, ich bin jetzt nur am Anfang von dem Ganzen. Ich taste mich da gerade langsam an diese Thematik ran. Also, David Fisseldaler hat mir das dann gesteckt und ich so, boah, das müsst ihr anschauen, das ist voll spannend. Und ich so, boah, das ist echt spannend. Weil es ist irgendwie so, also, die paar Sachen, die ich jetzt gefunden habe, ich glaube, Salzburger Nachrichten hat da ein Forscher quasi in diese Richtung die Tendenz schon von Jahren mal hingeschmissen.
01:42:19
Speaker
Da kam eine neue Technologie daher und sie hat gesagt, wir haben die Kalligraphie und das ist Schreiben und die Schreiberlinge, die können wir nicht alle loswerden und werden Informationen zu schnell vervielfältigt. Ich glaube, die haben ein ähnliches Problem gehabt wie wir. Da wissen wir zumindest, wer das geschrieben hat.
01:42:40
Speaker
Bei der Maschine weißt du das nicht mehr. Das Problem war, dass Europa dadurch, dass sie so einfach Wissen und Informationen verbreiten und vervielfältigen konnten, hat es einen immense Push gemacht. Die Leute haben viel schneller zu lesen begonnen. Sie haben viel schneller lesen gelernt. Das Wissen hat sie viel schneller verbreitet. Am Ende des Tages war es irgendwann so, dass ...
01:43:05
Speaker
hochmütige Europäer, die schreiben ja immer noch mit der Hand. Also die sind quasi nur old style. Wir sind da schon viel cooler unterwegs. Und genau dieses Ding kriegen wir als Europäer nicht mehr raus. Das heißt, wir sind da wieder historisch biased. Natürlich. Und haben aber dann vergessen, dass sie uns eigentlich irgendwann überholt haben oder weit überlegen worden.
01:43:33
Speaker
Manchmal legen wir uns dann nicht ein mit unseren ganzen Restriktionen, die wir dann haben. Beziehungsweise, wenn wir das schon haben, auf was legen wir dann Wert? Ich spreche kein Chinesisch, aber da geht die Post ab. Mit KI und mit den ganzen neuen Technologien. In Amerika kriegen wir es mit, weil wir westlich orientierte Gesellschaft sind und Englisch sprechen können. Was Indien macht, keine Ahnung, aber scheinbar ist auch relativ viel.
01:44:01
Speaker
Aber wie gesagt, ich hab die Sprachbarrieren. Ich kann es wieder nachrichtentechnisch verfolgen. Nur keine Influencer, die mir Sachen davon mitteilen. Sondern ich weiß nur so von denen gut. Es gibt mehrere Umgebungsfelder, die nicht restriktiert sind, die aber vollgas voranfahren. Und ich schätze es voll, dass wir auf uns, auf unsere Daten, auf die persönlichen Rechte und so weiter wertlegen. Andererseits denke ich mir dann so,
01:44:32
Speaker
Wenn die im Endeffekt technisch uns dann so weit überlegen sind, was machen sie dann mit uns oder was passiert dann mit uns? Ich hoffe, meine Antwort darauf ist, um das Ganze positiv abzurunden. Ja, bitte, unbedingt. Das, was wir machen müssen, ist das, was wir am besten können, Kunst und Kultur. Performen. Live, on stage, in real. Weil am Ende des Tages
01:44:59
Speaker
Gefühlt sind die Gesellschaften, wo die Technologie so in die Gesellschaft eingetaucht ist, also Japan zum Beispiel, wo Männer Bots heiraten und die Männer Frauen Schere so auseinanderklafft, die nicht mehr zueinander finden. Totale Beziehungsunfähigkeit, totale Überalterung.
01:45:18
Speaker
Keiner redet mehr miteinander, keiner kriegt mehr Kinder. Genau, und ich glaube, dass das halt auch schon so ein bisschen dieses Digitale mit sich gebracht hat. Und vielleicht ist das das, was uns halt die Menschlichkeit dann wieder bewahrt, weil nachdem wir digital, also noch nicht mehr technisch ablosen, weil wir uns halt restriktieren, feiern wir trotzdem die besseren Partys.
01:45:38
Speaker
Das stimmt. Allerdings. Ich glaube auch, dass die... Das ist ein Lösungsansatz. Macht mehr Party. Ja, ich finde auch. Das sind doch wieder Technofestivals-Planen. Nein, aber ich glaube, dass das urmenschliche Bedürfnis nach echter menschlicher Interaktion, nach Beziehung im weitesten Sinne,
01:46:06
Speaker
dass das genetisch so tief verankert ist und uns erst überhaupt hierher gebracht hat und dadurch mit so vielen positiven Erfahrungswerten verbunden ist, dass das nicht aus uns rauszukriegen ist, ob es jetzt ein Hype ist oder ob das andauert.
01:46:30
Speaker
Gesamtkontext der Menschheitsentwicklung ist das immer noch ein Furz eines Fliegenschisses. Genetischzeit. Wunderschön. Kai, kannst du das bitte visualisieren jetzt? Poste davon.
01:46:45
Speaker
Nein, du hast vollkommen recht. Absolut. Und ich glaube, es ist oft, wie so oft, dass das Pendel halt sehr stark jetzt ausschlägt und die Begeisterung, ob die jetzt künstlich erzeugt oder genuin ist, sei dahingestellt. Aber dass das dann aber genauso heftig auch wieder in die andere Bedürfnissecke auspendelt. Genau. Und ich glaube, das wird eine gewisse
01:47:07
Speaker
durchs Strecke überwinden müssen, vielleicht auch eben Staatsbegrenzung betreiben müssen, dass wir das gesellschaftlich überleben, im Sinne von ich lebe total gerne in einer freien Demokratie, wo ich weiß, dass Wahlen frei und fair und überprüfbar ablaufen und nicht der gewinnt, der systematisch die meiste Disinformation streuen kann, weil er das größte Rechenzentrum und die skrupellosesten Prompte hat.
01:47:35
Speaker
Aber da ist es dann quasi unsere Aufgabe, die Leute da raufzuklären. Ja, das sehe ich. Also wie ich rausgefunden habe, dass das mal YouTube rechts misogin und konservativ und Trump-Fan und Andrew Tate verherrlicht und die Candice Owens toll findet und Alice Weidel.
01:47:52
Speaker
liegt es daran, dass meine YouTube-Programmiermusik zu konzentrieren ist. Es ist einfach Musik, die funktioniert. Ich schaue mir diese ganzen Tech-Talks an und so weiter und so fort. Also das System dürfte mich irgendwie männlich zwischen 20 und 50 einen kategorisiert haben und glaubt jetzt aufgrund meines Verhaltens kriege ich jetzt keine
01:48:17
Speaker
Schminkwerbung. Ich krieg echt nichts. Also wenn ich mal so ein Schmink-Tutorial krieg, denk ich mir, war cool, jetzt weiß ich endlich, wie das geht. Werd da vorkommen, außen vor gelassen. Das ist spannend. Also du bist total falsch eingeordnet eigentlich. Ich bin falsch eingeordnet und es wird halt immer krasser.
01:48:33
Speaker
Ich überspitze das Ganze natürlich noch mehr, weil ich dann diese Videos mir dann von vorne bis hinten anschaue und dann noch abspeichere, weil ich es halt selbst nicht glaube. Es war wirklich so. Und die zwischendurch Nachrichten, die so leicht als Entertainment wären, wird immer weniger. Und es ist wirklich so, Fights sind drinnen, also UFC und so weiter und so. Es ist wirklich männlich, was da halt irgendwie mir entgegenspielt wird. Spannend.
01:48:58
Speaker
Ich schaue mir dann dieses Video fünfmal an, weil ich es nicht glauben kann, was ich gerade sehe. Das heißt, der Algorithmus ist dann so gepolt, so quasi der Recommendation- und Engagement-Algorithmus. Das heißt, je mehr Engagement und Interaktion du mit diesem Inhalt machst, desto mehr wird dir von der ähnlichen Art und Sorte von Inhalten ausgespült. Das heißt, natürlich wird mein Algorithmus rechts und konservativ und rotate-freudig.
01:49:27
Speaker
Das ist wie ein Unfall, wo man hinschaut. Man kann nicht wegschauen, passiert das jetzt wirklich. Aber trotzdem, ich denke mir dann so ...
01:49:35
Speaker
Ich bin mir das total bewusst, habe es am Anfang lustig gefunden, jetzt finde ich es bedenklich, weil, und da gibt es jetzt schon noch Studien dran, wir haben halt die Mädels, die Teenager-Mädels, die rennen halt alle in eine progressive Richtung, unabhängig, und wir brauchen das nicht, währenddessen die Jungs, also die Schere klafft so auseinander, die gehen in die Konservative, genau in diese Enrotate-Richtung rein.
01:49:56
Speaker
Schrecklich, ich schäme mich so wirklich aufrichtig. Ich finde das halt arg, weil ein 16-jähriger Bursch kann das vielleicht noch nicht so. Also wenn er vor allem zu Hause nicht ein aufgeklärtes Familienumfeld hat. Je öfter du etwas siehst, desto mehr bist du von dem bestätigt. Und wenn du die ganze Zeit so einen Content dann eingespült kriegst, dann konstruierst du dir eine Realität, die mit der Echten da draußen vielleicht nichts zu tun hat.
01:50:24
Speaker
Und das ist halt das, warum ich dann immer rumrenne und sage, wie schaut denn dein YouTube Schatz aus? Darf ich mal kurz reinschauen? Und da bin ich dann draufgekommen, wir haben jetzt in Europa diese Bestimmung, wir dürfen keine politische Werbung schalten. Das ist ja bei uns relativ zensiert worden und restriktiert worden.
01:50:48
Speaker
Das geht auf Werbung, die gezielt mit Geld monetarisiert wird und gezielt eingeschalten wird. Diese Schwarzrennen über Botfarmen, die rennen über Accounts, die nicht echt sind. Und das rennt halt subversiv und keiner kann es kontrollieren. Du weißt, du hast dein, eben, was wir vorher gesagt haben, was du angezeigt wirst, kriegst.
01:51:09
Speaker
Ja, ich drücke da Titten angezeigt. Das wäre ich 16 und würde 23 mal nach 24 Stunden auf Pornhub verbringen. So, jeden Tag. Und ich versuche dagegen zu arbeiten mit meinen persönlichen Interessen wie Sport, Basketball, Kampfsport, politischer Satire, wie auch immer.
01:51:36
Speaker
Das ist halt schwierig. Der Algorithmus, ich möchte dich nicht vermenschlichen, er nimmt es langsam wahr, aber er glaubt immer noch, dass Titten besser für mich wären. Das ist doch absurd, oder? Aber eben, jetzt mal, dein Algorithmus, mein Algorithmus, und jetzt nimm einfach mal zehn deine Freunde her, die jetzt in deiner Umgebung leben und Freunde nennen.
01:51:59
Speaker
Jeder hat was anderes da drinnen. Das heißt, wir wissen gar nicht mehr, was wer reingespült kriegt und wie wer gerade wie manipuliert wird. Und es gibt tatsächlich diese Botformen. Und es gibt tatsächlich quasi diese Methoden, die man dann exploiten kann. Und das war eben zurückkommen zu Pizzagate von vorher.
01:52:18
Speaker
Das war auch nichts anderes. Dadurch, dass diese Verschwörung der Elite, dieser Politischen plötzlich so überhand genommen hat, war damals zurückzuführen auf irgendeine Firma in Montenegro, glaube ich. Kann man jetzt leicht vertun. Aber auf jeden Fall hat es dort quasi ein Dorf gegeben.
01:52:34
Speaker
Da gibt es auch Doku von BBC, glaube ich war das. Und in dem Dorf waren halt riesengroße Jugendarbeitslosigkeit. Relativ am Arsch sozusagen, keine Zukunftshoffnung. Und da kamen dann die amerikanischen Firmen hin und haben gesagt, hey, wir lernen den Jungs jetzt und den Mädels, wie man programmiert. Wie man Webseiten programmiert und wie man Social Media Accounts macht. Inhalte und so weiter sind alles fiktiv, das kommt alles von uns.
01:53:02
Speaker
Gut, du lernst nicht, dieses System aufzusetzen. Das geht natürlich live, das geht dann natürlich online. Und dann hast du im Endeffekt innerhalb von kürzester Zeit 100, 200 Leute, die denselben Content rausspülen. Der wird dann quasi in dieses Social-Media-System eingespült und das Social-Media-System reagiert darauf, weil, okay, da ist derselbe Inhalt. Und nachdem das quasi mehrere Leute gleichzeitig machen, muss da was dran sein.
01:53:27
Speaker
Es wird validiert durch die Selbstbestätigung. Genau. Also zum Beispiel, wie in der Türkei das Erdbeben war. Es ist ein Erdbeben, das heißt eben dieses Twitter und von Twitter, also diese Tweets, quasi der Vogelschwarm, der dann gleichzeitig, hey, Gefahr, Gefahr, Gefahr. Oder da ist jetzt irgendwas. Und wenn du das jetzt beobachtest, es gibt immer wieder so Phasen, wo irgendwas da plötzlich alle emotional oder
01:53:54
Speaker
irgendwie berührt und das verteilt sich dann. Das ist dann die Realität, die dann ausgenutzt wird. Und da haben sie es im Endeffekt geschafft mit dieser Strategie.
01:54:03
Speaker
Marina Abramović macht jetzt rituelle Zeremonien für ein Fundraising-Event von Hillary Clinton. Natürlich opfern die Kinder, ist ja vollkommen klar. Und dann streust du noch Fake-News rein und da gibt es noch so ein Fake-FBI-Pamphlet, wo drauf steht, wie Symbole von der Pizza-Welt mit Pädophilie in Verbindung stehen.
01:54:29
Speaker
Dokument findest du nicht auf der FBI-Seite, aber auf einer total bedenklichen Internet-Quelle. Ich bin da wirklich bis zum Schluss gegangen und habe dann die Seite gefunden, wo halt mehrere solcher Dokumente, die gefälscht waren, aufzufinden sind. Genau, und da sind wir jetzt wieder zu dem, wie wirklich ist die Wirklichkeit und diese Systeme werden halt ausgenutzt und ich denke mir, ja, wir müssen halt alle da zusammen helfen und wenn uns sowas auffällt halt einfach anschauen,
01:54:57
Speaker
Und dann uns gegenseitig mal ob-checken, weil ich frag jeden jetzt so, du, wie ist dein YouTube-Sports-Kanal? Was kriegst du gerade eingespült? Aber ist es dann nicht eigentlich nur eine Verstärkung der Sache selbst, wenn ich sage, ich markier das, schaue es mir immer wieder an, spreiche es und so weiter, werde ich dann nicht ignorieren oder, weiß ich nicht, nicht interagieren?
01:55:24
Speaker
Besser? Nein, kleinere Übel? Eigentlich natürlich, sicher. Aber dafür musst du halt quasi wieder literaturell genug sein, damit du weißt, okay, das ist ein Scheiß und den haue ich raus. Da musst du schon so drüber stehen über den Inhalten, dir so bewusst sein, dass das, was dir jetzt gerade reingespült wird, dass das jetzt ein Blödsinn ist.
01:55:43
Speaker
Klar, also ich sag plötzlich, du swipes weiter, merkt der Algorithmus, okay, das ist jetzt nicht so. Ich bin halt Freundin von Extremen. Ich hab mir so gesagt, was passiert, wenn man sich das wirklich von Anfang bis Ende anschaut? Ja, okay. Wie ist denn das, wenn ich sterbe und meine digitale Hinterlassenschaft, das möchte ich wirklich noch kurz aufmachen, das Thema, muss ich jetzt ein digitales Testament aufsetzen?
01:56:13
Speaker
Was man mit deinen Daten machen darf.
01:56:15
Speaker
Genau, was mit meinen Daten geschieht, was man damit machen darf, was nicht, was ich bin jetzt auch nun sehr vokal und auch bildlich irgendwie öffentlich vertreten. Und wer entscheidet dann? Darf ich dann sagen, ich möchte nicht, dass irgendwelche synthetischen Versionen, Hologramme oder das mit meiner Stimme Werbung gemacht wird, produziert wird?
01:56:45
Speaker
Ist das regelbar? Muss ich mir einen digitalen Anwalt holen für sowas? Ich habe jetzt gerade mein Handy in der Hand, um die Nachricht von meinem Cousin zu lesen, der mir das geschickt hat. Studiert gerade an der BOKU und in einem BOKU-Law.
01:57:06
Speaker
oder aus einer Slide, mir das geschickt DSGVO sachlicher Anwendungsbereich. Personenbezogene Daten, unter Anführungszeichen, über betroffene Personen. Punkt 1. Materielle Aussage hat sich auf eine natürliche oder juristische Person, ein Klammer DSG zu beziehen, die das Informationsobjekt des Datums ist. Gut. Punkt 2. Datenschutz von Geburt bis zum Tod. Punkt 3. Kein Datenschutz für Verstorbener.
01:57:35
Speaker
Punkt 4. Pränatale erhobene Daten sind DSG relevant ab Geburt. Okay. So, wir kombinieren. Laut DSGVO Verordnung. Solange du lebst, hast du Recht über deine Daten. Von Geburt bis zum Ende.
01:57:59
Speaker
Wir müssten jetzt die Jeanette fragen oder jemanden, der sich jetzt wirklich juristisch auskennt, aber ich würde das jetzt so interpretieren, der Zeitpunkt, ab dem du stirbst, hast du keine Rechte mehr. Das heißt, die Rechte gehen, sind weg, lösen sich auf und wenn ich jetzt sterbe, hast du meine Stimmdaten und kannst mit mir einen Bot machen.
01:58:22
Speaker
And nobody can do something against it. Ja, das ist genau die Frage, weil wenn ich jetzt sage, ich bin die Hinterlassenschaft eines berühmten Musikers oder einer berühmten Schauspielerin oder so, bin die Erben, die Nachfolgen, die Nachlassverwalter im weitesten Sinne, dann haben die ja schon Zugriffsrecht oder Entscheidungsgewalt darüber,
01:58:47
Speaker
Über die Werke, die Sie erschaffen haben, wenn es das jetzt so sagt eigentlich? Ja, also soweit ich weiß, schon auch über die Entstehung neuer Werke, wenn die biometrischen Merkmale im weitesten Sinne darin verwendet werden sollen.
01:59:04
Speaker
Ich weiß es nicht, ich frage es mich. Ich eben auch nicht. Und ich finde, das ist irgendwie so ein total spannender Punkt, den wir vielleicht echt auch mit andenken müssen. Jetzt glaubst du in meiner KI-Bubble jetzt da, wo ich mit ein paar Leuten in so Gruppen bin aus Wien und Österreich. War auch so für mich ein schickes Leid, dass du den Hauptziel des Amrata, weil nah, aber eigentlich ziemlich arg. Und das ist irgendwie
01:59:28
Speaker
so ein Element, das da jetzt irgendwie gerade so herumschwebt, das wir uns vielleicht auch anschauen müssen, was dann in Zukunft dann passiert, weil eben wie du vorher sagst, du findest, ich brauche dann ein Testament über meine virtuellen Daten und wie geht das dann weiter, wer darf sie dann haben, wer darf sie nicht mehr haben.

Technologische Fortschritte und gesellschaftliche Implikationen

01:59:44
Speaker
Wobei das GVO ja nicht das einzige Recht ist, was gilt. Eine Datenschutzverordnung, die vielleicht nicht ganz zu Ende gedacht ist oder nicht ohne das vielleicht. Aber es schließt ja dann dadurch nicht automatisch das Persönlichkeitsrecht aus zum Beispiel oder das
02:00:04
Speaker
Ich ermisch mich halt dann selbst, wir glauben immer, wir wissen alles und wir haben jetzt irgendwie so die Weisheit mit einem silbernen Löffel gefressen, wenn man halt 15 Artikel vielleicht mehr als wer andere gelesen hat. Für mich ist es immer so, oh Gott, das ist einfach so ein riesengroßes Feld und da gibt es noch so viele Sachen, so viele Minenfelder in diesem großen Feld, den wir noch nicht angetouched haben. Und eben nachdem, ich weiß es nicht genau, du weißt es auch noch nicht so genau, also wir tasten uns jetzt gerade so irgendwie, okay, aber das eine Gesetz und das andere Gesetz und ich finde,
02:00:34
Speaker
Das gehört auch zu dieser Aufklärung dazu, die wir mit behirren müssen, weil was ist jetzt wirklich tatsächlich danach? Dürfte ich jetzt hergehen und meine Oma mit der Sprachaufnahme, die sie mir jetzt geschickt hat,
02:00:50
Speaker
einfach zu synthetisieren und dürfte meine Familie, die das vielleicht nicht toll finden, mich dann verklagen auf Unterlassung verklagen. Oder wie schaut es dann wirklich aus? Ich finde jetzt gerade die Worte nicht, weil ich mich gedanklich damit zu wenig auseinandergesetzt habe, weil es mich relativ selbst noch überrascht hat zu finden, okay, da ist wieder irgendwas, mit dem wir uns auseinandersetzen sollten. Aber ich finde, es ist trotzdem spannend,
02:01:19
Speaker
Weil ich finde, dass wir tatsächlich schauen müssen, was passiert denn dann. Weil bauen wir jetzt zum Beispiel wirklich so digitale Zwillinge von der Welt und die werden dann mit irgendwas befüttert, greift man dann auf Facebook. Ich habe Sprachnachrichten verschickt auf Facebook.
02:01:40
Speaker
Aber ich glaube, das schafft ein ganz gutes Bild von den vielen Ebenen der Überforderung, auf denen wir uns gleichzeitig gerade befinden. Und ich finde es so absurd, dass es nicht möglich ist, fünf Minuten mal die Füße stillzuhalten und das ein bisschen klarer
02:01:59
Speaker
einzuordnen oder damit umgehen zu lernen oder differenziert zu betrachten, weil es gibt ja durchaus echt tolle Sachen und ich möchte auch bitte gerne eine bessere Krebsfrüherkennung haben. Absolut, ich bin voll dabei. Aber heißt das, dass ich auch gleichzeitig den Wilden Westen im Kreativsektor in Kauf nehmen muss zum Beispiel oder dass ein Algorithmus entscheidet, ob ich Anspruch auf eine Versicherungsdienstleistung habe oder nicht.
02:02:27
Speaker
Und ich habe einfach das Gefühl, dass es gewisse Interessen gibt, Player, die uns so mit allem, alles oder nichts, mit dem Kopf durch die Wand rammen wollen, also uns als Rambock benutzen.
02:02:43
Speaker
Oh Gott, das fühlt mich so wild an. Ja, weil so empfinde ich die Ausrollung dieser technologischen Entwicklung. Es ist etwas möglich, es wird weltweit ausgerollt und dann wird geschaut, was passiert. Eine gigantische Petrischale und dann heißt es Hups, ja gut, den Genozid haben wir nicht vorgesagt, wir haben ja nur die Plattform dafür zur Verfügung gestellt.
02:03:08
Speaker
Ja, genau. Und anstatt etwas mit einmal kurz locker durch die Hose zu atmen und sich das anzuschauen und dann vielleicht das erst weltweit auszurollen. Aber das ist vielleicht nur meine kleine Naive.
02:03:25
Speaker
Das glaube ich, da sind wir schon lange drüber. Ja, eh. Ich verstehe es nur einfach trotzdem nicht. Es ist viel aufregender. Beta-testing real-time. Alle gleichzeitig. Ich habe es am Anfang zu Beginn, als die KI Bubble noch so eher zärtlich besucht war,
02:03:44
Speaker
war es irgendwie spannend, da hab ich es echt cool gefunden, weil eben, mit Journey zum Beispiel, wir waren so eine Handvoll Leute, die sich, du lernst dich dann irgendwann mal kennen, weil es nicht so viele Leute geben hat damals. Und da bist du in verschiedenen Gruppen drinnen, auf Twitter, auf Facebook, auf Schießmichtrot überall, wo wir heute unterwegs waren. Und da kriegst du natürlich, hey, du, ich hab den Zugang.
02:04:07
Speaker
Wir haben da quasi Frühtester, Early Access, bla bla bla, ich hab da ein paar Accounts zu vergeben. Dann kommst du da rein und das Gefühl, was wir damals alle gehabt haben, war so, wir sind jetzt quasi so die Ersten, die das ausprobieren dürfen. Und im Nachhinein bin ich dann da gesessen und
02:04:23
Speaker
Wie smart ist das eigentlich? Wie kannst du ein System Stress testen auf Zugriffe, in dem du so sukzessive aufmachst und immer mehr und immer mehr Leute reinlässt? Und natürlich war das so. Die Bayer-Fragen sind raufgekommen. Margot Roby oder so?
02:04:42
Speaker
die Barbie-Schauspielerin Margot Robbie. Genau, war plötzlich überall, das war ein super Beispiel dafür, so quasi ... Identity-Theft, jetzt seh ich sie. Sie wurde zu Tode gepromptet, also wirklich, das war plötzlich so ein Schwall, wo sie überall drinnen war. Es wurde Feedback gegeben, was funktioniert, was nicht funktioniert, was wir gerne hätten, warum wir immer nur 17 Finger an der Hand haben und so weiter und so fort. Und du merkst dann, okay, wir sind alle, wir arbeiten quasi alle mit an diesem Forschungsprojekt.
02:05:12
Speaker
Ja. Und versuchen dieses System irgendwie auf Fehler zu testen. Und das ist ja das am Ende des Tages, was der Cheche BD genauso gemacht hat. Es ist halt explodiert und es ist halt quasi komplett ausgeartet.

Utopische Ideen und wirtschaftliche Systeme

02:05:25
Speaker
Ich glaube auch bis heute, dass das nicht die Absicht war. Oder dass sie das nicht bewusst gewusst haben, dass das dann plötzlich so… Glaubst du nicht? Nein, das glaube ich nicht.
02:05:35
Speaker
Also dass man es vielleicht nicht antizipiert hat, dass der Effekt so groß ist, aber ich glaube, die Absicht war schon in diese Richtung gehend.
02:05:45
Speaker
Ich glaub, na, es war, wenn du dir die ganzen vorherigen Releases da anschaust, wirklich, es waren wirklich nur eine Handvoll Leute da drin. Es waren schon viel. Das hat schon gepasst. Aber es war jetzt nicht so, dass du diese Art von Ansturm erwartet hättest. Diese wirklich allumfassende ... Es hat uns ja alle aus den Socken geholt. Ich war dann auch so, ich war echt wochenlang frustriert, weil mir gedacht hab,
02:06:11
Speaker
So, jetzt ist es vorbei, jetzt können wir nicht mehr im Schatten spielen, jetzt sind alle da. Jetzt wollen alle alles wissen. Und so war es dann plötzlich. Und das war dann so... Okay, jetzt ist es kommerzig. Und weil halt alle plötzlich denken, okay, das ist das, was die Menschheit interessiert. Ich glaube, das ist das größte Phänomen, was es überhaupt gegeben hat jemals in der Menschheitsgeschichte, was so global effektechnisch eingeschlagen hat.
02:06:38
Speaker
Und darum setzen sie jetzt alle drauf. Und eben die Investorenfrage zu Beginn dürfte sicher nur ein paar Monate dahin laufen.
02:06:49
Speaker
Ja, klar. Es steckt ja jetzt auch zu viel dahinter, dass man jetzt sofort wieder aussteigt. Aber irgendwann werden die Kohle sehen wollen. Irgendwann werden sie return on investment brauchen. Und dann ist es vorbei mit der Gamification und mit dem, hey, probier das doch mal aus. Das ist total lustig. Oder vielleicht brauchen wir dann kein Geld mehr.
02:07:18
Speaker
Darf ich einen utopischen Gedanken an die Zukunft schicken? Ja, bitte. Ich hätte gerne dieses ganze Geldsystem abgeschafft. Da hast du jetzt aber ein großes Fass aufgemacht in den letzten fünf Minuten. Ohne, also mit der wirklich naiven utopischen... Das wäre so schön, wenn du mir keine Sorgen mehr machen müsst um mein Bankkonto. Ja, aber das geht ja auch, wenn du einfach...
02:07:48
Speaker
Arbeit den Gästen. Ja, genau. Mach doch mal was Gescheites, Steph. Es werden doch alle unsere Jobs gerade von der KI gefressen. Das stimmt. Deswegen bereite ich gerade eine Lesetour vor. Eine Lesetour? Nein, aber sowas in die Richtung. Ich meinte eigentlich eher in Richtung bedingungsloses Grundeinkommen, dass man sich zumindest keine Sorgen mehr macht, wo die nächste Miete herkommt. Ich bin dafür, dass das Wohnen generell frei sein sollte.
02:08:18
Speaker
Ja, damit würdest du ganz wenige Menschen sehr, sehr unglücklich machen. Aber sehr viele Menschen sehr, sehr glücklich. Ich finde, Immobilien und Wohnungsbedarf sollten nicht für private finanzielle Interessen verwendet werden.
02:08:38
Speaker
Ja, das ist ein Grundrecht. Eigentlich ein menschliches Grundrecht, aber es wird nicht als solches behandelt. Und die binden dafür, dass sie die Kies wieder weggeben.
02:08:50
Speaker
Okay, das wirst du mich jetzt einfach wirklich beerdigen. Du bist so ein Podcast, echt. Hast dich jetzt mit allen angelegt. Von den Islamisten bis zur GISS, alles dabei. Ein Rundumschlag, danke. Keine Sponsoren mehr. Also nicht, dass der Yes bis jetzt nicht gesponsert hätte, aber die sind jetzt auf jeden Fall von der potenziellen Kandidatin, die ist die GISS. Okay, Entschuldigung, ich sag nichts mehr.
02:09:14
Speaker
Ich danke dir, dass du da warst. Vielleicht darf ich wiederkommen. Ja, das war die letzte Folge von My Gratitude Talks mit Stefanie Meisfrid. Vielen Dank, dass wir uns so humorvoll austauschen konnten. Es war eine schöne Zeit mit euch. Ebenso. Ich mache jetzt ein Spendenkonto auf für die vielen Klagen und Morddrogen, die auf mich zukommen werden.
02:09:42
Speaker
Das krieg doch eh ich, oder? Ja, ich glaube wir beide. Ich bin ja die Plattform, auf der du deine Hassrede gegen die Gis verbreitest. Meine Hassrede, die übertreibst du aber maßlos. Wir haben nützt, dass die soll wieder abgeschafft werden. Das war keine Hassrede. Und Ö1 ist toll. Das habe ich von Rechtspopulisten gelernt. Man verdreht

Schlussworte

02:10:04
Speaker
und übertreibt einfach Dinge und traumatisiert sie total. Nicht mit meinen Worten, bitte.
02:10:09
Speaker
In diesem Sinne, schön, dass ihr durchgehalten habt und bis jetzt dran geblieben seid. Wer das hört, ist mein persönlicher Held. Vielen Dank und bis bald. Tschüss.