Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#11 Der Algorithmus, bei dem jede*r mit muss!? image

#11 Der Algorithmus, bei dem jede*r mit muss!?

S1 E11 · BoomerTake
Avatar
307 Plays1 year ago

Heute drehen wir das Serious-O-Meter mal ziemlich weit auf, denn wir sprechen über Algorithmen. Die sausen nämlich nicht nur in der realen Welt ständig um uns rum, sondern sind bekannterweise auch die Grundlage aller großen Social-Media-Plattformen. Aber was machen digitale Algorithmen eigentlich? Und ist das gut oder schlecht?

Hört rein, wir dröseln das System des digitalen Algorithmus so kompakt wie möglich für euch auf.

---

Shownotes:

Hier findet ihr die Studie "Deadly by Design" vom CCDH.

Und das hier ist das Buch von Cathy O'Neil, von dem wir in dieser Folge sprechen.

Recommended
Transcript

Einleitung und Triggerwarnung

00:00:00
Speaker
Hallo ihr Lieben da draußen. Vor dieser Folge wollen wir eine ganz kleine Triggerwarnung aussprechen, denn wir behandeln heute oder reißen zumindest an Themen, die das Essverhalten oder Depression betreffen. Und wenn das Themen sind, wo ihr euch nicht ganz gut mitfühlt oder das in euch negative Gefühle auslesen könnte, dann würden wir sagen, skippt diese Folge oder hört euch in eine vergangene Folge rein. Ansonsten wünschen wir viel Spaß bei dieser Folge.
00:00:37
Speaker
So, hallo ein wunderschönen euch allen. Es ist Freitag, wenn die Folge hier rauskommt und das heißt, es ist Boomer-Take-Tag. Und ja, mein Name ist wie immer natürlich Johannes.
00:00:50
Speaker
Und ich bin Gesine auch wieder dabei und freue mich. Ja,

Rückblick auf das letzte Thema: Entspannung und ASMR

00:00:54
Speaker
genau. Wir haben letzte Woche, wer eingeschaltet hat, haben wir über das Thema Entspannung, Schlafen und so ein bisschen den Kopf ausschalten gesprochen. ASMR. Haben ASMR und Superfolge, Sound bisschen improvable und heute aber mit mit bestem Orangenschmausensound für euch vorbereitet.
00:01:13
Speaker
Genau, wir haben auch, um da mal anzuschließen, wir machen das ja nicht für umsonst, sondern euer Feedback ist uns ja wichtig und wir hatten die Umfrage laufen und Johannes löst gleich mal auf auf Instagrami, wie ihr zum Thema in Spannung steht und da wollen wir nur kurz abschließen damit mit dem Thema.
00:01:29
Speaker
Ja,

Umfrageergebnisse zu Arbeitsstress

00:01:30
Speaker
genau. Also wir hatten die Umfrage und da haben wir euch gefragt, was ist denn, wie ist euer Stresslevel auf der Arbeit? Und die meisten Leute sind bei dem Mittelwert gelandet, das können wir jetzt irgendwie schon mal sagen. Es war natürlich irgendwie auch erwartbar, aber es war da eine Antwortmöglichkeit war, ich habe
00:01:49
Speaker
Phasenweise Stress, aber das ist okay. Und das war dann die Antwort, die mit Abstand gewonnen hat. War ja, glaub ich, auch zu erwarten. Aber es haben auch viele Leute gesagt, dass sie sich von Stress auf der Arbeit belastet fühlen, dass es definitiv zu viel ist. Es gab aber auch einige Leute, die gesagt haben, ich hab sehr viel Stress und das ist okay und ich kann damit um. Also, es gibt ja ganz verschiedene Typen. Das hat was mal wieder gezeigt, aber die meisten Leute ...
00:02:16
Speaker
sind jetzt nicht komplett in der Stressfalle gefangen. Und das ist ja irgendwie auch eine schöne Nachricht. Ja, eine diplomatische Antwort, die hoffentlich auch der Realität entspricht. Genau.

Einführung in digitale Algorithmen

00:02:25
Speaker
So, wir haben aber auch, also wir haben über Entspannung gesprochen, wir haben aber natürlich auch geschaut, was sind eigentlich Dinge, die uns vielleicht davon abhalten. Und das Thema, was wir heute besprechen wollen, Johannes, ist da wirklich sehr freigestimmig. Ich freue mich sehr.
00:02:39
Speaker
Wir haben heute einen Koffer für euch gepackt, der irgendwie sehr spannend ist, weil mich das selber auch total umtreibt in letzter Zeit. Aber man denkt nie so richtig darüber nach. Und ich hab mich in letzter Zeit öfter mal mit dem Thema Algorithmen beschäftigt.
00:02:56
Speaker
Und Algorithmen ist ja so was, ja, ich kenn das irgendwo von Instagram, der Algorithmus, der spielt mir da immer diese lustigen Katzenvideos aus und so. Wir wollen für euch heute mal klären, was sind denn Algorithmen im Allgemeinen? Und was sind jetzt im speziellen Algorithmen im Digitalen? Und was bergen die für Gefahren? Was gibt's da für Chancen? Und sind die denn überhaupt so okay für uns als Gesellschaft und für uns als Einzelperson? Und da wollen wir heute mal ein bisschen einsteigen. Das wird super spannend, glaub ich.
00:03:28
Speaker
Ja, falls ihr jetzt Angst habt, dass wir ein IT-Podcast sind, ich werde das oft noch mal gefragt, ihr redet immer über KI und Co., seid ihr eigentlich so IT-Lords? Nee, aber Leute, wir leben in einer digitalen Welt und es macht total Sinn, sich damit auseinanderzusetzen. Und ich glaube, das sollte jeder tun. Deswegen, heute starten wir mit, ja eigentlich ein Basic, schieß mal los, was, was, was steckt eigentlich so dahinter?

Definition und Ursprung von Algorithmen

00:03:49
Speaker
Ja, also wo du das gerade sagst, das ist, wir sind alle davon umgeben und deswegen kann sich niemand davon freimachen und das ist kein reines IT-Thema und das wollen wir euch heute auch ein bisschen beweisen, denn Algorithmen sind überall. Algorithmus, wir können ja vielleicht mal mit der Definition anfangen. Was ist denn überhaupt ein Algorithmus? Also gehen wir jetzt mal, ne, starten wir mal von unten. Und wenn man da bei Wikipedia guckt, dann sagt Wikipedia,
00:04:12
Speaker
Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems. Das heißt, es ist ja nur eine Abfolge von Schritten, die immer wieder wiederholt wird, um ein gewisses Problem oder eine Reihe von Problemen zu lösen.
00:04:27
Speaker
Und auch ganz spannend, übrigens, ein kleines Side-Fact am Rande. Kannst du dir eigentlich erklären, wo der Name Algorithmus herkommt? Ich habe Geschichte studiert, deswegen ist das bei mir immer so, ich möchte sowas immer wissen, ich will immer wissen, wo der Kram herkommt.
00:04:45
Speaker
Und das ist auch eine Erklärung, die ist, also die ist überhaupt nicht technisch. Es ist lateinisch, ja wahrscheinlich. Boah, jetzt oute ich mich als völliger Sprachdummy. Es ist lateinisch, da hast du schon irgendwie recht, aber es ist eine lateinische Übersetzung von einem Namen quasi. Also das ist das Spannende. Es gibt da eine richtige Geschichte zu und das ist total weird, aber irgendwie auch cool.
00:05:08
Speaker
Jetzt gehen wir da mal kurz rein. Algorithmus ist nämlich benannt nach einem Mann, der diese Art von Handlungsvorschriften erfunden hat. Und das war der Muhammad al-Schwarizmi. Und das heißt übersetzt, das ist Muhammad der Koresmiya. Und die Koresmiya, das ist ein iranisches Volk der Antike.
00:05:39
Speaker
Damals? Long time ago? Von früher. Und dieser Begriff, dieses Alschwarismi, das wurde dann latinisiert in Algorismi. Da sind wir dem Ganzen jetzt schon ein bisschen näher. Das heißt, das ist eigentlich nur die ... Ist es der Name von diesem Dude, der das erfunden hat, auf Latein? No. Der Algorithmus kommt von dem Herrn Algorismi.
00:06:04
Speaker
auf Latein. Und das ist eigentlich die Erklärung. Also, es ist ziemlich stumpf. Es ist eine Eigennahme, wenn du so willst. Es sagt jetzt gar nicht Schlange an Dingen, die du tun musst, damit sich was auflöst. Oder so ist es jetzt nicht, ne? So wie Rhythmus hätte jetzt man ja ableiten können, weil es eine wiederkehrende Fragestellung ist, die nacheinander abläuft, um zum Ergebnis zu kommen, um zum Success zu kommen. Okay, verstanden. Also, es ist wie Pythagoras oder du weißt, okay,
00:06:32
Speaker
Genau, es kommt von einem schlauen Typ, der mal was erfunden hat. Also da kommt der Begriff Algorithmus her.

Algorithmen im Alltag: Einfache Beispiele

00:06:40
Speaker
Und Algorithmen sind ja jetzt allgemein, kann man sagen, sind das Dinge, die man immer in gleicher Reihenfolge ausführt. Und deswegen, da sind wir jetzt wieder bei dem Seid ihr ein IT-Podcast? Nein, sind wir nicht. Wir machen alle Algorithmen jeden Tag. Also wenn ich aufstehe morgens, dann ist mein erster Algorithmus Kaffee kochen.
00:07:00
Speaker
Das mache ich irgendwie immer gleich. Also ich habe das Problem, ich brauche Kaffee. Was mache ich dann? Ich gehe an die Kaffeemaschine, ich mache da immer die gleichen Sachen, hier da Kaffeepulver verschütten, aufwischen und so. Also das heißt, Algorithmus kann auch sowas sein. Das ist auch ein Algorithmus. Das ist einfach eine Beschreibung für Sachen, die uns im Alltag den ganzen Tag begleiten. Aber wir wollen hier natürlich nicht über Kaffeekochen reden, sondern uns interessieren dann schon mehr die digitalen Algorithmen, weil das sind ja die,
00:07:28
Speaker
die wir heute auch kennen und die uns den ganzen Tag begleiten in Instagram, TikTok und Co. Und da gibt es natürlich einige Sachen, die Leuten mittlerweile oder seit Jahren eigentlich schon auffallen, die nicht so ganz okay sind.
00:07:46
Speaker
Und über die wollen wir heute natürlich auch mal sprechen. Und was ist denn so, was sind denn deine Erfahrungen so mit dem digitalen Algorithmus? Wie stehst du so zu deinem persönlichen Algorithmus auf Social Media? Weil das ist ja, was hast du denn ausgespielt? Ja. Was denkst du, also du kannst ja nicht reingucken, aber was ist das für dich?
00:08:06
Speaker
Also man kann da nicht reingucken. Ich glaube, man kann schon so ein bisschen sich durch ein paar Dinge klicken, um zu verstehen, wie der zustande kommt oder ihn versuchen zu beeinflussen. Aber so das Erste, was mit dem Kopf kommt bei Algorithmen, ist natürlich jetzt bei meinem Business auch so ein bisschen TikTok. Und ich weiß einfach, dass als TikTok rauskam,
00:08:25
Speaker
einfach das, das größte Mysterium war, diesen TikTok-Algorithmus zu verstehen, natürlich auch irgendwie für sich nutzbar zu machen. Also du wolltest ja viral gehen und das ist auf Instagram das gleiche Ziel und sicherlich auf anderen Portalen auch. Auch auf LinkedIn wollen wir irgendwie viral gehen und so. Und aber TikTok ist so ein krasser Algorithmus gewesen. Ich hatte einen, oder ich hab den immer noch, einen guten Bekannten, der sich da richtig reingedickt hat und das war so mind-blowing, als er mal so erzählt hat,
00:08:52
Speaker
vermutet wird, was dahintersteckt an Technologie. Und seitdem ich das so ein bisschen gehört habe, was das sein kann, das geht über Bilderkennung, alles mögliche, also richtig gesprochenes Wort, gelesenes

Einfluss von sozialen Medien Algorithmen

00:09:05
Speaker
Wort und so. Und also sehr intelligent und seitdem bin ich auch so, okay, die können alles, die checken alles, wie lange ich auch auf Instagram auch fast drauf bin und co.
00:09:14
Speaker
Ja. Also deine Frage, ich weiß, dass das ganz cleveres Zeug ist, dass es krasse Dinge kann. Einerseits ist man natürlich dankbar, weil man schon dann natürlich, du kriegst ja Dinge angezeigt, die dich ja auch wirklich emotionalisieren und interessieren und die du mit Zweifel auch kaufen möchtest. Das ist immer die Marketing-Argumentation. Ja, wir wollen dir nur das ausspielen, was dich wirklich interessiert. Das funktioniert halt. Also Algorithmen machen ihren Job. Ob das gut für uns ist am Ende, TBD an anderer Stelle, denke ich.
00:09:43
Speaker
Genau, das ist das, worauf ich eigentlich hinausführe mit meinem Fazit für heute. Denn du hast gerade was Superspannendes gesagt. Du hast gesagt, das ist ganz cleveres Zeug, der Algorithmus. Und ich möchte eigentlich heute damit abschließen später, ist das wirklich cleveres Zeug? Also was macht der Algorithmus? Denn eigentlich ist der Algorithmus ja nur ein Programm, der immer wieder die gleichen Schritte ausführt. Und wir beeinflussen den ja selbst.
00:10:10
Speaker
Also wir sagen dem Algorithmus, was der uns anzeigen soll, wie der unseren Content ausspielen soll. Und es ist ein Programm, was natürlich auch von uns lernt. Aber ist das wirklich komplett clever? Und Social Algorithmen sind ja nichts umsonst auch einfach sehr umstritten. Da gehen wir jetzt mal vielleicht so ein bisschen auf die
00:10:31
Speaker
Steigen wir jetzt weiter ein und gucken mal in das Thema rein. Warum sind die denn umstrippen? Was ist denn da? Was machen Social Algorithmen denn? Denn eigentlich, wenn man das mal ganz runterdampft, dann pushen die, also wenn wir jetzt rein vom Konsum ausgehen und nicht von der Creation. Lassen wir das jetzt mal außen vor, wir konsumieren nur.
00:10:50
Speaker
Die pushen uns dann das, was uns vermeintlich interessiert. Kennen alle, du gehst auf Insta, du guckst dir dreimal irgendwie, wir haben es in der Kochfolge mit Alex Bauer auch gehabt, ich habe mir ein paar Foodvideos angeguckt, zack, kriege ich denen die ganze Woche lang nur irgendwelche Sachen, werden mir vorgeschlagen Reals, wo Leute coolen Kram kochen, den ich dann nachmachen soll am besten.
00:11:14
Speaker
Das heißt, die pushen uns das, was uns vermeintlich interessiert. Die schlagen uns dann ja auch was vor. Du hast die For You-Page bei TikTok, wo dir immer wieder Sachen vorgeschlagen werden, die natürlich irgendwie darauf aufbauen, was du die letzten Zeit konsumiert hast. Oder der Algorithmus ist natürlich auch so in Anführungszeichen schlau, dass der dir sagt, wir nehmen jetzt mal
00:11:37
Speaker
alle Sachen, die du in letzter Zeit nicht konsumiert hast, und schlagen dir aus den Bereichen was vor, damit du halt dein Feld noch vergrößerst und damit du neue Bereiche entdeckst. Ja. So funktioniert das ja auch, also das kann ein Algorithmus ja auch. Ja. Der weiß ja nicht nur, was uns interessiert, sondern der will uns ja auch neue Interessen quasi aufzwängen.
00:11:54
Speaker
Also people also like, ja? So, du interessierst dich viel für Food, also solltest du dich vielleicht auch für Küchengeräte interessieren oder für eine neue Kaffesorte und entspielen sie dir das ein. Genau. Ja. Genau. Aber wenn wir das jetzt mal weiter denken, also wir gehen jetzt mal davon aus, dass der Algorithmus erstmal nur das eine macht und zwar dir die Sachen, die dich vermeintlich interessieren, weiter ausspielt.
00:12:15
Speaker
Dann kann das ja super cool sein, ne? Wenn du zum Beispiel irgendwie, du spielst gerne Fußball, dann zeigt dir der Insta-Algorithmus oder auch TikTok oder so, zeigt dir dann natürlich irgendwie Sachen an von anderen Leuten, die auch Fußball spielen, du kriegst dann wahrscheinlich aber auch irgendwie Werbung, wo du dann neue Schuhe dir kaufen sollst und dann hier hast du irgendwie Torwart-Handschuhe, keine Ahnung, ne?
00:12:38
Speaker
Das ist ja, das fördert dann dein Hobby. Du bastelst gerne an deinem PC rum oder irgendwie, du hast, du interessierst dich total für Körperpflege, irgendwelche Produkte, so, ne, dann, dann wird dir das natürlich. Das ist ganz stark auf TikTok bei mir. I don't know why, aber ja.
00:12:54
Speaker
Ja, du hast bestimmt mal irgendwas angeguckt. Irgendwas. Das wird dir nicht verziehen. Aber dann wird dir das ausgespielt. Und das ist ja cool. Das fördert dann irgendwie ein Hobby, das fördert Interessen, das macht auch Spaß, sich das anzugucken. Man kriegt Inspo dadurch, man kauft natürlich auch. Und das will der Algorithmus ja eigentlich auch. Das ist ja das Ziel von der Plattform. Die wollen natürlich ihre Shoppingfunktion bewerben. Die wollen, dass du halt Pada ausgibst, ne? Sagen wir mal so.
00:13:21
Speaker
Aber wenn dir der Algorithmus die Sachen ausspielt, die du dir anguckst und dich stärker quasi in deine Interessengebiete graben lässt, dann geht das auch in andere Richtungen. Und da will ich jetzt mal eine kleine Sache rausholen, die ich dazu gefunden

TikTok-Studie: Förderung schädlicher Inhalte?

00:13:37
Speaker
hab. Die Algorithmen können natürlich auch, und jetzt kommt der Zeigefinger, die können auch sehr schädigend sein, wenn du Interessen hast, die dich schädigen. Das ist ja logisch. Und da sind wir jetzt wieder an der Stelle, ist der Algorithmus wirklich clever?
00:13:50
Speaker
Wenn der nämlich clever wäre, dann würde er dir ja an der Stelle sagen, das ist aber Content, der trägt dazu bei, dass du vielleicht ein ungesundes Verhalten förderst, dann zeige ich dir den jetzt lieber nicht an. So funktioniert aber definitiv der Algorithmus im Social nicht. Und da gibt's eine ganz coole Studie, die ich gefunden hab, vom CCDH, das ist das Center for Countering Digital Hate. Und die haben eine Studie gemacht, die heißt Deadly by Design.
00:14:18
Speaker
Klingt jetzt schon super dramatisch. Werd ich in den Show Notes auch verlinken, die Studie. Und die ist aus Dezember letzten Jahres. Und die hat in, ich glaube, US, UK, Kanada und Australien jeweils zwei TikTok-Profile neu aufgemacht.
00:14:37
Speaker
Also dieses Center hat das aufgemacht für die Studie. Die haben TikTok-Profile erstellt, jeweils in den Ländern, um zu gucken, ob das auch across borders funktioniert. So, oder? Ja, die Theorie quasi. Oder ob es ein kulturelles Thema ist. Genau, das, worauf sie hinauswollten. Und das war Folgendes. Sie haben diese Profile erstellt und haben jeweils gesagt, sie sind ein 13-jähriger Teenager. Mhm.
00:15:02
Speaker
haben sie dem Algorithmus vorgegaukelt. Und dann haben sie jeweils in eins von diesen zwei Profilen pro Land, dem haben sie einen Namen gegeben, was ein, ja, in der Studie steht, ein ungesundes Essverhalten bei der Person suggerieren soll. Also wie die Namen jetzt sind, das steht da nicht genau drin. Ja.
00:15:27
Speaker
Dann haben sie geguckt, welcher Content wird ihnen ausgespielt, wenn sie 30 Minuten lang gezielt, also die haben den Account erstellt und dann 30 Minuten gezielt nach Content gesucht, der zum Beispiel, ja gut, da müssen wir jetzt Triggerwarnung sagen, aber so Sachen wie Bulimie zum Beispiel fördert oder zeigt. Also einfach ein ungesundes Essverhalten.
00:15:50
Speaker
Ja. Und ein ungesundes Körperverständnis propagieren. Diesen Content haben sie gezielt gesucht und haben dann natürlich getestet, kriege ich jetzt, weil das ja offensichtlich mein Interesse ist, ich melde mich da als jugendliche Person an, kriege ich das jetzt auch ausgespielt, also ist das jetzt bei TikTok mein Interessensgebiet und wird das jetzt gefördert. Ja. Und der Konsens war in allen Ländern auf jeden Fall.
00:16:14
Speaker
Ja, voll. Die haben dann mit diesen Profilen nur noch Content ausgespielt bekommen, der halt superschädliches S-Verhalten und eine superschädliche Beziehung zum eigenen Körper dargestellt hat. Und damit konnten sie dann beweisen in dieser Studie, die ist auch ziemlich lang, also wenn ihr wollt, lest euch die mal durch, ist sehr interessant, was da drin steht. Damit konnten sie zeigen, dass dieser Algorithmus einfach so doch dumm ist, dass ihr dir Sachen anzeigt,
00:16:42
Speaker
die dich vermeintlich interessieren, die dich dann aber auch schädigen. Ja, das ist krass. Ich kenne auch eine Geschichte, dass das jemand auch auf LinkedIn mal geteilt hat, ein ehemaliger TikTok-Mitarbeiter, relativ bekannt, der das auch unterstützt, ohne dass es eine Studie war. Da ging es auch um das Thema, so ein bisschen
00:17:00
Speaker
Depressionen und dunkle Löcher, also wirklich krass, kann man auch mal nachlesen. Und also clever in dem Sinne, dass er sein Ziel erreichte, Algorithmus. Das Ziel ist, du verbringst Zeit auf der Plattform, du konsumierst. Er judged ja nicht. Also da gibt es ja keine Brücke, die sagt, okay, dieser Content zahlt irgendwie auf ungesundes Essverhalten oder
00:17:22
Speaker
andere Süchte ein zum Beispiel, sondern der wertet ja nicht. Der Algorithmus hat ein klares Ziel, das ist vordefiniert und in dem Fall ist es wahrscheinlich Nutzungszeit auf der App. Aber da müssen wir uns ja auch fragen, dann wird ja vorausgesetzt, dass alle UserInnen, die sich auf der Plattform aufhalten,
00:17:42
Speaker
dass die ein sehr reflektiertes Selbstbild haben und Selbstverantwortung dafür übernehmen, was sie sich für Content angucken. Das ist natürlich nicht so und deswegen, also du sagst halt, der Algorithmus judged nicht. Klar, so argumentieren natürlich die Tech-Konzerne, die den Algorithmus halt schreiben. Die sagen halt, ja, es liegt in eurer Verantwortung, was ihr euch anguckt. Was ihr uns da reingebt, das kommt wieder zurück. Aber das ist natürlich, also die haben ja auch eine Verantwortung.
00:18:10
Speaker
Und da ziehen sie sich natürlich glatt raus. Komplett, komplett. Also das weiß ich auch noch, als ich bei TikTok zum Beispiel, jetzt nehmen wir mal dieses Portal, als ich da anfing, da ging die Meldefunktion, das war alles super lame und das hat alles nicht so gut funktioniert. Dann hat man natürlich dieses Thema auch, Nacktheit nennen wir das mal so, du hast diese Themen alle.
00:18:27
Speaker
Und da, klar, da dachte ich, okay, da können wir was banen und so. Auch Sexualität, Aufklärungsarbeit, was ja eigentlich was Schönes ist. Alles Riesenthemen, aber auch an anderer Stelle werden wir darüber mal reden. Aber das ist natürlich ein Riesenmolloch. Und den Fall, den ich gerade ansprach, dass das jemand ganz persönlich wahrgenommen hat, dass sich das alles ein bisschen verdunkelt bei ihm, die Themen, nennen wir es mal so. Und dass er da Dinge gesehen hat, wo er einen Angedrohten, ne? Also ich sag mal, so einen ganz schlimmen Fall auch sich anwahren hat sehen.
00:18:58
Speaker
und dem sogar nachgegangen ist und so, das ist es. Und TikTok zieht sich da aus der Verantwortung und Co, das ist schon wild. Ja. Und es ist, wie du sagst, wenn mich Leute fragen, ich war noch zum Beispiel noch nie auf TikTok, oder du ja auch, und dann fangen die damit an und sagen, ja, ich sehe nur tanzende Kinder. Dann sag ich ja zum Beispiel auch immer ganz bewusst, du musst den Algorithmus erstmal ein bisschen füttern mit deinen Interessen. Das heißt, such dir mal Themen in der Suchleiste, damit du das dann auch ausgespielt kriegst.
00:19:25
Speaker
Der Algorithmus von meinem Partner zum Beispiel, der zeigt ganz, ganz andere Dinge, von meiner Mutter ganz, ganz andere Dinge an. Und ihr müsst ihm Futter geben, damit er für euch passt. Aber die Frage ist ja natürlich auch, ja, am Ende ist das wirklich das, was wir alle wollen. Ja, es kommt ja nur raus, was du reintust. Das ist es ja am Ende. Und da ist dann wirklich, da muss man dann wieder sagen, der Algorithmus ist nicht schlau genug, glaube ich. So kann man das vielleicht formulieren. Er ist nicht gut. Er ist nicht…
00:19:48
Speaker
Ist nicht schlau genug, um zu erkennen, was gesund ist. Also das heißt, der ballert einfach raus. It never stops, so ein bisschen. Wenn du was Schlechtes suchst, kriegst du auch was Schlechtes.
00:20:03
Speaker
Das war jetzt unser Beispiel aus der Social-Welt. Aber wir haben ja am Anfang schon festgestellt, Algorithmen sind ja überall. Du kochst Kaffee, du gehst auf Toilette, das ist auch ein Algorithmus für dich. Du fährst Auto, alles, was man in immer wieder gleichen Handlungsabfolgen macht.
00:20:26
Speaker
Die begegnen uns also komplett im Alltag und das ist ganz normal heute. Was heißt heute? Es ist ja schon immer normal, dass Algorithmen um uns herum sind. Man muss erst mal erkennen, was dieses Wort bedeutet. Aber es gibt noch eine andere.
00:20:41
Speaker
einen anderen digitalen Algorithmus im Alltagsgebrauch, auf den ich eingehen möchte, der aber einen ganz anderen Bereich toucht. Und dazu habe ich gerade, und deswegen bin ich, du hast am Anfang gesagt, ich bin da irgendwie drin gerade in dem Thema. Ich habe nämlich ein sehr interessantes Buch gelesen.

Cathy O'Neil: Algorithmen und Ungleichheit

00:20:58
Speaker
Und das möchte ich hier an der Stelle mal ein bisschen promoten und wollte da ein Beispiel rausbringen, was jetzt in eine ganz andere Richtung geht.
00:21:05
Speaker
Und dieses Buch heißt Weapons of Math Destruction, also Math wie Mathematik. Und das ist von einer Mathematikerin aus den USA, die heißt Kathy O'Neill. Und die hat dieses Buch geschrieben, es hat den Untertitel How Big Data Increases Inequality and Threatens Democracy.
00:21:26
Speaker
Das ist natürlich schon ziemlich hart, aber da sehen wir an der Stelle auch, dass man das auch weitertreiben kann, dass es da sehr radikale Meinungen gibt, dass das nicht gerade förderlich ist. Algorithmen in den Händen von großen Tech-Companies im Allgemeinen. Und in dem Buch, was ich euch sehr ans Herz lege, weil es einfach superspannend ist, da gibt's ein Beispiel, das jetzt in eine ganz andere Richtung geht, aber das hab ich extra rausgepickt.
00:21:55
Speaker
Und da geht es um Algorithmen, die Alltagsrassismus und Polizeigewalt fördern. Jetzt trifft man immer ganz ab in eine ganz andere Sparte. Und ich mache das auch ganz kurz. Ich will jetzt nicht super tief einsteigen, sondern ich möchte einfach mal erzählen, was die gute Cassie in dem Buch dazu schreibt. Und zwar geht es darum, dass Polizeibehörden in den USA
00:22:21
Speaker
sicherlich auch hier bei uns, aber das Beispiel spielt eben da. Seit Jahren schon Programme benutzen, um zum Beispiel, um ihren Dienst zu optimieren und Effizienz zu steigern. Das kennen wir auch aus unseren Jobs. Und die machen das aber zum Beispiel, indem sie Computerprogramme vorgeben lassen, wo Patrouillenrouten
00:22:42
Speaker
für jetzt so Patrol-Cars in Städten gemacht werden. Auf so einer Karte quasi, also Brennpunktgebiete, wo sie denn hinfahren. Genau, du sagst das schon genau richtig, in der Brennpunktgebiete, also du hast da eine Karte in diesem Polizeicomputer und der Computer sagt dann, wir haben jetzt mal um effektiv, effizient die ganze Stadt irgendwie
00:23:02
Speaker
patrouillieren zu können, macht der Computer, gibt dir die Wege vor, um natürlich auch irgendwie, was weiß ich, so Sachen wie Spritsparen im Auto oder sowas. Die machen also das effizienteste Modell, entwirft dir einen Computer. Nun geht es aber nicht nur um Spritsparen, sondern es geht ja auch darum, wo passiert in unserer Stadt der meiste Crime. Und danach werden diese Routen natürlich auch ausgewählt, gutmaßlich. Und das ist nun so,
00:23:28
Speaker
Da gab es auch Studien zu, die sie in dem Buch dann zitiert, dass, ich weiß jetzt gar nicht mehr genau, welche Stadt es war, es können Seattle gewesen sein in den USA, in der ein
00:23:39
Speaker
in der dieses spezielle Beispiel, was die sich rausgepickt hat, gespielt hat. Und da geht's darum, wo passiert denn der meiste Crime? Also, wo müssen wir denn jetzt unsere Wagen hinschicken? Und da gibt es dann natürlich irgendwie gewisse Stadtbezirke, wo zum Beispiel oft, also wo die Polizei schon weiß, da passieren irgendwie öfter mal Einbrüche oder irgendwelche kleinen kriminellen Sachen. Da gibt's irgendwie Drogenhandel und so was. Fahrradklau. Fahrraddiebstahl, whatever.
00:24:08
Speaker
Und dann fahren die dahin. Aber ... ... wenn du erst mal ... ... am Anfang kannst du dir vorstellen, ... ... ist diese Map von der Stadt ... ... ist natürlich relativ gleich verteilt. Sagen wir mal, ... ... es ist ganz fair verteilt, ... ... erst mal patrouillieren die überall. Dann gibt es natürlich Stadtgebiete, ... ... wo dann ein, zwei Mal was auffällig wird, ... ... weil da irgendwie der Drogenhandel stattfindet und so. Und natürlich ist dann ... ... der richtige Schluss auch von diesem Programm. Da patrouillieren wir jetzt mal ein bisschen mehr.
00:24:36
Speaker
Da gucken wir öfter mal, weil da ist es auffällig geworden und da gibt es bestimmt ganz viel Verbrechen. Das stimmt ja auch, da ist ein-, zweimal Verbrechen gemacht worden. Aber das ist eine Schleife, die sich dann irgendwann immer wiederholt. Und so bilden sich in den USA, und das konnte da bewiesen werden, diese Brennpunkte heraus. Weil, wenn dieser Algorithmus einmal in einem bestimmten Stadtgebiet halt eine erhöhte Verbrechensrate feststellt,
00:25:05
Speaker
Dann werden mehr Autos dahingeschickt, da ist mehr Polizeipräsenz. Siehst auch mehr. Genau, und dann hast du, das nennt man in diesem Forschungsgebiet den Negative Feedback Loop. Dann hast du nämlich, dann steigert sich das immer weiter. Dann werden da das nächste Mal statt zwei vier Autos dahingeschickt. Wenn da vier Autos sind, hast du mehr Leute, die da mehr sehen. Das heißt, die werden mit hoher Wahrscheinlichkeit auch mehr Verbrechen finden.
00:25:32
Speaker
Das wird dann wieder in den Computer zurückgespielt und dann sieht der Computer, aha, da gibt's ja noch viel mehr. Dann werden dann nächstes Mal acht Autos hingeschickt und so weiter und so weiter. Müssen wir jetzt nicht so lang machen. Auf jeden Fall fördert das ganz stark solche Sachen wie das Filzen von unbeteiligten Personen und Vorurteile dadurch. Und wo sind natürlich diese Stadtgebiete? Da wohnen hauptsächlich Minorities in den US-amerikanischen Städten.
00:25:57
Speaker
Und in diesen Stadtgebieten ist es dann irgendwann nach Jahren von diesen Computermodellen spitzt sich das so zu, dass in diesen Stadtgebieten dann die allerhöchste Polizeipräsenz mit Abstand ist und dass alle Leute auf einmal in diesem Stadtgebiet verdächtig werden.
00:26:12
Speaker
Obwohl sie ja wahrscheinlich mit hoher Wahrscheinlichkeit gar keine Verbrechen begehen. Aber es ist auf einmal ein unbegründetes Durchsuchen von Menschen findet dann statt. Die haben natürlich meistens dann auch noch irgendwie eine andere Hautfarbe. Und das ist dann einfach dieser negative Feedback Loop, der diesen Altersrassismus fördert und der irgendwann dann auch zu diesem
00:26:35
Speaker
Bild in der Gesamtgesellschaft beiträgt, das dann, also das fördert dann den Rassismus und sagt ja, Minorities sind ja irgendwie immer die Verbrecher und deswegen ist das, das sieht man hier ja, weil in diesem Stadtgebiet, da muss ja die ganze Polizei sein und da findet man ja ständig Verbrecher. Ja klar, die findet man da, weil die Polizei da halt am stärksten präsent ist und irgendwo in den
00:26:58
Speaker
Sie hat ganz gut gesagt, die Leute kommen in diesen Stadtgebieten dann nicht mehr mit diesen, mit den petty crimes, also mit diesen kleinen, mit diesen Gelegenheitscrimes weg. Ja, Delikten oder wie heißt das? Ja, genau. Delikten, genau. Kavaliersdelikten, naja, du weißt was, ich weiß, was du meinst, ja. Genau, mit diesen Kavaliersdelikten, die auf jeden Fall auch in, sie bezieht das natürlich auf die USA und da sind dann diese
00:27:20
Speaker
Diese racial differences werden immer hervorgehoben, aber die auf jeden Fall auch in überwiegend weißen Stadtteilen genauso stattfinden. Statistisch gesehen werden die da genauso stattfinden. Die klärt man da aber nicht auf, weil da einfach nicht so viel Polizeipräsenz ist. Das heißt, du hast starke Vorurteile, die dann auch immer noch bestätigt werden und bestätigt werden.
00:27:42
Speaker
Das trägt sich dann in die Gesellschaft hoch und das ist dieses Beispiel von Algorithmen, die diesen negativen Feedback Loop natürlich erzeugen und zu einem gesellschaftlichen Problem werden. Das ist schon ganz schön krass.
00:27:56
Speaker
Habe ich jetzt ganz schön lange erklärt, das war wieder richtig heftiger Rant. Wir haben den Fall jetzt mal wirklich ganz klar einmal aufgezeigt. War das für dich verständlich? Ja, voll. Ich habe parallel auch schon gedacht, es gibt ja ganz viele andere Fälle, wo Algorithmen oder ja, das haben wir ja jetzt gerade auch ganz viel bei der KI-Diskussion, die KI ist bias, die KI ist natürlich nur so gut wie die Leute, die sie quasi auch mit Daten füttern, die

Voreingenommenheit in Einstellungsalgorithmen

00:28:24
Speaker
sie trainiert haben.
00:28:24
Speaker
Und das ist bei Algorithmen genau das Gleiche, also es ist menschel, das setzt da jemand auf und da willst du wahrscheinlich auch noch hin heute. Aber das fällt mir an der Stelle auch schon ein, dass, ne, also irgendjemand bespeist die Information und das kann man auch zum Beispiel auf den Bewerberkontext, Bewerberinnenkontext übertragen,
00:28:42
Speaker
natürlich People Analytics, People Data, auf Daten zurückgreifen zum Beispiel, wir suchen für die und die Rolle ein Profil, das so und so aussehen müsste wahrscheinlich von den Fähigkeiten und Co. Und da gibt es auch schon Erfahrungen, dass die sagen, okay, wir haben die Daten, auf die wir das jetzt ausmachen, dass zum Beispiel die vorherigen Führungskräfte
00:29:05
Speaker
waren zum Beispiel male, mit 40, hatten den und den background, university, job experience, und so. Das sind die facts, die wir haben. Und danach filtern wir die Bewerbungen aus, dass du da natürlich auch natürlich krass viele biases reingibst. Ja, weil es war in der Vergangenheit immer so jemand. Dann filterst du alle U25 Leute raus oder U50. Also Algorithmen sind nur so gut, wie sie trainiert worden sind und im Zweifel sind die voller biases.
00:29:35
Speaker
Ja, genau dieses Beispiel, was du gerade genannt hast, ist übrigens ein anderes Thema auch in ihrem Buch, deswegen holt euch mal, guckt euch dieses Buch mal ein bisschen genauer an, ich werde es auch nochmal verlinken, Weapons of Mad Destruction, super interessant, da geht es um ganz verschiedene Themen. Ach, super spannend, ich habe gestern nämlich einmal ganz kurz mir so einen 5-Minuten-Teaser angeguckt, um grob zu wissen, okay, da geht es in die Richtung nicht, ich habe das Buch selber nicht gelesen, es gibt, glaube ich, auch einen YouTube
00:29:59
Speaker
Video, wo sie, glaube ich, über das Buch spricht, so mit Google Talk oder so was, also vielleicht auch das, wer lieber Bewegtbild mag, sie spricht da auch auf YouTube sehr viel, auf jeden Fall coole Frau und die sollte es wissen. Ja. Die war drin. Ja, super interessant und deswegen irgendwie guckt euch das mal an, wenn ihr mehr über das Thema Algorithmen im Alltag und wo die uns überall berühren und wie die uns beeinflussen und welche Chancen sie bringen und aber wie sie uns auch schädigen können, wenn ihr darüber mehr wissen wollt.
00:30:30
Speaker
Ich glaube, das ist auch, ja, wollen wir mal so ein bisschen Fazit ziehen und so gucken, was sind Algorithmen, was machen die?

Nutzen und Gefahren von Algorithmen

00:30:40
Speaker
Ich habe mir so ein bisschen als Stichpunkt aufgeschrieben, also digitale, wir sprechen ja über digitale Algorithmen jetzt hier, nicht über das Kaffee kochen, was wir jetzt einfach machen.
00:30:51
Speaker
sehr nützlich sein, wenn die unserem Hobby jetzt irgendwie dienen, wenn die uns was ausspielen, was uns wirklich was bringt im Leben, wenn die unseren Job fördern, wenn die uns Sachen zeigen, die wir sonst vielleicht übersehen hätten, wenn die uns Inspiration liefern für unseren Beruf, für unsere Tätigkeiten, für unsere Hobbys, ist das sehr cool und die sind total nützlich, sorgen dafür, dass wir
00:31:13
Speaker
Ja größere Netzwerke aufbauen, dass wir unsere Skills verbessern und dass wir vielleicht irgendwo bessere Menschen werden. Gehen wir jetzt mal ins Extrem. Kann aber auch dazu führen, was wir gerade schon ein bisschen analysiert haben.
00:31:26
Speaker
dass es diese Negative Feedback Loops gibt. Und gerade das Beispiel mit dem gestörten Essverhalten aus der Studie von TikTok ist ja genau so was auch. Das ist ja auch ein Negative Feedback Loop. Nichts anderes ist das ja, wenn dir das dann angezeigt wird, weil du das als Interessenbereich angibst und dann der Algo denkt irgendwie, jo, das ist ja interessant, hier kann ich Kohle machen, da kann ich demnächst mal Produkte verkaufen, gehen wir da mal rein.
00:31:50
Speaker
Deswegen ist das, glaube ich, einfach ein zweischneidiges Schwert, so ein digitaler Algorithmus, der von einer Company geschrieben wurde, die ja auch ihre eigenen Gesetze da machen kann und ihre eigenen Regeln. Und ich glaube, wir brauchen einfach insgesamt eine größere Transparenz.

Transparenz und Regulierung von Algorithmen

00:32:09
Speaker
was die Algorithmen angeht. Also das heißt, wir müssen wissen, wie funktioniert euer Regelbuch denn da, was wir machen, denn nichts anderes ist so ein Algorithmus. Das ist ja wie so ein Ravensberger Spiel, wo du am Anfang irgendwie eine Ecke aufmachst und dann liegt da aber keine Spielanleitung drin, sondern du musst einfach mal los spielen und gucken wie und das Spiel über Zeit lernen.
00:32:30
Speaker
Jaja. Und wir müssen einfach mehr Transparenz und auch eine Regulierung haben. Also es muss meiner Meinung nach auch irgendwie Institutionen geben, die sich das angucken. Natürlich wird das schon gemacht. Irgendwo die EU, das hört man ja immer wieder, die greift da ein und möchte, dass dieses Software jetzt nicht mehr das und das macht.
00:32:50
Speaker
Es kann aber noch sehr viel stärker passieren und ich glaube auch ehrlich gesagt nicht, dass da das Hauptaugenmerk schon drauf liegt und dass sich da richtig darum gekümmert wird. Sonst hätten wir solche Probleme nicht, die in der Studie beschrieben werden. Aber da geht es natürlich auch darum, dass das ein Algorithmus ist, der auf der ganzen Welt funktioniert.
00:33:12
Speaker
und den wir vielleicht hier in unserem Land beeinflussen können, aber diese Big Data Konzerne, die reden sich ja schon immer irgendwie raus und die sagen, es funktioniert weltweit und diese Funktion, die können wir halt nicht abstellen, das ist in unserer DNA ein bisschen.
00:33:29
Speaker
Das ist der Business Case. Das muss man glaube ich einfach verstehen. Am Ende ist der Motivator monetär bei den Unternehmen. Das sind wirtschaftliche Unternehmen. Da geht es jetzt nicht darum, dass wir alle eine gute Zeit haben und gesund bleiben, weil das ist jetzt zum Beispiel nicht das Ziel der Unterhaltungsbranche.
00:33:44
Speaker
auch nicht der Gaming-Branche, das ist nicht deren Ziel, sondern deren Ziel ist, Entertainment zu

Selbstdisziplin und digitaler Detox

00:33:50
Speaker
verbreiten. Und ich glaube, was den Muskel, den Skill, den wir trainieren müssen, vor allem auch junge Leute, ist so diese Selbstdisziplin und die Reflektion, weil du kennst halt deine Grenzen noch nicht so gut, ob dir das jetzt gut tut. Und da geht es auch um das Thema Süchte.
00:34:05
Speaker
Und das ist glaube ich was, letzte Woche haben wir darüber gesprochen, wir müssen uns selber auch zwingen, auf uns aufzupassen, das wird niemand anders tun. Und gerade in diesem digitalen Kontext ist das nochmal mehr so, weil da sind so viele Verlockungen. Algorithmen wollen eben, dass wir dort Zeit verbringen, dass wir konsumieren, dass wir dranbleiben.
00:34:22
Speaker
Und das ist natürlich alles nicht gut für uns, gesundheitlich, finanziell, sozial gesehen. Und deswegen dieses Thema, also Bildschirm, wir können ein paar Lösungen aufzeigen, Notifications ausstellen, Bildschirmzeit für sich tracken und regulieren, auch ganz bewusst mal Apps löschen, sei es TikTok, LinkedIn und Co.
00:34:45
Speaker
Das müssen wir einfach machen, weil sonst werden wir verrückt und wir müssen uns diesem ganzen System auch mal bewusst entziehen, weil auch das System wird sich vor uns nicht zurückziehen. Das wird es nicht tun. Nee, nee, nee, das wird ja immer nur noch mehr. Also macht mal Digital Detox, legt mal am Wochenende das Handy weg, versucht es mal vielleicht damit. Machst du das? Ist das bei dir ein Ding?
00:35:08
Speaker
Ja, ich muss es mehr machen und ich weiß, wenn ich das mal gemacht habe, auch eine App gelöscht habe, das war immer gut danach. Ich weiß danach, das war immer krass, gut und hilfreich. Und ich merke das ja auch selber, auch vielleicht im Umfeld, im Freundesbekanntenkreis, in einer Partnerschaft, ich weiß nicht, wie es dir geht, man eckt da schon auch mal ein aneinander, wenn man den anderen auch darauf hinweist, von wegen, du pass auf, jetzt leg mal das Handy weg. Weil diese Süchte schon so krass da sind und da kann man gar keinen zum Vorwurf machen.
00:35:35
Speaker
Das ist so krass. Ich bringe noch ein Beispiel. Ich weiß, wir sind ein bisschen über der Zeit, aber ich finde es wichtig und wertvoll, wenn mich das ganz beschäftigt hat im Bereich Gaming und auch generell dann Bildschirmzeit. Ich glaube TikTok zahlt auf das gleiche ein. Du verbringst zum Beispiel sehr viel Zeit dann auf diesem Tool und dann bist du vielleicht ein Teenager, Teenagerin und bist halt einfach hooked in diesem System, was von sehr cleveren, studierten Leuten aufgesetzt worden ist.
00:36:01
Speaker
Da sind, ich habe mal einen Artikel gelesen vor Jahren, da sitzt der MIT-Student, Absolvent, sitzt da dran, diese Algorithmen zu bauen zum Beispiel, auch im Gaming, um dass du dieses Spielerlebnis immer weiter fortsetzen möchtest. Und auf der anderen Seite der Tür steht eine erziehende Person, die möchte, dass der Jugendliche, die Jugendliche damit aufhört,
00:36:21
Speaker
Und das ist natürlich ein Machtverhältnis, was jenseits von gut und böse ist. Weil wie sollst du als erziehende Person dagegen ankämpfen? Du kannst sagen, ich mach den Strom aus oder du kriegst heute kein Essen oder du kriegst kein Taschengeld. Aber auf der anderen Seite hast du es mit einem riesengroßen Endgegner zu tun, der einfach da will, dass das Kind Zeit verbringt. Und das ist so ein bisschen das, was ich mir auch immer wieder vorstelle. Ich spiele auch gegen einen riesengroßen, intelligenten Haufen, der diesen Algorithmus programmiert hat. Und eigentlich bin ich schwach.
00:36:49
Speaker
Das Einzige, was funktioniert, Feedback von außen und Selbstdisziplin. Und dann kann man ja damit umgehen. Dann kann man sich ja auch mal berieseln lassen und inspirieren, wie du sagst. Aber wir müssen immer wieder wissen, ey Leute, auf der Gegenseite steht eine ganz krasse Power. Ja. Ich glaube, das ist ein gutes Schlusswort.
00:37:10
Speaker
Ja, wollte ich kurz loswerden. Das bewegt mich. Das finde ich sehr gut. Ja, dann lasst uns an dieser Stelle, lasst uns hoffen, dass wir das alle schaffen. Ja. Dass wir ein bisschen weniger damit strugglen, dass wir diesen Endgegner irgendwann besiegen können, obwohl er natürlich immer größer wird. Das ist jetzt wahrscheinlich eher so eine romantische Vorstellung, aber bleibt irgendwie, bleibt skeptisch dort draußen, würde ich mal sagen. Freut mich. Skeptisch. Holt euch neue, ja,
00:37:40
Speaker
Lest euch ein in Mittel und Wege, wie ihr da vielleicht rauskommt aus dieser Falle, auch wenn ihr merkt, das hat mich jetzt irgendwie aufgerüttelt und ich fühle mich da sehr angesprochen und ich möchte jetzt, möchte gucken, dass ich das vielleicht ein bisschen weniger mache. Und ja.
00:37:55
Speaker
Seht zu, dass es eurer Mental gut tut, was ihr macht. Und wenn euer Partner, eure Partnerin, eure Familie mal wieder sagt, hey, leg doch mal das Handy weg, vielleicht auch wirklich drauf hören, die meinen es nur gut. Ja. Wochenende wir beide mal ein bisschen Digitality Talks auf jeden Fall auch. Genau. Sollte gar nicht so schwer werden, sondern eigentlich auch wieder nur eine Einladung, wie du sagst, zum Neurigig sein, zum Hinterfragen und freuen uns da auf eure Comments auch. Stellen wir hier eine hübsche Frage, die wir uns noch überlegen für euch? Immer, jaja.
00:38:25
Speaker
Genau, ja. Danke fürs Zuhören. Wir entlasten euch jetzt mal ins Wochenende. Wenn ihr das direkt am Freitag hört, wünscht euch eine schöne Woche und hören uns hoffentlich auch bei der nächsten Folge.