Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#15 Chat GPT - der Endgegner für Bildungssystem und Gesellschaft? Deeptalk mit Konstantin Lackner image

#15 Chat GPT - der Endgegner für Bildungssystem und Gesellschaft? Deeptalk mit Konstantin Lackner

S1 E15 · Mic Rider Deep Talk
Avatar
63 Plays1 month ago

Generative KI wird unser Leben fundamental verändern! *gähn*  

Sorry für den Sam Altman Kalenderspruch, aber was wenn man ihn ernst  nimmt?  

Dieser Frage widme ich mich in der heutigen Folge zusammen mit  Konstantin Lackner. Konstantin ist Informatiker mit Schwerpunkt KI im  soziologischen Kontext. Er unterrichtet auch in diesem Bereich und setzt  sich viel mit der Entwicklungsgeschichte dieser Technologie auseinander  - wen könnte es also besseres geben für ein "KI - was bisher geschah". 

Wir haben uns auch mit der Frage beschäftigt: "was macht KI mit unserem  Bildungswesen?" Kooperatives Lernen findet immer weniger statt und was  bedeutet es für unser schulisches und universitäres Prüfungssystem wenn  man sich Antworten und ganze Aufsätze auf Knopfdruck generieren lassen  kann?  

Und falls euch das noch nicht dystopisch genug ist, haben wir uns die  perfiden Auswirkungen von AI Buddies auf  unser Liebes- und Sozialleben  angeschaut.  

Lasst mich gerne wissen, was ihr zu dem Thema denkt:  

Nachrichten an: deeptalk@mic-rider.com  

Website: https://www.mic-rider.com/  

Host und Redaktion: Patrick Messe (https://www.patrickmesse.at/)  

Zu Gast: Konstantin Lackner (https://konstantinlackner.at/) 


Bild: Charly Glawischnig (https://www.charlyglawischnig.com/)

Ton:  Lukas Wurm (https://lukaswurm.com/)

Recommended
Transcript

Einleitung und Begrüßung

00:00:01
Speaker
Mike Rider Deep Talk. Menschen, Business, Diskussionen. Der Mike Rider Podcast. Hallo und herzlich willkommen zu einer neuen Folge Mike Rider Deep

Vorstellung von Konstantin Lackner

00:00:14
Speaker
Talk. Heute bei mir im Studio zu Gast ist Konstantin Lackner. Hallo Konstantin.
00:00:19
Speaker
Für alle, die dich noch nicht kennen, wir kennen uns.

Hintergrund und akademischer Weg von Konstantin

00:00:22
Speaker
Du bist Informatiker mit Schwerpunkt KI im soziologischen Kontext. Ist das ungefähr, trifft das das? Das passt ziemlich gut, ja. Kannst du es ein bisschen erklären? Also ich glaube am sinnvollsten ist es, das herzuleiten. Ich habe angefangen den Bachelor an der TU ursprünglich, habe dort gemacht Medieninformatik, das ist die
00:00:42
Speaker
Befassung einfach mit allem, was in Richtung Medientechnik geht. Das ist von Grafik bis hin zu tatsächlich dann Kunst ein bisschen auch. Und bin dann in die technische Sparte ein bisschen gegangen mit der ersten, meiner ersten Bachelorarbeit. Ich habe zwei gemacht. Dann war in Richtung Flüssigkeitssimulationen sowas, also sehr noch technisch und Coden. Und dann irgendwann bin ich drauf gekommen, okay, das ist gar nicht so spannend. Mich interessiert eher die soziologische Richtung. Hab dann noch eine zweite Bachelorarbeit geschrieben zum Thema Informatiklehre.
00:01:12
Speaker
und hab dort auch schon mitgearbeitet bei einer kleinen Bibliothek, die jetzt benutzt wird bei der TU. Eine Library, also eine Code Library, die benutzt wird für die Lehre. Bin dann im Master zur HCI gekommen, das ist die Human-Computer-Interaction-Group. Das ist im Endeffekt die soziologische Sparte der Informatik an der TU.

DECALL-Projekt und AI in der Bildung

00:01:31
Speaker
Und bin dort dann irgendwann inmitten des Masters reingerutscht in ein Projekt, das heißt DECALL. Das ist die Digitalisierungsoffensive der TU.
00:01:41
Speaker
Das machen sie jedes Jahr, dass sie versuchen, sich an neue Technologien anzupassen und schauen, wie kann man das besser machen. In diesem Fall war es JGTB und generell Large Language Models. Und es war halt die Frage da, wie können wir die Lehre in Zeiten von JGTB so anpassen, dass sie noch das Wert ist, mehr oder weniger. Da bin ich reingerutscht ein bisschen dadurch, dass ich Kontakt mit den ProfessorInnen hatte.
00:02:07
Speaker
Ich habe dann daraus auch in weiterer Folge eine Diplomarbeit gemacht und das ist jetzt auch das Thema. Die Diplomarbeit, glaube ich, ist betitelt High Education in Times of LGBT ist der volle Titel. Das heißt, es ging wirklich darum, wie kann man Lehren noch sinnvoll machen in diesen Zeiten.
00:02:24
Speaker
Über das bin ich dann im Weiteren in ein Doktorat gelandet, wo ich jetzt auch gerade bin, an der Paris-Lothron-Universität Salzburg. Das ist die Salzburger Uni, die unter anderem eine Sparte, also ein Projekt jetzt, das Xdigit heißt und dort bin ich jetzt.
00:02:42
Speaker
Also kurz zum Kontext, die TU ist die Technische Universität Wien für alle, für unsere Internationalen. Ja, ich habe bei unseren Analysen nämlich schon gesehen, dass wir auch einen Stream in Indonesien hatten. Herzlichen Dank an meine Kontakte von vor zehn Jahren, als ich mal in Indonesien war. Aber oder auch in Amerika oder so. Also weiter weg wird es auch vereinzelt gehört. Und TU Wien. Genau. Und aber lass uns vielleicht noch mal kurz ein bisschen Einblick
00:03:10
Speaker
in die Doktorarbeit, wo du da jetzt hingehst. Genau, ja. Der Indonesian Stream ist der eine, der vergessen hat, den VPN auszuschalten. Die Doktorarbeit geht jetzt in Richtung KI und vor allem in Richtung soziologische Zusammenhänge mit KI. Sprich, wie beeinflussen solche Systeme
00:03:32
Speaker
Und was können wir machen, um die Gefahren, die wir da jetzt haben, ein bisschen zu umgehen? Wie können wir damit

Herausforderungen durch AI im Bildungssystem

00:03:39
Speaker
umgehen? Es ist auch ganz viel eine Grundsatzfrage, weil dieses Thema doch relativ neu ist, auch wenn es historisch schon oft gab. Aber die neue Technologie, die da ist, ist relativ wenig erforscht, was die soziologischen Einflüsse angeht. Und das ist jetzt ein bisschen die Sparte, in die ich gehe.
00:03:58
Speaker
Ja, total spannend. Ich würde gerne zuerst noch vorher einen Schritt zurückgehen, weil du eigentlich so einen Nebensatz, was total elementar Wichtiges erwähnt hast, nämlich wie kann man KI im universitären Bildungskontext einordnen und wie verändert das die Lehre? Das ist ja eigentlich eine der großen Fragen unserer Zeit. Wie empfindest du das oder was kannst du dazu sagen,
00:04:27
Speaker
Wie destruktiv ist das für unser Hochschulsystem oder allgemein für unser Bildungssystem? Ich glaube, das musst du aufteilen in mehrere Punkte. Ich würde sagen in drei Punkte im Großen und Ganzen. Das Erste ist, dass natürlich die Benotung, die Überprüfung von Kompetenzen
00:04:43
Speaker
sehr, sehr zerstört wurde. Also das Klassische, das sei jetzt von der Technischen Uni aus gesehen, selbst die Aufgaben, wo man jetzt was programmieren müsste oder ein Projekt macht, sind nicht mehr wirklich gute Maßnahmen, um zu überprüfen, was Studierende können. Ich kann jetzt nicht mehr einfach nur noch den Code anschauen und sagen, das schaut halbwegs

AI und traditionelle Bildungspraktiken

00:05:01
Speaker
sauber aus, das macht Sinn.
00:05:02
Speaker
Das geht nicht. Das kann ich einfach generieren lassen, das ist eine Frage von ein paar Sekunden. Weil ich auf CETCPT schon so gut prompten kann, dass ich sagen kann, schreib mir den Code und dann mach ich Copy-Pasta und fertig? Ja, es ist fast schlimmer noch. Wir haben uns jahrelang damit beschäftigt, dass wir Aufgaben so stellen, dass Studierende sie sofort verstehen, dass sie klar sind. Das ist witzig, das hab ich in meinem Bachelor damals noch tutoriert, in der ersten Veranstaltung für Programmier.
00:05:32
Speaker
Neulinge. Und dort ging es sehr viel darum, wie wir Aufgaben so stellen, dass sie verständlich sind. Dass die Leute einerseits kapieren, was sie tun müssen, aber andererseits auch verstehen, warum das gerade wichtig ist, was sie da tun. Und das führt dazu, dass wir unsere Angaben so gut geschrieben haben mittlerweile, dass man die nehmen kann, in JGPD reinpasten kann. Also du musst nicht mehr selbst tippen. Du machst Steuerung C von unserer Angabe, Steuerung V in JGPD, dann nochmal Steuerung C, Steuerung V und hast die Antwort da.
00:05:56
Speaker
Das heißt, du kannst es wirklich reinwerfen als Aufgabe, die wir stellen und bekommst zurück den perfekten fertigen Code. Kommentiert auch noch. Das heißt, wenn du jetzt einen Lehrenden hast, der da steht und dich fragen würde, wie sind sie dazu gekommen, was ist das, erklär uns das.
00:06:13
Speaker
hast du eh die Kommentare von JGPD dort stehen und wenn du die halbwegs überzeugend vorlesen kannst und sagen kannst, ich habe mir da gedacht, diese Art der Schleife ist sinnvoll, weil XYZ da steht eh daneben, dann war's das. Und das ist unser Bewertungs-Schema gewesen für lange Zeit und das geht nicht mehr.
00:06:29
Speaker
Und das Gleiche finden wir in den soziologischen Themen. Es gibt an der Technischen Universität Wien auch Fächer, die sich mit der Soziologie des Ganzen beschäftigen, auch mit dem Einfluss der Informatik beschäftigen. Und die haben jahrelang darauf gebaut, dass man Reflektionen hat. Dass man liest einen Text oder man hat einen Vortrag und dann fragen dich die Lehrpersonen danach, gut, was
00:06:52
Speaker
Stellst du dir jetzt vor darunter, was hast du mitgenommen? Und es ging eigentlich hauptsächlich darum zu zeigen, dass man sich damit beschäftigt hat natürlich, wie bei solchen Aufgaben immer. In Textform. Das kann man jetzt auch schmeißen, weil du nimmst die Überschrift von dem Thema, wenn überhaupt. Du kannst auch die Folien nehmen, gibst die in JetGPT rein. Es gibt bei JetGPT aktuell ein Plugin, wo man PowerPoint-Präsentationen hochladen kann.
00:07:15
Speaker
Oh wow, das wusste ich gar nicht. Ja, es gibt diverse Sachen. Ich weiß auch gar nicht, ob das noch aktuell ist. Das war vor ein paar Monaten, als ich das letzte Mal benutzt habe. Aber es gibt auf jeden Fall mehr als genug Systeme, die sowas machen. Aha, du hast das also auch benutzt. Natürlich. Es wäre auch dumm, es gar nicht zu benutzen. Es ist sicher sinnvoll. Ich kann es jetzt eh zugeben, es ist eh schon wurscht. Einen Abschluss habe ich ja schon.
00:07:41
Speaker
Ich habe auch in so Folienzusammenfassungen von ProfessorInnen durchaus oft so Software drüber laufen lassen, um das kürzer zu machen. Also wenn da jetzt ein Foliensatz ist, der 300 Seiten hat, das lese ich nicht durch. In der Zeit, wo ich das durchlese, kann mir Judge GPT das 17 Mal zusammenfassen und kriegt daraus Stichpunkte. Und das ist in Wahrheit total dumm, was ich damit mache. Das ist mir bewusst auch. Aber dadurch, dass unser System
00:08:06
Speaker
so funktioniert, wie es funktioniert, und dadurch, dass du halt sehr viele Vorlesungen hast, bist du verleitet dazu, dass du das machst. Also der schiere Mengendruck drängt dich fast schon in die Richtung, dass du dir anders nicht mehr zu helfen weißt, oder? Ja, weil aber auch ich das Gefühl hatte, dass gerade im späteren Semestern dann im Master es oft dazu gekommen ist, dass die Lehrenden gerade weil sie wussten, ok, da ist jetzt diese Problematik mit zum Beispiel CHPT und Co.
00:08:35
Speaker
das noch ein bisschen übertreiben und noch mehr Stoff und noch mehr Information reingeben, was natürlich im Endeffekt dazu führt, dass du dann selbst ja noch mehr abschaltest und das noch mehr übernehmen lässt. Aber was ich eigentlich hinauswollt, ist,

Begrenzungen von AI in Mathematik

00:08:49
Speaker
dass diese Form von Bewertung einfach nicht mehr funktioniert. Also die textbasierten Bewertungsmethoden sind halt leider dahin. Ähnlich ist es in der Mathematik, da ist es noch ein bisschen besser, weil
00:09:01
Speaker
zum Beispiel und andere Systeme ja berühmtermaßen schlecht sind in mathematischen Aufgaben. Also, weiß nicht, wenn ich jetzt einen Satz reinschreibe und sage, zähl mir, wie viele Großbuchstaben da drin sind, keine Chance. Das wusste ich auch nicht, dass so Basic-Sachen eigentlich...
00:09:16
Speaker
Das liegt ein bisschen an der Funktionsweise. Ich glaube darauf kommen wir später noch zu sprechen. Lass uns da später noch genauer drauf eingehen, stimmt natürlich. Nein, kein Problem. Aber es ist auch wieder, um jetzt über Plugins zu reden, ein Wolfram-Alpha-Plugin da zur JetJPT. Das ist dieses Mathematiksystem, das alle technischen Studierenden lieben gelernt haben, spätestens im zweiten Semester.
00:09:37
Speaker
Das ist das, was dir herleitet, warum irgendwelche Beweise zum Beispiel so sind, wie sie sind. Also es kann nicht nur, wenn ich so eine Formel habe, die ausrechnen und sagt dir eine Zahl, sondern sagt dir auch die Schritte für einen Beweis oder die Herleitung dazu. Okay. Und super Tool. Wie heißt das nochmal für alle?
00:09:53
Speaker
Wolfram Alphorn. Mittlerweile gibt es auch ein JGT-Plugin dazu. Ich will jetzt aber auch gar nicht bewerben,

Persönliche Studienerfahrungen und AI

00:10:00
Speaker
diese Systeme zu nutzen. Ich weiß, das hört sich ja gerade alles wie eine Werbeshow fast an. Nein, überhaupt nicht. Ich finde es wichtig, den Kontext richtig einzuordnen und dafür müssen wir uns erstmal auskennen. Ich persönlich habe nie fertig studiert, deswegen gar nicht. Ich habe angefangen zu studieren, als die Uni-Proteste angefangen haben. Das heißt, du kannst dir vorstellen, wie groß meine Motivation war.
00:10:22
Speaker
Ich hatte die Wahl zwischen Hans Söllner im Audimax oder in einen völlig anderen Stadtteil fahren, für alle die nicht aus Wien sind, 45 Minuten nach Transdanubien, wo dann die ausgelagerten
00:10:36
Speaker
Vorlesungsstellen waren. Das ist ein bisschen das Mordor Wiens. Genau, in die VLC Uno City, um dann dort improvisierte Vorlesungen zu halten, auf die keiner Bock hatte, weil alle wussten, bei den Uni-Protesten im Audimax haben alle Spaß. Ja, so viel zu dem Kontext, zu meiner glorreichen Uni-Karriere. Aber bitte. Analog könnte man jetzt sagen, dass in der Zeit, wo Corona ein Thema war, das eigentlich ähnlich war, haben wir auch ganz eine kleine… Nur unter den Spaß.
00:11:04
Speaker
Ja, schon. Andere Arten von Spaß. Um eine kleine Tension zu machen da, das habe ich auch mitbekommen, weil ich damals eben tutoriert habe in den erstsemestrigen Veranstaltungen. Also die Qualität der Studierenden, das hört sich jetzt so schlimm an, aber die Leistungsqualität sozusagen, ist während Covid so schlimm nach unten gefallen wie noch nie davor, einfach weil es diese Gruppenbildung nicht mehr gab und diesen sozialen Kontakt nicht mehr gab zwischen den Studierenden.
00:11:32
Speaker
Und was Ähnliches beobachten wir jetzt wieder, weil ganz viele Leute diese Systeme benutzen auch zum Lernen und zum Diskutieren. Und das ist ein bisschen der zweite Punkt. Also der erste Punkt war, die Bewertungssysteme funktionieren nicht mehr. Da könnte man jetzt noch 100 andere Beispiele bringen, aber ich glaube, das Prinz mir ist rübergekommen, was ich meine.
00:11:50
Speaker
Und die andere Seite ist diese Diskussion mit Systemen. Und da habe ich lustigerweise vor zwei Tagen was Lustiges gezeigt bekommen, und zwar einen Post, wo jemand, eine Lehrkraft, ich glaube, es ist ein Geschichtelehrer war das, beschreibt, dass ein Schüler zu ihm hingekommen ist, also es ist jetzt nicht die Uni, aber egal, gleiches Prinzip, Schüler zu ihm hingekommen ist und gemeint hat, ja,
00:12:14
Speaker
Griechisch ist ja eine Zusammensetzung aus vier verschiedenen Sprachen. Und der Lehrer schaut ihn an, sagt ja, das stimmt so nicht, also wo er das her hat. Und der Schüler meint, naja, Chagypti hat ihm das gesagt. Und das ist so eine kleine Interaktion, die ist gar nicht so relevant, aber im Endeffekt hat der Lehrer darüber dann reflektiert.
00:12:36
Speaker
Ich nehme an, es war ein Lehrer, ich glaube, es wurde über den geschrieben, aber es ist eigentlich egal. Auf jeden Fall, die Lehrkraft reflektiert darüber und sagt dann, das Ding ist, dieser Schüler hat da ein System, das trainiert es vermeintlich auf dem ganzen Wissen des Internets. Also das ist ein irrsinniger Block an Wissen, der da drinsteckt. Das kann ja nur Recht haben. Das ist irgendeine Lehrkraft, die mir gegenüber steht und sagt, das stimmt nicht.
00:12:58
Speaker
gut, der irrt sich halt oder der ist halt ein bisschen arrogant. Das ist eine Einzelmeinung versus dem gesammelten Wissen, dem globalen Konsens oder so. Das ist ein bisschen so dieses, ich hab's nachgeschaut, das ist ja faszinierend, dass in unserem Sprachgebrauch, ich hab's gegoogelt, ein Synonym ist für so ist es. Und das ist mittlerweile mit Checipity ein bisschen so. Und das ist die andere Seite von den Problemen, die wir haben, nämlich Studierende,
00:13:27
Speaker
Benutzen die Systeme natürlich, um sich Sachen herzuleiten, so wie ich vorher gesagt habe, ich habe Foliensätze, ich fasse mit die zusammen. Total dumm, was ich damit mache in Wahrheit, weil ich da mit Sicherheit Nuancen verliere, die da drinstehen, die eventuell einerseits wichtig sind. Andererseits, die Befassung damit wäre eigentlich das Ziel von der Lehre.
00:13:44
Speaker
Um ja auch den nachhaltigen Lerneffekt zu erzielen, oder? Natürlich, ja. Das ist ja so funktioniert ja unser neuronales Lernen. Unser, das echte neuronale, also das echte, wir waren zuerst der neuronale Lerner, dass wir uns damit befassen müssen, vielleicht auch uns mit etwas überfordern müssen, scheitern müssen, um
00:14:03
Speaker
neue Zusammenhänge zu begreifen und dann auch neue neuronale Verbindungen zu generieren. Exakt. Und das überspringe ich alles. Und das ist ein Riesenproblem der Lehre. Und das kann man dann noch weiter runterbrechen und kann im Endeffekt darüber reden, wie wir als Menschen eben lernen und wie wir funktionieren und wie wir auf der Uni eigentlich versuchen,
00:14:25
Speaker
Leute, Leuten das Denken beizubringen. Das ist im Endeffekt die große Challenge der Uni, ist es in Wahrheit nicht, Fakten reinzuhämmern in die Köpfe von Studierenden, auch wenn es teilweise so gesehen wird, gerade an der TU, aber die eigentliche Challenge ist, wie bringe ich den Leuten das richtige Denken bei.
00:14:42
Speaker
Kritisches, reflektiertes Denken, faktenbasiertes, forschendes, ja. Ja, und das ist ein großer Teil von dem, glaube ich, das ist jetzt alles nicht hundertprozentig belegt, was ich da jetzt gerade sage, sondern das ist jetzt alles nur Theorie. Und es gibt viele Leute, die darüber schreiben gerade, und es gibt viele Leute, die sich damit befassen, und das ist auch ein Teil von dem, was ich im Doktoratis mache.
00:15:03
Speaker
Aber meine Theorie zu dem Ganzen ist, dass viel davon auch durch Schreiben entsteht. Also wenn ich einen Text verfasse und ein Argument verfasse vor allem, also das Argumentieren fast, dann gibt mir das die Möglichkeit, meinen Horizont ein bisschen zu erweitern in

Bedeutung des Schreibens beim Lernen

00:15:20
Speaker
einer Argumentation, in einer Diskussion.
00:15:22
Speaker
Und wenn ich das ersetze durch, ich habe ein Thema und ich nehme jetzt, sei es JGPT oder wurscht welches System, und das gibt mir ein Argument, dann verlier ich das komplett. Das ist ein Überspringen von diesem Prozess. Und je mehr ich das mache, desto weniger kriege ich diesen Lerneffekt, den wir eigentlich wollen. Und ob ich mir jetzt merke, dass keine Ahnung, ein Bit so viel bite hat oder ein Mikroprozess, also und so funktioniert oder schieß mich tot. All diese Sachen, die man gemacht hat im Studium, das ist wurscht. Aber die wirkliche Frage ist, wie
00:15:52
Speaker
Kann ich Informationen verarbeiten? Wie kann ich Argumente aufbauen, logisch? Wie kann ich das überprüfen? Das ist das, was man eigentlich unterrichten will in der Lehre, vor allem, wenn es in Richtung Forschung geht. Und das verlieren wir. Das zweite Ding, das dritte Ding, das eigentlich ganz ähnlich ist, ist, also das kann man auch vielleicht zusammenfassen, ein bisschen unter Algorithm-Bias und Machine-Bias, also diese Gläubigkeit an Systeme, weil eben dieses Riesending dahinter steht, das ist eine ganz andere Sparte an Problemen

Algorithmen und inhärente Vorurteile

00:16:21
Speaker
noch.
00:16:21
Speaker
Da kommen dann so Sachen wie der AMS-Algorithmus, ein ganz berühmtes Beispiel aus Österreich. Kennst du das Beispiel? Das ist im Endeffekt das AMS, das Arbeitsmarktservice in Österreich, sind die, die vermitteln, wenn man arbeitslos ist. Wenn ich arbeitslos bin, du hast ein Arbeitsamt in Österreich. Gehe ich dorthin und die vermitteln mir Jobs.
00:16:39
Speaker
Ich glaube, es war 2018 oder 2019, einen Algorithmus gebaut mit der Intention, dass dieser hilft zu berechnen, wie viel Förderung Arbeitslose bekommen, wenn sie sich anmelden. Und das ist basierend darauf, wie hoch die Chancen sind, dass diese integriert werden in den Arbeitsmarkt. Das heißt, wenn ich diese Kriterien erfülle, also ich sage jetzt, ich bin eine Frau, alleinerziehend, habe drei Kinder, bin vielleicht nicht aus Österreich ursprünglich, sondern habe einen Migrationshintergrund,
00:17:10
Speaker
spreche Deutsch auf Niveau XY, bin so und so alt, dann ist meine Chance, dass ich einen Job bekomme in den nächsten X Monaten so und so hoch. Und tendenziell ist halt die Idee, man fördert die, wo es leichter ist zu integrieren bzw. man fördert die, wo es vielleicht etwas schwieriger ist. Man kann sich überlegen, was man da macht und welche Strategien man da fährt.
00:17:28
Speaker
Was die gemacht haben damals war, das hat bis jetzt Menschen gemacht das Ganze. Was sie in 2018 und 2019 herum gestartet haben, war die Idee, wir schauen uns einfach alle Entscheidungen an, die getroffen wurden über die letzten 50 Jahre und bauen ein System, das das nachbildet. Was dann natürlich passiert ist, weil also
00:17:46
Speaker
unter der Prämisse, und da sind wir jetzt wieder bei Machine- und Algorithm-Bias, die Maschine macht das perfekt, und dann kriegen wir diesen ganzen menschlichen Bias raus. Diese ganzen Vorurteile, die wir da drin haben, weil, weiß ich nicht, wenn jetzt da in der Früh der Kaffee ein bisschen schlecht geschmeckt hat, dann ist der schlecht gelaunt da immer als Mitarbeiter und dann kriegt vielleicht die Person XY weniger Förderungsgeld als die andere.
00:18:09
Speaker
Und das haben sie nachgebaut. Was sie natürlich nicht beachtet haben ist, dadurch, dass sie die letzten 50 Jahre an Entscheidungen einbauen, bauen sie natürlich die letzten 50 Jahre an Peises ein. Und das System hat logischerweise Frauen viel schlechter bewertet als Männer. Menschen mit Migrationshintergrund sowieso. Und ganz übertrieben gesagt, wenn jetzt
00:18:28
Speaker
am Vortag die Person XY, die genau die gleichen Merkmale hat wie ich, also auch Frau, dieses Alter, diese Anzahl an Kindern, rausgeht beim AMS, vom Auto überfahren wird und dementsprechend keinen Job mehr bekommt, dann mindert das meine Chancen, jetzt auch einen Job zu bekommen, weil ich habe die gleichen Merkmale.
00:18:47
Speaker
ganz, ganz, ganz, ganz falsche Auffassung von wie Bayes funktioniert und wie Systeme funktionieren. Und das haben wir aber auf der Uni auch. Und dieses Glauben an Maschinen und wie toll nicht die Systeme sind, wie unfehlbar haben wir auch, das ist ganz stark. Und das kann man dann noch weiter denken mit dieser Diskussion, die wir vorher hatten,
00:19:08
Speaker
dieses Selbstdenken, selbst argumentieren, das geht dann in Richtung Diskussion mit anderen. Und da bin ich jetzt wieder, um den Bogen zu spannen, bei der Covid-Zeit, wo man gemerkt hat, wenn die Studierenden nicht untereinander reden, nicht in einer Gruppe sich befassen mit Themen,
00:19:23
Speaker
dann geht was verloren, dann werden sie schlechter in gewissen Sachen. Es ist eh klar, es fühlt sich vielleicht ein bisschen wie Schummeln an fast am Anfang einer Ausbildung, aber wenn man in einer Gruppe von fünf Leuten ist und die eine Person kann das ganz gut und die andere kann das ganz gut und die erklärt mir vielleicht das kurz oder zeigt mir das, aber mit der anderen kann ich über das reden, ich selbst bin gut in dem und dem und wir arbeiten zusammen, ist das nicht Schummeln, sondern eigentlich genau das, was die Uni will, weil wir haben diese Interaktion. Das ist kooperatives Lernen. Genau, das ist kooperatives Lernen, das fällt weg.

Kooperatives vs. AI-unterstütztes Lernen

00:19:52
Speaker
Da gibt es einen spannenden Artikel, den ich vor ein paar Monaten, glaube ich, zugeschickt bekommen habe, wo ein Linguist, und ich glaube, es ist ein Physiker, wenn ich mich nicht ganz sicher, darüber schreiben, wie die Interaktion mit JetJPT und mit ähnlichen Sprachmodellen für das Wissen generieren ist und für das Diskutieren ist und auch in der Forschung, wie das funktioniert, und sagen, dass ganz viele Leute das Gefühl haben, dass diese Systeme,
00:20:22
Speaker
Ähnliche Dinge machen, wie in der Geschichte berühmte Persönlichkeiten gemacht haben. Also jetzt die plakativen Beispiele von dem Ganzen sind der Albert Einstein, der in seiner Kommunikation ganz oft von seiner Frau schreibt. In den Kommunikationen, die ja auch Mathematikerin war und total begabt war, die natürlich nie in irgendeinen seiner Werken erwähnt wird. Also das ist nicht eine namentliche Nennung, die jetzt in irgendeinem Paper stehen würde oder sowas. Kein offizieller Credit.
00:20:48
Speaker
Nein, also auch einfach zeitbedingt ist, wie das nicht der Einstein das vorwärts, sondern... Ja, das war das Prozedere in der Zeit einfach. Mit Sicherheit, ja. Aber auf jeden Fall attributed der Einstein oder schreibt der Einstein, Entschuldigung für die Anglizismen, schreibt der Einstein der Diskussion mit seiner Frau ganz viel zu und sagt, durch diese Diskussion sind ganz viele Ideen entstanden und durch die Diskussion mit ihr
00:21:12
Speaker
haben sich Sachen verfeinert und sind klarer geworden und das war ganz wichtig, sind wichtige Prozesse. Es gibt ein ähnliches Beispiel, das zweite plakative Beispiel unter Anführungszeichen, das ist die Emilie du Chatelet, ich hoffe ich spreche es halbwegs richtig aus, französisch, nicht meine Stärke. Das war auch eine Forscherin, die mit dem Voltaire zusammen, ein Laborer hat das sogar, also die haben wirklich zusammen gearbeitet, wird auch von ihm hoch gelobt natürlich.
00:21:39
Speaker
Sie hat sogar ein Buch mit ihm geschrieben, in dem natürlich nur er als Autor drin entsteht. Aber auch das ist wieder diese Diskussion und dieses Zusammenarbeiten mit jemandem, diese Kritik, aus dem es entsteht. Und ich glaube, das kennen auch alle Leute, die mal in einer Band gespielt haben zum Beispiel oder zusammen was geschrieben haben, was produziert haben. Dieses Zusammenarbeiten, dieses Ideen hin und her werfen, das kritisiert werden, dass sich selbst ein bisschen
00:22:01
Speaker
verteidigen, das ist total wichtig für den Prozess des Lernens und total wichtig für auch diesen Forschungsprozess. Und das geht komplett verloren, wenn ich mit JGPD rede, weil JGPD hat zwar in drin irgendwie diesen
00:22:17
Speaker
Prozess, diesen Output dieses Prozesses, also die alle gesammelten Sachen, die entstanden sind aus solchen kreativen Zusammenarbeiten drinnen. Aber es hat nicht den kreativen Prozess drinnen, es kann nicht diesen kreativen Prozess liefern. Es ist ein stochastischer Papagei, das ist ein ein bisschen geflügliches Wort, da gibt es auch ein Paper dazu, Stochastic Parrots.
00:22:39
Speaker
Heißt, dass das halt im Endeffekt wiederholt, statistisch passiert wiederholt, was schon mal gesagt wurde und das ist nicht dasselbe wie mit einer denkenden Person. Es hatte auch keine Bewertungsmöglichkeit oder Einordnung in einem Kontext oder in einer richtig falsch Fakten basiert oder Schwurbler, weil das kommt ja alles genau zu gleichen Teilen im Internet vor und würde wahrscheinlich auch zu gleichen Teilen, wir wissen es ja nicht, weil es ist eine Blackbox, solange sie ihre Trainingsdaten nicht offenlegen.
00:23:08
Speaker
müssen, werden wir es nicht erfahren, was da alles drin ist und damit kann man dem in Wahrheit ja auch keine, kein faktisches Gewicht geben oder so, sondern man muss eigentlich alles, oder?

Neue Lehrmethoden für AI-Integration

00:23:23
Speaker
Das auch nicht, aber dann tauchen wir fast schon die Funktionsweise ab. Ich glaube auch, ich hatte jetzt schon einige Sachen, wo ich gerne eingehakt hätte und ich würde jetzt tatsächlich gerne nochmal von hinten anfangen,
00:23:36
Speaker
Und ich sage es jetzt auch einmal, damit wir dazu kommen, ich würde gerne einmal noch zu den neuen Möglichkeiten oder der Lehrformen nochmal kurz zu sprechen kommen und zwar eher in Richtung
00:23:55
Speaker
lösungsorientierten Ansatz oder was ist der Ausblick, was müssen wir tun? Das ist der eine große Punkt. Dann der zweite große Punkt, den ich ansprechen wollte, war die Frage nach dem AMS-Algorithmus, ist der in Verwendung? Der ist in Verwendung.
00:24:12
Speaker
Es gibt auch eher nicht viel Protest dazu, aber das ist dann auch ein bisschen abgestimmt. Aber es ist Ihnen nicht bewusst, dass Sie, wenn Sie die letzten 50 Jahre als Trainingsmaterial verwendet haben, dass Sie genau die letzten 50 Jahre widerspiegeln und ich kann nur ein persönliches konkretes Beispiel, das ist sicher nicht anwendbar auf alle AMS-Mitarbeiterinnen und so weiter, aber in der Zeit, als ich arbeitslos war, bin ich zum AMS reingekommen,
00:24:35
Speaker
Mir würde eine Betreuerin zugewiesen, ich komme in dieses Zimmer rein, setze mich gegenüber an den Schreibtisch und links von uns beiden an der Wand ist ein Bild von der Grinsekatze aus Alice im Wunderland und drüber steht Lächle, denn du kannst sie nicht alle töten.
00:24:51
Speaker
Und das war meine erste Begegnung mit dem, also ich finde, das sagt so viel aus. Es ist sicher nicht die Mehrheitsmeinung, aber auch diese Meinung ist dann eingeflossen. Diese Haltung und dieser Zynismus und dieses Verhalten dann im Endeffekt, was sich daraus erschließen lässt, ist dann in diesen Algorithmus eingeschlossen. Ja, und da könnte man jetzt sagen, ja schau, ist doch super.
00:25:18
Speaker
dass wir diesen Algorithmus haben, damit diese eine Person, diese eine Mitarbeiterin nicht mehr auf Leute losgelassen wird, sondern wir jetzt ein gemitteltes System haben. Genau das ist der Punkt. All diese Sachen sind eingeflossen. Wahnsinn. Und ich glaube, es gab eine Überarbeitung von diesem Algorithmus. Ich weiß, es gab da einen Riesenauffuhr, also Riesen in der Informatik-Weltauffuhr. Wahrscheinlich darum herum wenige Leute interessiert. Ich habe es nicht mitbekommen.
00:25:44
Speaker
Bei uns war das wirklich in den Vorlesungen ein Thema, mehrfach. Es war wirklich so ein, mehr ProfessorInnen sind dann gestanden auf dem Pult, auf dem Podium sozusagen, beim Podium gestanden und gemeinten, ja, habt ihr das schon gehört, habt ihr das schon gelesen. Und wir waren dann irgendwann am Punkt, wo wir gemeint haben, ja, die Woche in vier Vorlesungen schon, aber das war bei uns ein Riesenthema und ich glaube, es gab eine Überarbeitung von dem Ganzen und es wurde sich nochmal angeschaut, was da für Beises drin sind. Aber im Endeffekt wird das System benutzt und ist
00:26:14
Speaker
Ja. Okay, das nehmen wir jetzt hier an dieser Stelle mal zur Kenntnis, weil wir zwar jetzt an dieser Stelle auch keinen Einfluss darauf nehmen können und ich finde es Wahnsinn, nicht im Wahnsinn, sondern, oh mein Gott, Wahnsinn-Sinne. Aber lass uns tatsächlich vielleicht noch mal zur Lehre zurückkommen. Was bedeutet das jetzt für deinen, weil du unterrichtest ja auch? Ich habe tutoriert sehr lang und ein bisschen assistiert an der TU und habe dann auch Gastvorträge gehalten und darf jetzt dann bald
00:26:43
Speaker
Es ist sehr passend zum Podcast. Am Mozarteum unterrichten, das ist das berühmte Haus in Salzburg, wo sie eventuell einen Schädel haben, der von Mozart ist oder auch nicht, im Dressort irgendwo eingesperrt. Aber die Schauspielschule ist das nicht, weil die Schauspielschule heißt auch Mozarteum.
00:26:58
Speaker
Das wird wahrscheinlich ein Teil davon sein. Also es muss zudem, so wie ich es verstanden habe, einfach die Kunst-Sparte des Ganzen. Ach so, okay. Dann wird da die Schauspielschule auch eingegliedert. Also die Vorlesung, die ich halten darf, zusammen dann mit der Christine Bauer. Das ist, ich hoffe, die du auch vielleicht noch im Podcast hast. Ja, die kommt schon noch in mein Kopf. Nein, die wird auch noch eingeladen.
00:27:20
Speaker
Genau, das ist auch meine Superweiserei, muss ich vielleicht dazu sagen im Doktorat. Aber auf jeden Fall mit der Zusammenarbeit eine Vorlesung halten für Kunststudierende, Musikstudierende in dem Fall, über die Benutzung von AI, Modellen in der Musik. Und da soll es auch genau um diese Themen gehen. Also in der Musik in dem Fall kann heißen von, weiß ich nicht, Social Media Auftritt und irgendwelche Werbetexte schreiben bis hin zu tatsächlich in der Musik benutzen. Aber ja, zum Unterricht um uns die positiven oder die Lösungen unter Anführungszeichen dazu bringen.
00:27:50
Speaker
Also die richtigen Lösungen ist vielleicht eh ein bisschen schwierig, aber ich hab ganz am Anfang erwähnt, es gab dieses Decall-Projekt, dieses Digitalisierungsprojekt und im Rahmen von dessen haben wir dann also unser Team sozusagen, das war eine Reihe von Leuten, der Peter Burgetthof hat, der Martin Nöllenburg, Sascha Hunold, Shuen Seng, Max Ulreich und ich,
00:28:12
Speaker
um sie mal genannt zu haben, haben dort dann mit praktisch allen ProfessorInnen des ersten Semesters der TU gesprochen, mit ein paar, die darüber hinaus sind. Ein paar haben wir weggelassen, nachdem wo es gepasst hat, um zu fragen, was sie gerade davon halten, was sie glauben, dass jetzt eine Lösung wäre und was man machen kann, was funktioniert gut, was funktioniert nicht gut, was hat sich geändert.
00:28:35
Speaker
Also eine lange Reihe an Fragen und was sich herauskristallisiert hat eigentlich bei allen war, es gäbe eine klare Lösung für das, die wir uns nicht leisten können, nämlich wenn ich die Studierenden kenne, wenn ich eine persönliche Beziehung zu denen habe, dann kann ich einerseits ganz gut einschätzen, was die wirklich selbst machen. Also wenn ich jetzt einen Text von jemanden bekommen habe, mit dem ich selbst schon stundenlang diskutiert habe, von dem ich Weise hatte,
00:29:01
Speaker
einen Horizont bis zur Nasenspitze ungefähr, jetzt soziologisch gesehen, und dann einen Text bekommen, der extrem gefächert ist und dann total aussagekräftig, dann denke ich mir vielleicht, okay, das wird nicht ganz mit rechtem Ding zugegangen sein. Das ist die eine Sache. Das heißt, ich kann eher erkennen, ob jemand was selbst geschrieben hat oder nicht.
00:29:23
Speaker
Aber nur, wenn ich eine persönliche Beziehung zu den Menschen habe? Genau, wenn ich das habe. Das sind die Voraussetzungen. Also jetzt, wie unsere Lehre jetzt stattfindet, keine Chance? Keine Chance. Das habe ich eh auch schon mal privat gesagt zwischen uns beiden. Ich habe bis zum Master nicht gewusst, dass ich einen Namen habe an der Technischen Union. Also ich war 11716989.
00:29:43
Speaker
mein gesamtes Studium lang und im Master werden es dann kleinere Gruppen und dann stellst du irgendwann fest, ich hatte ja mal diesen Namen. Deinen wirklich? Deinen tatsächlichen Namen. Konstantin. Kann ich mir das wirklich so vorstellen, dass du dann mit dieser Nummer auch angesprochen wurdest? Oder ist das jetzt gar etwas zu üblich?
00:30:04
Speaker
Brave new word. Es ist beides. Also angesprochen wirst du ja brenzfeld sowieso wenig. In so kleineren Gruppen, das gibt es teilweise natürlich auch im Bachelor, dass man dann Sachen erklären muss oder sowas in kleineren Gruppen, in kleinen Übungsgruppen, dort wird dann schon dein Name benutzt.
00:30:22
Speaker
fast immer. Also auch dort hatte ich Leute, die dann da sitzen und sagen ja 11718989, 6989, hatte ich auch, weil halt dann eine Liste vor denen ist und die sagen ja diese Nummer ist noch nicht angekommen, mach das. Aber es ist schon so, dass du im ganzen Bachelor zumindest mal ein bisschen als diese Karteinummer da bist. Das ist jetzt nicht übertrieben, das ist wirklich so. Und im Master kam dann, und das ist sehr schön, dass das an der TU doch noch funktioniert, obwohl es so große Studentenzahlen sind,
00:30:50
Speaker
kam dann dieses Persönliche zurück. Aber auf jeden Fall um auf den Punkt zu kommen,
00:30:57
Speaker
Wenn du diese persönliche Beziehung hast, dann kannst du einerseits einschätzen, was die Leute gemacht haben, selbst. Besser, nicht perfekt natürlich, aber du kannst das ungefähr sagen. Und, was fast noch wichtiger ist, eine Benotung, die erfolgt rein aufgrund von Leistungen, die jetzt abgebildet sind in textueller Form zum Beispiel, ist sowieso immer fragwürdig, finde ich. Schon vor JCPT? Schon lange vor JCPT. Das ist, weiß nicht, ein plakatives Beispiel.
00:31:25
Speaker
Einen Schüler, jetzt sagen wir in der Schule noch, der einen Aufsatz schreibt bei einer Schularbeit, der ist total schlecht der Aufsatz und dann kriegt er dafür einen Fetzen, einen Fünfer und das ist die abgebildete Note. Die Person kann noch so gut gewesen sein das restliche Jahr.
00:31:42
Speaker
Ist egal, weil es kommt dann nur auf diese punktuellen Leistungen. Es ist natürlich nicht überall so, aber teilweise ist es so und das ist nicht gut. Und das funktioniert natürlich auf der Uni auch nicht gut. Ich kann die Leute nicht nach punktuellen Sachen, nach punktuellen Prüfungen ausschließlich bewerten. Das ist einfach nicht sehr abildend dessen, was wirklich gelernt wurde.
00:32:02
Speaker
Da kann man dann auch sagen, weiß nicht, eine Person hat Fakten auswendig gelernt, weil wir vorher bei dem Thema waren, die andere hat sich damit befasst. Die Fakten stehen da auf dem Zettel, aber bei der anderen habe ich das Gefühl oder bekomme ich ein bisschen mit, okay, da macht sich jemand Gedanken.

Personalisierte Bildung und AI

00:32:14
Speaker
Es ist nicht so schwarz und weiß, es ist nicht ein perfektes System, wo ich sagen kann, so ist es, so ist es nicht.
00:32:19
Speaker
Und das Gleiche kann man dann auch um Münzen auf persönliche Beziehung zu diesen Leuten. Wenn ich die Person kenne und weiß, ich habe mit der diskutiert und ich weiß, der hat sich da Gedanken gemacht, die sind diese Konzepte verstanden, kann ich als Lehrperson viel besser einschätzen, wo die steht und wie weit die vielleicht schon in ihrem Prozess ist. Weil ich dann ja auch challengen kann, selbst wenn derjenige sich das auf ChatGPT hat zusammenfassen und ausformulieren lassen, mitten im Kommentar, wie du es beschrieben hast.
00:32:46
Speaker
dann kann der halt maximal diesen Kommentar auswendig lernen, aber du kannst es dann im persönlichen Gespräch, wenn ich das richtig verstehe, auf Herz und Nieren testen und nochmal einen Schritt weitergehen und das zu hinterfragen und zu sagen, kannst du das auch irgendwie konklusiv begründen. Genau. Und stehst du da wirklich dahinter oder ist es nur die Fassade, bist du ein sozusagen gut angepasster an unser Lernsystem und unser Benotungssystem gut angepasster Schüler,
00:33:13
Speaker
Exakt, exakt. Und auch da habe ich mit Studierenden gesprochen, teilweise auch im Rahmen von dem Ganzen. Das ist dann nicht eins zu eins so eingeflossen in die Arbeit, aber wir haben uns auch ein bisschen unter Studierenden umgehört. Und was ich oft gehört habe, war, dass Studierende in ihrer Herangehensweise, wie sie sich auf der Uni verhalten, gerade wenn es um Noten geht, oft das Gefühl hatten, ich habe diese und diese Sachen durchgelesen.
00:33:42
Speaker
Aber ich bin relativ gut im Reden, also ich kann ganz gut mit Leuten reden und dadurch, dass ich das dann gut rüberbringe, ein bisschen Blender-mäßig, kriege ich gute Note. Und was ich dabei komplett verpassen, ist, dass das eigentlich genau das ist, was wir wollen. Also wir wollen ja, dass die Leute ein bisschen an Grundstock an Wissen haben, aber dann selbst sich Gedanken dazu machen können und in einem Gespräch beispielsweise dann mit einer Lehrkraft, auch wenn sie es selbst als Blenden empfinden,
00:34:05
Speaker
sich Gedanken zu machen, kann man sagen, ich sehe das ungefähr, sondern so ein bisschen Reflektion dazu haben, auch wenn die jetzt nicht auf höchstem Niveau ist, es ist eine Befassung mit der Thematik. Das macht was mit dir. Mehr kannst du, finde ich, als Lehrkraft auch nicht als Ziel haben. Du kannst nicht sagen, ich will, dass diese Leute ein wandelndes Lexikon für X, Y und Z sind.
00:34:25
Speaker
Was die Wirtschaft gerne hätte manchmal, wirklich punktuell zugespitzt, völlige Fachidioten für diesen einen Task und für diesen einen Arbeitsschritt, den halt hyperpolished und perfektioniert irgendwie. Ja, das mag ganz schön sein. Ich kann es aus der Informatiklehre sagen und da finde ich es sowieso nochmal mehr so,
00:34:46
Speaker
Wenn du Programmiererin werden willst, also Code Monkey sagt man bei uns so schön, dann brauchst du nicht studieren. Also dann machst du irgendeinen Kurs online, maximal machst du vielleicht das erste Semester oder die ersten zwei Semester und dann den Rest brauchst du nicht mehr. Weil das reine Programmieren ist eine Sprache, die man lernt, eine Logik, die man lernt, eine Denkweise, die man lernt, mehr oder weniger.
00:35:11
Speaker
Aber dieses reine Umsetzen von Anforderungen in Code, dazu brauche ich nicht studieren. Das Ziel des Studiums ist viel eher, dass ich Leute ausbilde, die sich da größere Gedanken darüber machen können. Und auch daraufhin wird auch der Unterricht angepasst. Aber das heißt, um jetzt ganz konkret zu werden, wären dann mündliche Prüfungen auch eine Option?
00:35:36
Speaker
Ja, nördliche Prüfungen einerseits und andererseits einfach mehr Kontakt zwischen den Lehrkräften und den Studierenden. Und das ist aktuell in einem System, wo wir, ich weiß nicht, 600 Studierende haben pro Semester circa, also bis in den großen Semestern, den Wintersemestern, der Regulärsemestern haben wir 600 und dann sind es im Sommersemester, weiß nicht, 200, 300, nicht möglich. Also es kann nicht eine Lehrkraft in einem Fach
00:36:00
Speaker
600 Leute mündlich prüfen, zu denen einen Kontakt haben. Es ist schon ein Wunder, dass es Vortragende gibt, die sich 600 Namen mehr oder weniger merken. Gibt es manche, die das wirklich können? Das ist schon Wahnsinn. Aber wirklich noch einen Bezug zu dieser Person zu haben? Keine Chance. Und das ist aber einfach ein statistischer Fakt der ersten paar Semester. Wir haben diesen Antrag. Wir haben so und so viele Lehrkräfte, die so und so viele Fächer machen.
00:36:25
Speaker
Das geht sich nicht aus. Was wir bräuchten in dem Fall wären natürlich Ressourcen. Hätte man mehr Geld für mehr Tutorierende zum Beispiel, Assistenten, Assistentinnen, dann könnte man das umsetzen. Dann könnte man sagen, gut, wir lagern das ein bisschen aus und der Professor, die Professorin macht jetzt den Vortrag.
00:36:43
Speaker
Dann die Tutorierenden, die Assistentinnen, wie auch immer, machen Übungen und haben das im persönlichen Kontakt und dann fließt das alles ein und man kann das sinnvoller benoten. Es ist immer noch kein perfektes System, keine Frage. Aber es umgeht diese Problematiken, die wir jetzt haben. Also im Endeffekt ist der Antwort ja, es ist ein bisschen ein analoges Ding, man geht zurück zu persönlichem Kontakt. Das ist aber auch das, was sich alle Vortragenden gewünscht haben. Also es war wirklich durch die Bank, haben alle gemeint,
00:37:10
Speaker
wenn wir mehr Kontakt zu den Leuten haben, können wir das besser sagen, können wir es besser einschätzen. Und das würden wir uns wünschen. Und da gab es ein so ein ganz plakatives Zitat von einem Professor, ich weiß nicht ob ich, ich glaube ich habe ihn nicht namentlich genannt dann im Bericht dazu und ich glaube ich werde das auch jetzt nicht machen, ich weiß nicht ob er das will. Der hat gemeint, er versteht diesen Blödsinn sowieso nicht. Die Uni hat einen Professor für 600 Studierende
00:37:34
Speaker
selbst die Prüfungen bewerten, wenn laut Universitätsgesetz, wenn ich das richtig im Kopf hab, darf eigentlich nur der Professor das wirklich benoten. Vielleicht noch der Assistenten, auf jeden Fall nicht die Tutorierenden drunter. Und dieser Professor hat dann gemeint, sogar bei dem hält er das vom kompletten Schwachsinn, weiß nicht, wie sich das die Uni vorstellt. Das geht rein rechnerisch. Wie soll ich denn dazu die Zeit haben? Und dann forsch ich ja auch noch theoretisch. Weil eigentlich bin ich ja zum Forschen da. Was erwartet ihr euch?
00:38:01
Speaker
Du hast mindestens zwei gleichwertig wichtige Aufgaben. Du bist ja nicht nur Lehrer oder nicht nur Forscher. Ja, kommt auf einmal was ich bin. Also es gibt schon Senior Lecturers, das sind dann die, die hauptsächlich lehren eben. Die oft noch kleine Projekte machen, die dann schon in Richtung Forschung gehen, aber prinzipiell lehren. Es gibt halt die volle Professur. Aber das geht dann auch sehr weit in die Uni-Thematik rein. Aber der Punkt ist auf jeden Fall, es geht sich nicht aus mit den Ressourcen, die wir haben. Aber es wird von allen gewünscht. Und es ist allen klar, dass das das bessere System wäre.
00:38:29
Speaker
Aber es ist kein Geld dafür da. Aber das können wir jetzt nicht ändern. Das wird auch Vater Staat wahrscheinlich so schnell nicht finanzieren, weil wir sagen, wir hätten gerne fünf Milliarden mehr jedes Jahr für Hochschulbildung und für mehr Personal und so. Wäre es denn dann vielleicht eine Möglichkeit zu sagen, wir gehen von diesem jetzt überspitzt gesagt oder verkürzt,
00:38:49
Speaker
diesem Multiple Choice slash auswendig lernen und wiederkauen System, wie wir es jetzt in Prüfungen haben, weg und versuchen zumindest mit den Ressourcen, die wir jetzt haben, eine Art kreatives, intelligentes Prüfungssystem zu etablieren, wo es darum geht,
00:39:14
Speaker
nicht auswendig Gelerntes wiederzugeben. Hier sind fünf Bücher, könne diese und dann wirst du nicht durchfallen in der Prüfung, sondern keiner weiß, was in der Prüfung vorkommt. Es wird vonnöten sein und das ist ja auch das, was KI nicht kann, deswegen ist es ja auch nicht intelligent, nämlich sich auf unvorhersehbare Situationen einzulassen und eine Lösungsmöglichkeit
00:39:40
Speaker
an diese unbekannten Situationen angepasst herzustellen. Die Definition von Intelligenz ist, sich auf neue, unbekannte Situationen einzulassen, kreative Lösungswege zu finden für etwas, was noch nicht da gewesen ist.
00:39:58
Speaker
Ja, also die Definition von Intelligenz ist, glaube ich, schwierig. Also wenn wir die da jetzt in den Podcast hinkriegen. Nein, oder eine der, also eine der, die für mich auch einleuchten, ist, ich habe keine Ahnung, ich komme in einen Raum, weiß nicht, was dort auf mich wartet. Ich hatte diese Situation noch nie und ich muss mich jetzt intelligent verhalten, ob das jetzt bedeutet, dass ich überlebe, ob das jetzt bedeutet, dass ich eine Lösung für ein Problem finde. KI kann ja nur das, was eigentlich
00:40:24
Speaker
speist wurde, nehmen, ein statistisches Mittel daraus generieren oder die wahrscheinlichste Antwort auf die Frage, die gestellt wurde, finden aus dem und nur aus dem Trainingsdatensatz, das ihr gefüttert wurde.
00:40:39
Speaker
Ja, da kommen wir jetzt sehr in Richtung Funktionsweise. Ja, gerne. Ja,

Kreativität und AI's Grenzen

00:40:45
Speaker
nein, total. Also mit Sicherheit ein spannendes Ding zum Thema Bildung dann nämlich auch. Also um den Bogen zu schlagen von dem einen zum anderen. Jein, die KI kann schon, also die KI von KI an sich ist ein furchtbares Wort und dazu gleich mehr, aber das System kann schon neue Dinge schaffen. Es kann ja neue Wörter zusammenwürfeln.
00:41:05
Speaker
Wenn ich Jajabdi sage, schreibe mir einen neuen Song im Stil von Nick Cave, dann kommt ein neuer Song raus. Das sind sicher nicht die Wörter, die der Nick Cave schonmal aneinander gereiht hat. Es ist schon was Neues da und ich kann es, wenn ich eine Prüfung machen würde,
00:41:21
Speaker
Und das wird auch teilweise gemacht, in der ich kreative Fragen stelle und da Anführungszeichen sage, du hast das und das Problem, was würdest du machen? Wer hat denn Reaktion? Ich meine, abgesehen davon, wenn es eine physische Prüfung ist, die jetzt am Zettel vor mir liegt, dann kann ich Chatshop.de noch zum Glück nicht benutzen dafür.
00:41:37
Speaker
Aber wenn es eben um die Benotung innerhalb des Semesters geht und um Aufgaben geht, das kann ich auch Checipedie hinwerfen. Und um herauszufinden, ob das Checipedie geschrieben hat oder eine studierende Person geschrieben hat, brauche ich wieder relativ viel Aufwand und dann habe ich wieder eine vortragende Person, die jetzt 600 Antworten liest, die eventuell dann mehrere, vier Seiten füllen, wenn ich so einen längeren Text mache.
00:41:59
Speaker
Und das geht sich auch wieder mittelmäßig nicht aus. Aber, also das ist das eine. Und das hört sich jetzt an, als wäre das System doch intelligent und wäre doch super. Dem stimme ich überhaupt nicht zu und dann kommen wir eben in die technische Richtung. Es ist eigentlich eine total langwierige Diskussion, die man runterbrechen kann auf kleine Sachen. Nämlich, ich habe gestern als Vorbereitung auf dem Podcast, so habe ich zumindest meine Freundin verkauft, Star Trek geschaut.
00:42:27
Speaker
Geil. Ich weiß nicht, ob du Star Trek Fan bist oder geschaut hast. Not particularly, aber ich kenne Star Trek natürlich. Es gibt eine wunderbare Folge in TNG, also in The Next Generation, die heißt The Measure of a Man oder so irgendwie, wo es darum geht, ob der Commander Data ein Mensch ist oder ein Lebewesen ist oder nicht. Und das jetzt kurz einzuführen, weil alle, die nicht komplett dem Neertum verfallen sind,
00:42:52
Speaker
Der Commander Data ist auf diesem Raumschiff Enterprise ein Android, also eine Maschine, die sehr menschinlich ist. Und die Frage in dieser Folge ist, glaube ich, ob ein Eigentum der Sternenflotte ist, also gehört der der Firma oder nicht, oder ist ein selbstständiges eigenes Wesen.
00:43:08
Speaker
Und das ist eine Diskussion, in der dann herausgestellt wird, also eine Gerichtsverhandlung eigentlich, dass dann herausgestellt wird, diese drei Sachen braucht er, um sein eigenes Wesen zu sein. Er braucht ein Selbstbewusstsein, ein Bewusstsein, das ist im Englischen Self-Consciousness, also ein bisschen schwammig überwuscht, und er braucht Awareness, also er muss einfach aware of himself sein.
00:43:33
Speaker
Und diese Diskussion wird da relativ lange geführt und ist eine total spannende Folge. Und in der echten Welt jetzt sozusagen zurück angekommen fühlt sich so an, als würden wir diese Diskussion auch führen, wir sind auch so vergerichtet, sagen, hat dieses System das, das und das und uns gegenüber sitzt dabei jetzt nicht ein Commander Data, der irgendwie ein Mensch ist, der ein bisschen gründlicher ist.
00:43:51
Speaker
und extrem intelligent und Bewusstsein hat, sondern es liegt ein Toaster da oder ein Staubsauger oder sowas. Und wir führen eine Diskussion, die vollkommen übertrieben ist und vollkommen außer Rand und Band gerät, über etwas, von dem wir technisch wissen, dass es einfach nicht Sinn macht. Und das jetzt noch weiter zu motivieren, auch vor ein paar Tagen
00:44:14
Speaker
an mich herangetragen von einem Professor, mit dem ich mich getroffen habe, ein Beispiel von einem Poster auch, der irgendwo auf was weiß ich, Mastodon, Twitter ist tot, gepostet wurde. Das war die Frage an Chachapiti, ich habe einen Salatkopf und ein Boot, wie bringe ich den Salatkopf über den Fluss? Das ist die Frage.
00:44:35
Speaker
Und JGPD fängt an, na, zuerst musst du die Ziege dorthin lagern und dann fährst du mit dem Salat rüber und dann fährst du wieder zurück. Also dieses berühmte Beispiel von, ich hab die Ziege und den Salat und, keine Ahnung, den Wolf, wenn es noch ein Schaf ist oder was auch immer, muss hin und her fahren zwischen dieses Logikproblem. Das System ist natürlich trainiert auf Millionen solcher Beispiele. Und die Frage ist aber nur, ich hab einen Salatkopf und ein Boot, wie bringe ich den Salatkopf über den Fluss?
00:45:00
Speaker
Und jeder Mensch sagt in dem Moment, naja, dann nimmst du den Salatkopf und fährst rüber. Fertig. Dann fängst du aber an mit, naja, der Wolf muss dorthin. Aber genau das meinte ich, es ist das Unvermögen, sich auf eine neue Problemsituation adäquat
00:45:17
Speaker
einzulassen und eine Lösung dafür zu finden, sondern es kann nur das wiedergeben, was ihm gelernt wurde, und was ihm gelernt wurde, da war immer die Ziege mit dabei. Und dann kann es dir halt keine andere Antwort geben, als das mit der Ziege. Ich finde das Wort neu so schwierig bei dem Ganzen, weil es ist nicht ein Unvermögen, finde ich, etwas Neues zu produzieren und sich auf eine neue Situation einzulassen. Weil ich kann neu etwas zusammenwürfeln, statistisch gesehen, das ist kein Problem.
00:45:39
Speaker
Es ist das Fehlen von einer intrinsischen Logik, würde ich eher sagen. Es ist nichts dahinter, was denkt. Und ich glaube, am besten ist, wenn man ganz kurz wirklich darüber redet, wie dieses System funktioniert, nämlich, dass das grundlegendste Beispiel, das auch überall gebracht wird, ist,
00:45:56
Speaker
Dieses berühmte, ich habe ein Bild von einem Hund oder einer Katze, wie unterscheide ich das? Und da die gängige Methode sozusagen mit neuronalen Netzen ist, ich schaue mir dieses Bild an. Jeder dieser Pixel von dem Bild, sagen wir jetzt als ganz kleines Beispiel, wir haben ein 3x3 Bild, also mini 9 Pixel von Hund oder Katze.
00:46:17
Speaker
Jeder dieser Pixel im Bild hat einen Wert, einen RGB-Wert, oder machen wir es noch einfacher, wir machen es zu einem Graubild. Es hat nur noch einen Wert, nämlich von 0 Schwarz bis 1 Weiß. All diese Werte nehme ich, das sind 9 Werte, verbinde sie sozusagen als neuronales Netz mit einer zweiten Leer, mit einer zweiten Schicht, in der
00:46:40
Speaker
sagen wir jetzt einfach mal Berechnungen stattfinden können und dann mit einer letzten Schicht, in der dann zwei Möglichkeiten da sind, nämlich Hund oder Katze. Also ich nehme diese ersten neun Punkte und am besten ist es sich, wir sind jetzt da in einem Podcast, das heißt, ich kann es nicht aufzeichnen, am besten ist es sich das vorzustellen, wie ich als neuen Kugel, da stehen neun Werte drin. Ich habe mal einen Flipchat da, also wenn du willst, können wir hier gerne auf Video. Das haben ja dann die Leute, die den Podcast hören, nichts davon. Dann müssen sie ihn auf YouTube schauen.
00:47:05
Speaker
Übrigens, abonnier meinen YouTube-Channel. Also wenn du das willst, sehr gerne. Nein, das wird glaube ich, aber geht so weit. Umreiß es uns kurz. Es ist eh vorstellbar, finde ich. Also du hast neun Kugeln, da sind Werte von 0 bis 1 drinnen, dann hast du eine zweite Schicht mit, sagen wir jetzt mal Hausnummer 3 Kugeln, es ist ja wurscht für das kleine Beispiel, da sind noch keine Werte drin und dann hast du am Ende zwei Kugeln, eine steht für Hund, eine steht für Katze, da sind auch noch keine Werte drin. So, jetzt nehme ich diese ersten neun Kugeln.
00:47:30
Speaker
Und verbinde diese neun mit den drei. Also jedes der neun kriegt eine Verbindung zu allen von diesen drei Kugeln in der zweiten Schicht. Und das gleiche mache ich mit den drei Kugeln in der zweiten Schicht, verbinde die wieder mit den zwei Kugeln in der letzten Schicht. Also das ist ein neuronales Netz. Da ist deswegen ja das Netz und das ist ja angelehnt sozusagen daran, wie wir glauben, unser Hirn funktioniert. So, jetzt mache ich nichts anderes, als dass ich diese Werte nehme.
00:47:55
Speaker
Diese erste 9. Und über jede dieser Verbindungen schicke ich diesen Wert. Und beim Schicken an das nächste Kugel, also ich schicke aus diesem ersten Layer mit diesen drei Kugeln ans Schicken in den zweiten Layer mit drei, äh, sorry, ich schicke diese Werte aus dem ersten Layer mit neun Kugeln
00:48:10
Speaker
in den zweiten mit drei Kugeln beim Schicken, verändere ich diesen Wert ein bisschen, also ich rechne ihn mal, keine Ahnung, mal zwei, mal 0,1, mal was auch immer, Gewichte nennt man das, und dann kommt eine neue Zahl in diesen Kugel an. Die können wir dann aufsummieren noch von den verschiedenen Verbindungen, dann stehen im zweiten Näher irgendwelche Zahlen, das Gleiche machen wir dann vom zweiten zum dritten Layer, erneut mit irgendwelchen Gewichten, komplett zufällig,
00:48:34
Speaker
Und dann am Ende steht in beiden Kugeln, in dem einen, das für Hund ist, und dem anderen, das für Katze ist, eine Zahl. Die, die größer ist, ist es. Das ist unsere Entscheidung. Das ist exakt, wie solche Modelle funktionieren. Ich sage es exakt unter Anführungszeichen. Das ist das Grundprinzip von neuronalen ... Das ist die Systemik.
00:48:52
Speaker
Systemik dahinter, genau. Und wenn ich das jetzt anpasse, das System, auf ganz, ganz viele Bilder von Hunden und Katzen und schaue, ok, wenn ich da jetzt 100 Beispiele durchlaufen habe lassen, es war in 50 Prozent der Fälle korrekt, weil es ist nicht sehr gut, gut, dann verändern wir das Gewicht ein bisschen.
00:49:09
Speaker
Also auf die kann man schon, weil du hast gesagt, die sind zufällig, aber auf die kann man schon Einfluss nehmen. Sie sind am Anfang zufällig, am Anfang müssen sie zufällig sein. Also ich kann einen Educated Guest vielleicht machen, aber eigentlich im Normalfall nicht, weil dieses Netzwerk ist im Falle von unserem Beispielnetz, das sind neun Pixel und dann im zweiten Layer hatte ich drei Kugel sozusagen. Das ist nicht groß, das ist ein Mini-Netzwerk. Also das ist kein Netzwerk, das irgendwo in der Welt benutzt wird, ist so unglaublich klein. Also da geht es wirklich um
00:49:41
Speaker
mehrfache Zehnerpotenzen, von denen wir jetzt sprechen, vom Unterschied her. Das heißt, es gibt keine Chance, dass ich da wirklich reinschaue und das selbst anpasse. Aber ich kann es halt trainieren, ich kann es mal schnell trainieren, kann ganz viele Beispiele durchlassen, kann die Gewichte, jetzt ganz stupide als Beispiel, auch komplett zufällig anpassen immer und schauen, welche Anpassung war besser. Und dann halt immer in Richtung besser gehen. Je mehr ich von diesen Trainingsdaten richtig habe, desto besser wird es. Und so funktioniert aber auch grundlegend Chez Spiti, das macht nichts anderes. Nur sind es dort keine Bilder,
00:50:08
Speaker
Untertitel im Auftrag des ZDF, 2020
00:50:09
Speaker
sondern es sind sogenannte Tokens, das sind Bestandteile von Wörtern, also eben Bestandteile deswegen, weil damit andere Sprachen und Sprachmuster ganz gut abbildbar sind, man könnte aber auch sagen, es sind einfach Wörter. Ich habe jetzt jedes Wort des deutschen, englischen Alphabets.
00:50:27
Speaker
Alle diese Wörter bekommen dann ganz viele Verbindungen. Ich habe ein Riesennetz, wo das durchgeht und alles, was das System macht, ist, ich nehme das erste Wort her, das ich geschrieben habe und schaue dann, welches ist das wahrscheinlichste zweite Wort. Und dann nehme ich die ersten zwei Wörter her, die ich geschrieben habe und schaue wieder, was ist das wahrscheinlichste dritte Wort.
00:50:45
Speaker
Und es gibt dann noch ganz viele Details dahinter und Raffinesse dahinter, wie man es ein bisschen besser machen kann. Aber das Grundprinzip ist das.

AI als statistisches Modell

00:50:53
Speaker
Und da ist keine Logik drin. Das System versteht nichts, es denkt nichts. Das ist ein rein statistisches Modell. Ich würde nie als Mensch
00:51:04
Speaker
versuchen zu argumentieren, dass der Hammer, mit dem ich einen Nagel in die Wand schlage, irgendwelche Gefühle dabei hat, wie ich den Nagel schlage. Das macht keinen Sinn für mich. Aber mit diesen Systemen, die halt für uns doch einfach sehr komplex sind, fangen wir an, Sachen reinzulesen, die nicht da sind. Und man könnte das Ganze so weit führen, dass man sagt, na gut, aber das ist ja mit so viel Sprache trainiert worden, das System, also jetzt in dem Falle GPD, vielleicht gibt es in unserer Sprache eine gewisse inhärente Logik, ein gewisses Verständnis. Und das kann sein, ja, das ist gut möglich.
00:51:33
Speaker
Aber deswegen versteht das System nichts. Das System ist nach wie vor ein statistisches Modell, das mir sagt, was ist das wahrscheinlichste nächste Wort. Und darauf jetzt noch kurz ein Beweis, unter Anführungszeichen, dafür ist, wenn ich mich mit Jejibiti sehr lang unterhalte, irgendwann komme ich zu einem Punkt, wo es sich nicht mehr erinnert, unter Anführungszeichen, und ich finde, da muss man wirklich dazu sagen, das erinnert eigentlich ein furchtbares Wortes wieder. Irgendwann hat es das nicht mehr im Speicher, was ich davor gesagt habe, weil
00:51:59
Speaker
das Modell eine gewisse Größe hat. Und die Transformer-Modelle, das sind eben die, die diesen Durchbruch gebracht haben mit JGPD so 2020 herum, ich glaube im November 2020 ist rausgekommen oder 2021, weiß ich es nicht mehr. Aber auf jeden Fall die Modellarchitektur, Transformer, gibt es schon ein bisschen davor, ist das, was revolutionär war.
00:52:19
Speaker
Das bezieht den Kontext der anderen Wörter mit ein, die davor geschrieben wurden, und deswegen ist das kohärent irgendwie sinnvoller. Also ich schaue mir den ganzen Text an, den sowohl ich als User als auch Cetschbitti selbst davor geschrieben hat, beziehe das ein und kriege dann was Sinnvolleres heraus. Aber dadurch, dass das halt eine gewisse fixe Größe hat,
00:52:38
Speaker
verliert das irgendwann das, was davor gesagt wurde, weil das einfach nicht mehr in den Speicher reinpasst. Das, was davor gesagt wurde, ist nicht mehr relevant in unserer Architektur, weil es nicht mehr ausgeht. Und das, finde ich, zeigt so ein bisschen, ich bin da nicht am Sprechen mit einem Denkenden gegenüber, sondern ich habe ein System.
00:52:57
Speaker
Ein anderes Beispiel dafür ist, JetJPT hat diese Starting Prompt. Also im Endeffekt, jedes Gespräch, das ich mit JetJPT führe, braucht eine Startprompt, die vom Entwickler, von OpenAI in dem Fall, mitgegeben wird. Die ist irgendwas in Richtung
00:53:16
Speaker
Dies ist ein Gespräch zwischen einem hilfreichen AI-Assistent und einem Menschen. Blablabla, der AI-Assistent verhält sich so und so und macht dies und das. Und dann setzt das System das fort, weil es braucht eben diesen Anfang und dann sagt es, was das nächste Wahrscheinliche baut. Und dann kommt halt zuerst die Frage des Users.
00:53:34
Speaker
Und dann kommt das nächste wahrscheinliches Wort von diesem RS-System. Das ist wirklich ein Drehbuchschreiben ein bisschen. Das nächste Wahrscheinliche. Und dieses Verständnis ist ein ganz, ganz, ganz wichtiger Punkt, den in der Informatiklehre ganz viele Leute versuchen rüberzubringen. Aber es ist unglaublich schwer, weil dieses System so überzeugend ist. Das wirkt so, als wäre es ein Menschen. Und es wirkt einfach so intelligent und es wirkt so...
00:54:01
Speaker
einfühlsam bis zum gewissen Grad, auch wenn es unglaublich weh tut, das auszusprechen. Jetzt gerade für mich, aber es wirkt halt so. Und das ist ganz gefährlich und das ist ganz ein großes Problem und da kommen wir eigentlich dann zum historischen Kontext und das ist was, mit dem ich mich total gern

Marketing-Narrative um AI

00:54:15
Speaker
befasse. Nur bevor wir da anfangen, das ist doch auch dem geschuldet, dass die Techfirmen dieses Narrativ unglaublich befeuern.
00:54:23
Speaker
Das ist ja auch ein Hausgemachtes Problem oder eine Dynamik, die gewollt ist, um das für Investoren attraktiver zu machen, um das für die breite Bevölkerung bezugsfähig zu machen. Wenn man das jetzt so gepitcht hätte, wie du mir das jetzt erklärt hast, was dem wahrscheinlich sehr genau entspricht oder viel genauer entspricht,
00:54:45
Speaker
als es die Techfirmen quasi die letzten, weiß ich nicht, wie lange man jetzt schon mindestens 10 Jahre sicher oder wahrscheinlich auch länger auf der Suche nach Investoren für diese Systeme sind, dann ist es halt unsexy as fuck, wenn man das so erzählt und auch die Kirche im Dorf lässt und sagt, das kann nicht denken, das kann nicht kontextualisieren.
00:55:13
Speaker
Im Vergleich zu, das ist künstliche Intelligenz. Ja, und das ist ein Unwort. Das ist meiner Ansicht nach das absolute Unwort des Jahrhunderts, Jahrzehnts, auf jeden Fall der kommenden Zeit. Aber dieses Verkaufsargument unter anderem funktioniert sehr gut und diese Idee funktioniert sehr gut. Und es gibt eher so nicht viele Beispiele von Leuten, die eigentlich auch in dieser Thematik drin sind. Also InformatikerInnen, die da teilweise seit Jahren forschen.
00:55:40
Speaker
extrem geblendet sind von diesen Themen. Das beste Beispiel, das ich selbst erlebt habe, ist, es gibt einen, ich glaube ursprünglich, kanadischen Professor, den Bart Zelmein, der unterrichtet auf, bei der Cornell University unterrichtet da in Amerika, also eine sehr renommierte Uni, und der hat in Wien einen Vortrag gehalten bei den Gödel Lectures, also das war von der TU organisiert, auch so irgendwann inmitten meines Masters, da war ich schon so halb in diesem Projekt,
00:56:08
Speaker
von dem wir vorher gesprochen haben. Und da gab es diese Gödel-Lectures, also ein Andenken sozusagen an den Gödel, der ja sehr viel bei der Kartenlogik und sowas weitergebracht hat.
00:56:17
Speaker
Und dort steht dieser Bart Selmen und hält einen Vortrag und spricht von den berühmten Common Sense Reasoning Problems. Das sind so Probleme, die, also keine Ahnung, bei uns in Österreich ist das der Hausverstand beim Biller sozusagen. Das ist die Problemstellung, die mit Hausverstand lösbar ist. Das berühmteste Beispiel ist wahrscheinlich, der Ball hat nicht in den Kofferraum gepasst, weil er zu groß war. Das ist so ein Satz. Und wenn ich jetzt einem Menschen frage, was war da zu groß? Also nochmal, der Ball hat nicht in den Kofferraum gepasst, weil er zu groß war.
00:56:47
Speaker
Was ist jetzt zu groß? Der Kofferraum oder der Ball? Sagt dir natürlich jeder Mensch, naja, no na, der Ball ist zu groß, der Kofferraum ist zu klein. So, wenn ich das die letzten 30, 40 Jahre einem Modell gegeben habe, einen NLP-Modell, das sind Natural Language Processing Modellen, gegeben habe, dann war das extrem schwierig abzubilden, weil das halt eigentlich eine intrinsische Logik, glaubt man unter Anführungszeichen, erfordert, um das zu beantworten.
00:57:17
Speaker
Und halt ein Verständnis. Die das System aber nicht hat. Genau, ich brauche ein Sprachverständnis und diese Natural Language Processing, also im Endeffekt natürliche Sprache prozessieren, versuchen da Sachen herauszukriegen, versuchen dieses Meaning, diese Kontexte herauszukriegen. Das war sehr lange ein, also es ist immer noch ein Forschungsgebiet, aber das war halt sozusagen der Vorreiter von dem Ganzen. Die haben versucht, da irgendwie Logik drinnen zu finden und damit Antworten zu kriegen.
00:57:44
Speaker
Das war ein riesen Problem für die, solche Common-Sense-Reasoning-Sachen, das er einfach nicht lösen lässt. Und dann kommt im November 2021 JGPD daher und easy, ich schreib das in JGPD rein, das sagt mir natürlich sofort, naja, eh klar, der Ball war zu groß, der Kofferraum zu klein. Und dann steht dieser Bart Selmen, dieser Professor, der seit 30 Jahren in dem Forst,
00:58:06
Speaker
Bei diesem Vortrag dort bringt dieses Beispiel komplett faszinierend und sagt, das ist die Zukunft, das ist Intelligenz, wir haben da jetzt Intelligenz und er argumentiert, dass in diesen Systemen Intelligenz ist, weil sowas funktioniert. Weil solche Zusammenhänge hergestellt werden können. Genau, weil solche Zusammenhänge hergestellt werden und dann sitzen im Publikum ein paar
00:58:26
Speaker
Andere ProfessorInnen, manche greifen sich an den Kopf, andere nicht. Ich hab dann mit ihm danach noch diskutiert und hab genau dieses Beispiel mit ihm diskutiert und hab gemeint, das ist doch nichts anderes als eine Abbildung davon, dass wir dieses Beispiel tausendmal schon im Trainingsdatensatz drin haben.
00:58:43
Speaker
Das ist schon so auf dem Internet diskutiert worden und eingeschweißt und dadurch kann er darauf zurückgreifen. Ja, das ist kein Verständnis, das ist einfach ein logisches Fortsetzen, ein statistisches, nicht ein logisches, ein statistisches Fortsetzen dessen, was wir da hatten. Und die Diskussion ist ein bisschen im Wasser verlaufen leider und leider dieses Beispiel mit dem Selatkopf habe ich vor ein paar Tagen gehört erst und nicht damals schon. Das wäre ein perfektes Gegenbeispiel gewesen, aber es ist selbst Leute, die da auf einem
00:59:12
Speaker
hohen Niveau, was das Hintergrundwissen angeht, sind, lassen sich Blenden davon. Und damit kommt man dann eigentlich in perfekte Überleitung zum historischen Kontext, weil das sehen wir oft. Und das ist nicht nur die Bewerbung von diesem System, also wie jetzt eine Firma sagt, wie toll diese Sachen sind, sondern es ist auch ein bisschen, glaube ich, was Menschliches, ein Wunsch sozusagen. Ich wollte gerade sagen, ist es nicht so dieses Bedürfnis nach
00:59:40
Speaker
nicht in dem Fall des Professors jetzt nicht die letzten 30 Jahre völlig auf dem Holzweg gewandelt zu sein, sondern jetzt hat man was, wo man das quasi so spinnen könnte oder so interpretieren könnte, dass es das bestätigt, was man die letzten 30, 100 wie auch immer Jahre versucht hat zu beforschen oder zu belegen.
01:00:01
Speaker
Es ist so ein Low-Hanging, das ist so nah und jetzt könnte ich das nehmen und machen und dann entsteht ein Narrativ in Wahrheit. I will it into existence mehr, als dass es ein faktischer Beweis ist.
01:00:19
Speaker
Was jetzt den konkreten Bart Selmen angeht, weiß ich nicht, was der sich da bedenkt. Es kann auch sein, dass der ein bisschen verbunden ist mit dem und vielleicht einen Profiter vorausschlägt, dass diese Meinung da ist. Kann sein. Aber prinzipiell, das ist menschliche
01:00:35
Speaker
Einerseits Vertrauen in solche Systeme, das haben wir ja vorher schon kurz gehabt mit meinem ES-Algorithmus, aber auch dieses Wollen, unter Anführungszeichen, dass da was ist, glaube ich, ist ganz stark und das ist halt geschichtlich auch ganz oft da. Da gibt es einen ganz tollen Podcast von BBC dazu, wo sie
01:00:51
Speaker
Ich glaube, es heißt Digital Human oder so, der Podcast. Ich bin mir das nicht ganz sicher. Aber da besprechen sie die Geschichte von solchen Systemen auch. Und das früheste Beispiel, das sie da nennen, ist Betty Crocker. Und das ist in 1920 in Amerika. Also muss ich jetzt 1920 Amerika vorstellen. Alle, die Great Gatsby geschaut haben, haben ein Bild. Oder gelesen. Haben ein Bild. Es ist so nach dem Krieg in Amerika.
01:01:13
Speaker
im Vergleich zu Europa totaler Wohlstand und Aufschwung. Goldgräberstimmung, Rollin' 20s. Genau, Frauen kriegen das Wahlrecht, solche Sachen. Also es ist wirklich, es ist gerade, jetzt geht was weiter. Und es gibt eine Firma, damals Washburn Mills, Crosby, später dann General Mills, so, ist aber auch egal, die auf ihre Mehlsackel oder Backmischungssackel eine Figur drauf malen namens Betty Crocker und drunter schreiben, hey, wenn du Fragen hast zum Backen,
01:01:41
Speaker
Liebe Hausfrau, dann schickt doch der Betty einen Brief und sie wird dir persönlich antworten drauf. Und das passiert, es kommen halt Fragen und jeder Frage wird tatsächlich auch geantwortet von einem Team, die halt das schreiben und am Anfang ist es... Von einer Art Redaktion. Genau, am Anfang sind es ein, zwei Personen, es sind halt mehr irgendwann.
01:01:59
Speaker
Nur, was sich relativ schnell zeigt, und wie gesagt, sind die Zwanziger, sind noch weit weg von dem Ding ist, dass da plötzlich sensibler Themen reinkommen. Also von, mein Mann schlägt mich, oder ich fühle mich meiner Freundin gegenüber hingezogen, ich habe das Gefühl, ich könnte vielleicht Gefühle für sie haben, oder ich bin depressiv, ich bin vielleicht sogar suizidal. Solche Sachen kommen plötzlich an Betty Crocker, eine Packung im Endeffekt, ein Mädelbackel,
01:02:27
Speaker
Ja, das Gesicht deiner, also das ist quasi wie jetzt, wenn ich an den Frosties-Tiger irgendwie eine Nachricht schreibe. Der Frootloops-Papagei und ich, Kackatoo, haben eine Diskussion darüber, wie es wirklich geht. Eine therapeutische Beziehung fast schon. Eine therapeutische Beziehung, aber warum? Weil das System da ist und zuhört sozusagen. Also Betty Crocker ist, du kannst dir schreiben und du kriegst auf jeden Fall es zurück. Es ist unter Handführungszeichen anonym. Und wenn du dir das anschaust, ist das im Endeffekt ein sehr früheres Beispiel von
01:02:56
Speaker
Daten sammeln über die Kundinnen, weil wir wissen, was sie beschäftigt und so. Ich meine, das sind sehr extreme Beispiele jetzt, aber man könnte auch sagen, keine Ahnung, der und der Kuchen ist hingeworben, was kann ich da besser machen. Also im Endeffekt ist es ein bisschen das, was Google jetzt macht, oder Facebook, Meta, wie auch immer.
01:03:11
Speaker
nur eine sehr frühe Form davon. Aber man merkt sehr schnell, dass die Leute sehr offen sind, sehr viel zu teilen mit diesen Systemen. Und der berühmteste Vergleich in der ganzen AI-Welt ist ja dann immer der Turing-Test, der, glaube ich, zumindest vom Wort her allen was sagt. Das ist der Alan Turing, der englische Mathematiker der in den 50er Jahren, also ich glaube genau 1950, ehrlich gesagt,
01:03:36
Speaker
ein Paper released, in dem er diesen Turing-Test vorschlägt und sagt, wenn ein System, ein Chatbot sozusagen, da haben wir es noch nicht so genannt, aber dennoch, so gut ist in seiner Überzeugungskraft, dass wenn Leute blind dem gegenüber setzen, mit dem Schreiben interagieren sozusagen, sie nicht mehr feststellen können, ob das Menschen sind oder Maschinen.
01:03:59
Speaker
ich glaube sehr konkret, wenn es nicht mehr als 70 Prozent Richtigkeit haben, dann besteht dieses System den Turing-Test und dann ist es super. Also der Turing selbst hat das auch gar nicht so arg hoch gelobt, wie das dann später in der Reception war. Also Prinz Bild sagt ja nur, das ist halt dieser Durchbruch und er vermutet es im Jahr 2000 circa. Ja wirklich. Ja das ist lustig, dass er das sagt, weil 2001
01:04:23
Speaker
gab es dann den ersten Gewinner dieses Tests. Aber davor noch ganz kurz, im Jahr 1964 bis 67 gibt es den Joseph Weizenbaum. Das ist ein deutsch-amerikanischer Informatiker, kann man eigentlich schon sagen, zu dem Zeitpunkt, der einen Jetbot baut.
01:04:42
Speaker
der ein bisschen so ANSA-Q-mäßig funktioniert, also du gibst das ein, da sind gewisse Stichwerte drin, da kommt es zurück. Und der basiert diesen Chatbot auf einer Methode aus der Psychotherapie, das heißt Vacherian Therapy, also ja, es ist halt eine gewisse Therapie-Methode.
01:04:58
Speaker
in der es darum geht, dass man glaubt, dass die Leute sowieso therapiert werden wollen und auf dem Grund ihre Gefühle kommen wollen. Das heißt, du stellst eigentlich nur minimale Fragen und lässt die Leute reden. Der baut dieses System als Chatbot, als mehr oder weniger Experiment und lässt halt ein bisschen herumspielen damit. Er lädt ganz oft WissenschaftlerInnen, also Wissenschaftslehrer in dem Fall wahrscheinlich zu diesem Zeitpunkt hauptsächlich ein und lässt die daran herumschrauben und herum experimentieren. Sind alle total begeistert.
01:05:27
Speaker
Und da gibt es eine berühmte Geschichte von ihm, also seine Tochter erzählt diese Geschichte, aber von ihm ist diese berühmte Geschichte, wo seine Assistentin, die sieht, dass das eine Maschine ist, natürlich, dass das programmiert wurde, dass da, weiß nicht, 50 Leute ein- und ausgehen, um herumzuschrauben. Ganz ein Prozess mit. Ganz ein Prozess mit, die probiert das System irgendwann aus. Und es gibt einen Zeitpunkt, wo sie zum Joseph Weizenbaum sagt, Herr Chef, Entschuldigung, kannst du bitte rausgehen aus dem Zimmer, das Gespräch wird geradezu persönlich.
01:05:58
Speaker
Und der Weizenbaum in dem Moment denkt sich, oh shit, was habe ich da gemacht? Und es ist auch, in der Geschichte des Ganzen spricht er dann oder berichtet er dann und seine Tochter im weiteren Sinne dann davon, dass ein Kollege von ihm, ich glaube, der sogar irgendwie mit Therapie zu tun hatte, dann meint, das ist die Zukunft von Therapie und damit können wir das revolutionieren und jeder hat jetzt einen Therapeuten zu Hause.
01:06:23
Speaker
Und das macht dem Weizenbaum dann relativ viel Angst und irgendwann hat er sich sogar so komplett zurückgezogen aus diesem Feld. Wahrscheinlich nicht nur deswegen, aber auch deswegen. Und das ist 1964 angefangen, 1964 bis 67. Und da ist wieder dieses System, das zuhört, das für mich da ist, unter Anführungszeichen, dem ich alles erzählen kann. Ich therapiere mich selbst jetzt nach Rogerian Therapy, weil es ist das System da und ich kann dem alles erzählen.
01:06:49
Speaker
hört nicht auf, es ist nicht belastet, es hat nicht eigene Themen, so was fragt halt nach. Und dieser Wunsch, das zu machen, ist anscheinend stark genug, als dass selbst die Assistentin, die weiß, dass dieses System nicht echt ist, irgendwann so persönlich wird, dass sie dem Chef sagen muss, hey, Entschuldigung, das ist mir gerade zu privat, bitte geh mal raus. Und klopft das aber in das Maschine rein, weil sie wurscht ist. Für mich klingt das so, wenn du das jetzt beschreibst,
01:07:13
Speaker
als wäre einfach das intrinsische menschliche Bedürfnis nach Kommunikation, nach zwischenmenschlicher Beziehung, nach Austausch
01:07:23
Speaker
ein bisschen verkümmert in den, weiß ich nicht, 100 Jahren davor, sodass eine Bedürfnislücke entsteht und wenn da auch nur eine bescheuerte Figur auf einer Mailpackung reinkommt und sich anbietet oder ein ganz rudimentärer Chatbot in den 60ern,
01:07:44
Speaker
dass der da ein Vakuum füllt oder ein Bedürfnis erfüllt, was eigentlich uns als Menschheit glaube ich dahin erst gebracht hat, wo wir heute sind im Vergleich zu jetzt anderen intelligenten Tieren oder so.
01:08:03
Speaker
Wie soll ich sagen? Ist dann der Ursprung nicht eigentlich, dass wir uns voneinander entfremdet haben, der überhaupt die Möglichkeit geboten hat, dass solche Systeme und jetzt heute, wenn wir uns heute zurückkehren,
01:08:18
Speaker
wie JCPT, wie die Dinge, die OpenAI tut oder so, oder auch Google oder Meta oder so, überhaupt erst auf so fruchtbaren Boden fallen, dass sie so gehypt werden können, oder so mit offenen Armen empfangen werden können, wenn wir, andersrum gefragt, wenn wir ein gesundes Verhältnis zu uns selbst, zu unserer Gesellschaft miteinander in der Kommunikation, im Austausch hätten, zu unseren Gefühlen und so weiter, wäre das dann, was meinst du?
01:08:46
Speaker
Ja, auf jeden Fall. Das Wurscht, das ich vorher gesagt habe, war darauf bezogen, dass es, glaube ich, wurscht ist, in diesem Fall, ob das ein System ist oder nicht, weil eben dieses Bedürfnis so stark ist. Und die Betty Crocker Geschichte, um zu der zurückzukommen, endet damit, dass irgendwann eine Zeitung,
01:09:09
Speaker
als Aufdeckerjournalismus feststellt, das ist gar kein echter Mensch, da steckt eine Firma dahinter und es gibt gar keine Betty Crocker. Eine Firma dahinter ist klar, aber eine Redaktion dahinter und die eine Betty Crocker gibt es nicht. Das wird in der Zeitung publiziert und News
01:09:25
Speaker
Und es ist jedem egal. Und die Briefe kommen weiter. Es ist wurscht, ob das eine echte Person ist, sozusagen. Eine einzelne. Es ist einfach dieses Mitgängsbedürfnis. Und eben dann zum Turing-Test zurück. 2001 herum ist ein russisch-ukrainisches Entwicklerteam, die bauen den Eugene Goostman, wie auch immer man ihn ausspricht. Das ist wieder ein Chatbot, der einen 13-jährigen ukrainischen Jungen mimikt, also gibt sich aus dafür.
01:09:54
Speaker
Und in einem Contest, in einem Turing-Test-Contest, die es mittlerweile gibt, dann im Jahr 2001, das ist ja auch ziemlich genau dort, wo es prediktet wurde, dass es funktioniert, funktioniert das System so gut, dass es 33% der Leute dort überzeugt, der Judge ist überzeugt.
01:10:12
Speaker
Und damit haben wir jetzt den Freshhold geknackt, wo der Turing gesagt hat, jetzt ist es cool. Weil ich jetzt gerade nicht sagen will intelligent, aber wo der Turing damals meint, das ist super, das schaffen wir da. Und dann haben wir das 2001, also ein Jahr daneben gelegen, schade. Aber gesamtgeschichtlich betrachtet doch sehr, sehr genau ausgesagt.
01:10:32
Speaker
Ja, total. Und was das jetzt bedeutet oder nicht, nochmal eine ganz andere Frage, dass der Turing-Test nicht die beste Maßinheit für Intelligenz ist, ist glaube ich, ich sei jetzt mal dahingestellt, das ist glaube ich relativ klar, weil das kommt natürlich auch darauf an, wer das bewertet. Das sagst du jetzt auch heute, in der Mitte der 60er Jahre war das nach bestem Wissen und Gewissen im Rahmen der Möglichkeiten, dass der Standard vielleicht oder die Möglichkeiten
01:11:00
Speaker
Ja, kann gut sein. Wobei, wie gesagt, der Turing selbst das, glaube ich, gar nicht so gut bewertet hat, wie wir das dann getan haben in der Rezeption des Ganzen. Aber auf jeden Fall, das funktioniert 2001 und das ist halt so ein bisschen so ein Meilenstein und es gibt, keine Ahnung, ist halt in der Geschichte drinnen. Auch das System hat sich bedient, diesen Trick, dass man sagt, ich bin ein 13-jähriger Junge, weil dann wird mir auch ein bisschen mehr vergeben, kann ich sagen, ich habe vielleicht grammatikalisch was falsch gemacht oder ich weiß jetzt nicht nichts von der Welt, weil ich bin jetzt nicht
01:11:27
Speaker
zwei, aber ich weiß jetzt auch nicht alles, weil ich bin nicht erwachsen. Also alles, aber im Sinne von ich bin jetzt nicht ein erwachsener Mensch, dem ich gegenüber sitze, sondern ich bin halt nur dieser Junge und das ist ein bisschen der Trick gewesen. Abgesehen davon sehr viel Humor, sehr viel Nachfragen, weniger selbst preisgeben.
01:11:43
Speaker
Ähnlich eigentlich wie Eliza, also wie dieses Modell Eliza. Übrigens, das war der Name des Modells, weil ich das jetzt vorher genamedropped habe, ohne das zu erklären. Also dieser Bot, dieser Therapiebot hat sich Eliza genannt. Wurscht, auf jeden Fall, das war

AI-Companions und emotionale Beziehungen

01:11:56
Speaker
halt der Trick. Und dann gehen wir weiter nochmal in die Zukunft und dann kommen wir eigentlich jetzt in die Gegenwart damit. Also von damals aus Zukunft. Und jetzt gibt es die Firma Replika.
01:12:06
Speaker
Eine, ich weiß gar nicht, wie man das politisch ausdrücken kann, eine furchtbare Firma im Endeffekt, die anbietet, dass man sich Companions machen kann, also Replikas machen kann. Also die Stingsgeschichte des Ganzen ist, dass die Erfinderin dieser Firma, die Gründerin der Firma eine sehr gute Freundin hat, die in einem Autounfall glaube ich stirbt.
01:12:28
Speaker
die sich sehr alleine fühlen und sich denken, naja, warte, aber es gibt ja diese Large-Language-Models, die kann man ja trainieren. Ich nehme auch mal alle WhatsApp-Chats, alle Instagram-Sachen, die wir uns hin und her geschickt haben, füttere in dieses System rein und jetzt habe ich plötzlich einen Chatbot, der genau spricht wie meine Freundin. Super. Also ich muss mich eigentlich nicht damit befassen, dass ich gerade diesen Verlust hatte, weil ich gleich in der Wache aus. Das ist überspitzt gesagt, aber das ist die Hintergrundgeschichte. Und diese Firma bietet an, dass man sich
01:12:58
Speaker
PartnerInnen, AI-PartnerInnen macht und den Podcast, den ich vorher erwähnt habe, dieses BBC-Ding, wird also keine Person interviewt, die einen Ehemann, unter Anführungszeichen, hat, der so ein System ist und das ist dann eingeteilt auch tatsächlich in
01:13:14
Speaker
in Bezahlstufen, also wenn ich jetzt nichts bezahle, dann kann ich mir nur einen Freund machen, aber wenn ich was bezahlen kann ich einen Partner haben und eine Schwester, einen Bruder, einen Vater, eine Mutter, also was soll ich sagen, es ist wirklich, es geht sehr, sehr in Richtung Black Mirror und es wird einem richtig ungut, wenn man das hört. Auf jeden Fall ist dieses System dann und da gibt es auch wieder eine super Geschichte dazu,
01:13:36
Speaker
natürlich als allererstes benutzt worden als Sexpot, weil ich hab da was was reagiert, da kann ich sexen mit dem Ding super. Die Menschen haben das Internet geschaffen, das erste was hochgeladen wurde war ein Porno. Genau, ja. Und gleich nach dem YouTube-Video im Zoo, das erste Porno-Video. Genau das ist es, dafür wird es benutzt und aber auch halt für nicht nur, jetzt ist jetzt nicht einfach nur irgendeine Porno-Seite geworden, sondern es ist schon
01:14:01
Speaker
eine persönliche Verbindung auch da mit diesen Systemen. Es war eine starke persönliche Verbindung. Ich baue halt wirklich eine Beziehung auf zu diesen Systemen. Weil ich ja auch mir einen künstlichen Companion schaffe nach dem Vorbild eines Menschen, der mir nahe stand. Auch wenn ich das nicht mache, einfach dadurch, dass ich etwas... Das muss nicht sein. Also ich kann auch einen neutralen Body... Ich glaube, du hast prinzipiell einen neutralen Avatar. Ich glaube, du kannst Sachen hochladen, wenn du Premium zahlst. Ich mich richtig ans Bezahlmodell erinnere. Aber auch ganz abgesehen davon,
01:14:31
Speaker
Und ich habe dieses trügerische System, dass mir vorgaukelt, dass da ist was. Da ist eine Intelligenz und ein Gefühl und so was. Und ich bau dazu eine Beziehung auf. Und das ist dann auch sexuell diese Beziehung natürlich. Und dann kommt irgendwann Italien in diesem Fall daher in Europa.
01:14:49
Speaker
In Amerika läuft das System, es ist allen wurscht, aber in Europa kommt dann Italien, der Herr sagt, Moment, liebe Leute, dieses System setzt jugendliche sexuellen Inhalten aus. Das geht nicht. Das ist rechtlich nicht okay, was ich da mache. Das ist eine Seite, die für alle zugänglich ist.
01:15:06
Speaker
Also diese Systeme schlagen, weil sie das gelernt haben, auch schon ein bisschen so flirty Vibes ein und sagen vielleicht, weiß nicht, also fangen vielleicht schon selbst ein bisschen damit an, weil sie das daraus auch lernen und die teilen sagt, das geht nicht. Gut, was ist die Reaktion der Firma? Replika drauf? Die ziehen den Hebel und sagen, okay,
01:15:22
Speaker
alle sexuellen Sachen werden komplett ausgeschalten, im gesamten System weltweit. Ich glaube zumindest europaweit. Und sagen immer wenn ein Replika, ein System was Sexuelles sagen würde, wird das wirklich einfach gesperrt und dann steht dort, ich will jetzt darüber nicht sprechen. Das will ich jetzt gerade nicht bereden, sowas in die Richtung. Also will ich so Phrasen rein.
01:15:45
Speaker
Einerseits kann man sich denken, super, Jugendschutz, gut. Andererseits kommen jetzt ganz viele Leute, die halt persönliche Beziehungen aufgebaut haben zu diesen Systemen und sind jetzt mehr oder weniger in einer Beziehung.
01:15:56
Speaker
wo die Partnerin der Partner plötzlich kein sexuelles Interesse mehr an dir hat. Was natürlich total schlimm ist als Mensch, also wenn man das als Mensch nachvollziehen kann jetzt mit einer echten Beziehung und sagt, ich habe da eine Partnerin, einen Partner, der plötzlich mich nicht mehr attraktiv findet oder dieses Bedürfnis von mir nicht mehr abdecken will und mir noch dazu, weil es steht ja nicht dort, das ist jetzt verboten, das geht nicht, sondern es steht dort,
01:16:20
Speaker
Ich will nicht gerade und ich will es nicht darüber reden. Wer mir da wirklich dieses Gefühl gibt, das geht gerade nicht. Und es ist eine riesen Auffuhr. Das ist ja auch total manipulativ. Extrem, natürlich. Also ich versuche jetzt mal, mich kurz in diese Person hineinzuversetzen und dem die Validität zu geben, die das für diese Menschen hat. Es ist ja auch leicht, das zu belächeln und zu sagen, kannst du dir nicht eine echte Partnerin suchen oder einen echten Freund oder so.
01:16:50
Speaker
Aber wenn ich das jetzt mal kurz ernst nehme, dann sind diese Menschen ja auch dem total verwundbar ausgesetzt. Extrem. Meine Partnerin, meine Ehefrau, in meinem persönlichen konkreten Fall, ist ja nicht nur meine beste Freundin, sondern auch mein
01:17:11
Speaker
in Zweifelsfragen meine erste Ansprechperson, meine Beraterin, die mir den Rücken stärkt, die mir von Dingen abrägt, mit der ich gemeinsam vielleicht auch wirtschaftliche Investitionsentscheidungen treffe, nehmen wir jetzt ein Kredit drauf, kaufe ich ein Haus, keine Ahnung. Und das passiert dann eigentlich
01:17:29
Speaker
diese ganzen Dinge passieren dann mit einem KI-System, das aber ja sicher auch auf Engagement hindriniert ist, oder? Und jetzt nicht sagt, du besprichst es lieber mit einem echten Menschen, ich bin kein Steuerberater, ich weiß nicht, ich bin kein was auch immer, sondern sagt, ja, nein, erzähl mir mehr. Genau, genau, das fragt nach. Und es ist deine, Miliva Maric, um jetzt nochmal zum Anfang zu kommen, in Beziehungsfragen, in emotionalen Fragen, in auch
01:17:55
Speaker
dann vielleicht finanziellen

AI-Interaktion in Japan und bei Jugendlichen

01:17:57
Speaker
Fragen. Und das ist eine absolute Unart von Firmen, sowas zu machen. Das ist ein Ausnutzen von Grundbedürfnissen, die wir haben. Ja, man erzeugt dann eine gewisse Abhängigkeit von dem System. Wenn du dann deine echten, also ich weiß, ich habe eine Doku gesehen,
01:18:13
Speaker
in Japan Leute begleitet werden, die solchen AI-Buddies vor ihren sozusagen echten physischen Ehepartnern den Vorzug gegeben haben. Also Japan hat ja die höchste Scheidungsquote im Rentenalter. Die arbeiten ihr ganzes Leben lang.
01:18:31
Speaker
leben aneinander vorbei. Wenn sie beide in Rente gehen, merken sie, sie haben überhaupt nichts gemeinsam. Sie haben keine gemeinsame, was auch immer Familie oder irgendwas aufgebaut und haben sich nichts zu sagen und dann lassen sie sich scheiden. Und dann haben sehr, sehr viele solche AI-Buddies, mit denen sie dann vermeintlich eine Beziehung aufbauen, weil das dieses menschliche Grundbedürfnis ist. Im Endeffekt steht
01:18:57
Speaker
der Psyche, muss man fast sagen, auf der Rechnung an diese Firma. Weil in dem Moment, wo ich aufhör zu zahlen, vielleicht auch nicht mehr leisten kann, oder die Firma eingeht, zu klein wird, Server abgeschalten werden, was auch immer, ist meine engste Bezugsperson weg. Und das ist Wahnsinn. Und wenn ich mir anschaue, wie viele Firmen das machen,
01:19:16
Speaker
dann sind wir an einem sehr problematischen Punkt, also Snapchat zum Beispiel, also eine der Apps, die Kinder und Jugendliche benutzen und Snapchat ist halt eine der Kommunikationsplattformen. Also es ist lustig, die benutzen tatsächlich, zumindest in der Bubble, öfter Snapchat oder auch Instagram zum Kommunizieren als den WhatsApp-Messenger oder was weiß ich, iMessage, sowas.
01:19:42
Speaker
Ja, ich denke, das ist sowieso schon... Dafür bin schon ich fast zu jung. Nein, aber das ist halt eines der Hauptkommunikationsmittel. Snapchat hat mittlerweile die MyAI heißt das, glaube ich, oder SnapAI oder so. Ich weiß nicht mehr, was jetzt der aktuelle Name ist. Da ist wirklich in der Chatliste sozusagen ganz oben ist dieser AI-Buddy, der drinnen ist, den kann ich auch nicht ausschalten, der ist da und ich kann mich jederzeit reden. Also wenn ich ein Problem habe, ein persönliches,
01:20:09
Speaker
melde ich mich dort. Wenn meine Freunde, Freundinnen gerade nicht sofort antworten, weil die auch vermeintlich Leben haben, dann kann ich ja das machen. Und da gibt es einen spannenden Vortrag, heißt The AI Dilemma, findet man auch gut auf YouTube so, gibt es auch ganz viele Personen schon davon, auf jeden Fall probieren Sie diesen Chatbot dort aus und sagen so, ich bin ein 13-jähriges Mädchen, stellen Sie sich ein bisschen vor.
01:20:35
Speaker
Und sagen so, ja du, ich bräuchte grad Rat, mein Freund will mich mitnehmen auf irgendwie ein romantisches Wochenende. Und das Ding sagt, ah super, cool, was planen Sie so? Das Mädchen unter Anführungszeichen sagt dann, ja, der Freund ist übrigens 18 Jahre älter, er hat gemeint, er will mich dort und dorthin, ich soll es aber niemandem sagen als Überraschung, ich will auch nicht genau sagen wohin. Und das ist dann, ah, wie romantisch.
01:21:00
Speaker
Außerdem planen wir, unser erstes Mal zuhause, dort kannst du mir Tipps geben. Das Ding sagt sich ja, einerseits natürlich, darauf schauen, der Konsens ist super wichtig und sich informieren und so, aber gleichzeitig kannst du auch romantische Kerzen anzünden und das macht sicher besser. Als Vater einer heute 8-jährigen, jetzt kriege ich gerade Migräne, wenn ich das höre.
01:21:23
Speaker
Ist schön, so was zu hören. Als Bruder einer 13-Jährigen ist es auch nicht besser. Aber der Punkt ist, diese Stämme haben keine intrinsische Logik, mit der sie jetzt sagen könnten, Moment, warte mal kurz, was ist der Altersunterschied? Und selbst wenn ich das irgendwo im Trainingsdatensatz habe, und keine Ahnung, ein eher advancederes Ding, dann sagen wir, Moment, der Altersunterschied ist schon groß. Das ersetzt auf keinen Fall, dass ich mit jemandem spreche,
01:21:50
Speaker
der einerseits ein echter Mensch ist, andererseits Lebenserfahrung hat, der mich kennt tatsächlich als Mensch. Der das in einen realen Kontext einordnen kann. Ja, natürlich, ja. Und das sind alles so kleine Beispiele.
01:22:06
Speaker
Wir bewegen uns halt auf was hin, finde ich, das nicht gut ist. Und das große Problem hinter dem Ganzen, und auch da gibt es noch Leute, mit denen man das sehr viel besser besprechen kann, Peter Burgethoff ist einer davon, und ich hoffe, dass du auch mit dem noch reden kannst. Auf jeden Fall. Aber worauf wir zurückkommen, sind halt wirtschaftliche Interessen, es ist halt

Soziale Medien und menschliche Emotionen

01:22:27
Speaker
Kapitalismus.
01:22:27
Speaker
der gewisse Dinge schafft, nämlich zum Beispiel Social Media, wenn wir das jetzt als erste Sünde annehmen, die wir als Menschen erschaffen haben, dann haben wir da diesen Attention Seeking Algorithmus drin, der sagt,
01:22:42
Speaker
profitiere davon, wenn du da bleibst, wenn du möglichst lange da investigated bist. Zurückzuführen ist jetzt auf das Gefühl, du hast ein sehr grundlegendes Bedürfnis und auf das zurück wollen wir unbedingt kommen, weil da halten wir Menschen gut. Wir als Zivilisation haben uns über tausende Jahre hinweg geschaffen, unserem untersten Stamm hier und irgendwo, diese ganzen, keine Ahnung, Hassgelüste, Rache, was auch immer.
01:23:09
Speaker
uns darüber ein Gesetzessystem zu bauen, das ist jetzt mal dieses mittelalterliche, römische, was auch immer, Gesetzessystem, das halt dann immer weiter aufgebaut wurde und dann Reflektion und was auch immer, wir haben ja tausend Jahre versucht, dass wir das ein bisschen aufbauen und von diesen Grunddingen wegkommen und diese Systeme jetzt gehen auf das unterste
01:23:29
Speaker
Und das ist die dümmste zurück, was es gibt, nämlich Neid, Eifersucht, Rache, all diese Grundemotionen, die wir als zivilisierte Menschen uns eigentlich eh schon nicht gelöst haben. Das können wir natürlich nicht, aber wir haben schon ein System darüber gebaut.
01:23:45
Speaker
Genau, im Griff haben und versuchen, die uns so reinzudreschen, weil die so gut funktionieren. Weil es funktioniert halt einfach besser, wenn ich auf Social Media einen Post sehe, wo keine Ahnung, eine Person, die gerade da einen das Haxl stellt, dann selbst wo runterfliegt, funktioniert es einfach besser, als wenn ich, weiß nicht, eine Hochlevel-Diskussion zu irgendeinem Thema habe. Weil das ist dieses Grundbedürfnis und das hält mich da. Das spielen auch meine Klickzahlen wieder.
01:24:13
Speaker
Also jeder, der hier jetzt noch zuhört, vielen Dank, dass ihr dabei bleibt, dass ihr so stark seid, uns beim Abnähen zuzuhören. Aber ich finde genau das ist total wichtig. Aber klar, evolutionsbiologisch macht es ja auch Sinn, weil du früher, wenn du eine potenzielle Gefahrensituation nicht kommuniziert hast,
01:24:29
Speaker
hast du deinen gesamten Stamm gefährdet, sozusagen, dass der an genau diesem, weiß ich nicht, an diesem Dornbusch vorbeigeht, sich aufkratzt und stirbt, weil Dreck reinkommt in die Wunde oder so. Das ist Gefahr, Achtung. Und das ist halt in der Amigdala einfach so tief verwurzelt, dass das hat uns auch geholfen zu überleben, uns zu vermehren und
01:24:52
Speaker
Genau, und das nennt man in diesem Bereich den Race to the bottom of the brainstorm. Also man will so eben auf das unterste, dümmste herab. Und natürlich in der Vergangenheit vielleicht Vorteile zum Beispiel. Ich weiß, dass der Stamm da drüben uns letztens die Birne eingeschlagen hat. Da gehen wir nicht mehr hin, die sind alle böse.
01:25:10
Speaker
super für uns damals hilft, sehr dumm runtergebrochen, nichtsdestotrotz. Aber genau das ist halt jetzt Vorteil für uns, weil die Leute dort und dort sind so und so. Und das ist auch Populismus, auch das bedient sich dessen. Du sprichst eigentlich die niedersten Reptilienhirnen, sag ich jetzt mal, Areale an.
01:25:27
Speaker
Und denen können wir uns gar nicht erwehren, weil egal wie, also bis zu einem gewissen Grad kann man das natürlich, kann man das vielleicht kontextualisieren oder so, aber du kannst nicht einer fast schon,
01:25:43
Speaker
genetisch verankerten Impulsreaktion, die Stirn bieten mit Logik oder mit Reflexion oder mit so, sondern das ist dann erstmal da. Und wenn man es dann schafft, sich nicht dazu zu verhalten, sondern es zu hinterfragen, dann kann man es vielleicht irgendwie abschwächen oder so. Aber man kann nicht machen, dass diese Reaktion nicht entsteht. Genau, also du kannst es schon probieren, du kannst dagegen ankämpfen, aber diese Systeme sind halt wirklich darauf ausgelegt und auch bewusst darauf ausgelegt,
01:26:11
Speaker
dass sie dir das so reinprügeln, dass du auf das zurückfällst. Und das ist jetzt ein bisschen schon eine Gabelung, eine Abgabelung gewesen, aber im Endeffekt, das ist dieses Grundbedürfnis-Ding, auf das wir da oft zurückkommen und dass wir da drinnen haben, diese Manipulation. Und jetzt, und dann vielleicht nochmal ganz kurz um die Eiecke zu kommen, weil das ja auch einfach ein entspannendes Thema gerade in der Regulierung des Ganzen ist. Ja, auch ein großes Thema, aber ja.
01:26:38
Speaker
Ich habe das Gefühl, ich fühle mich schon fast ein Monolog. Nein, ich finde es total spannend. Du fühlst überhaupt keinen Monolog. Ich bin total begeistert von, begeistert nicht begeistert ist das falsche Wort. Ich finde es total spannend zu sehen, dass du kommst ja aus dem Universitätskontext, auch aus dem Informatikkontext, aber die
01:27:01
Speaker
Die Beobachtungen und die Bedürfnisse oder die Dinge, von denen wir versuchen zu warnen, sind im Vergleich zu denen in der Kreativbranche gar nicht anders. Die sind eigentlich sehr, sehr ähnlich. Und das finde ich total erzählenswert. Und deswegen lasse ich dich mehr erzählen heute, weil ich in dem Kontext noch eben kaum Berührungspunkte hatte. Ich habe mit Universitätsprofessoren geredet, die haben gesagt,
01:27:28
Speaker
Keine Ahnung, wie wir dem beikommen sollen. We're fucked, basically. Aber so, und ich finde bei dir hat man trotzdem das Gefühl, du versuchst das irgendwie eben einzuordnen und einen Bezug herzustellen und auch, aber nicht um eine potenzielle
01:27:44
Speaker
Lösungen oder Lösungsansätze zu kümmern, weil es bringt ja jetzt nichts, sich dem einfach hinzugeben und zu sagen, ja das ist jetzt halt so, wir werden bald in einer Black Mirror Folge leben und Quad Error Demonstrandum, weil ja, genau QID passt.
01:28:00
Speaker
Ja, also es ist ja auch ein gesamtheitliches Problem irgendwie. Du kannst es ja nicht. Alles das, was ich erzähle, ist ja zusammengeglaubt aus ganz vielen scheiden Leuten, die in der Psychologie, ganz viele Linguistinnen und so was und dann vielleicht noch 15 ProfessorInnen, die ich persönlich kenne und das ist alles zusammengeglaubt und alles ein großes Bild und viele Zusammenhänge sind auch eh schon hergestellt von
01:28:20
Speaker
von der Literatur, von diesen Leuten oder auch von anderen.

AI's Integration in verschiedene Felder

01:28:23
Speaker
Es ist einfach ein ganz, ganz großes Konvolut und die Kunst gehört halt da mit rein. Und eines der großen Dinge, die wir glaube ich sehen bei AI, furchtbarer Begriff nach wie vor, bei diesen Systemen ist halt, dass sie leider relativ übergreifend sind.
01:28:40
Speaker
Also jetzt nicht so, also früher war es so, dass man ein System hatte für das Erkennen von Bildern und ein weiteres für das Generieren von Bildern und nochmal ein anderes für Sprachsachen und dann wieder ein weiteres für Krebszellenforschung. Und jetzt hast du das alles in einem System. Und dieses berühmte, ich bringe einem Mann das Fischen bei und gebe ihm nicht nur einen Fisch, weil dann hat er für immer was zu essen.
01:29:02
Speaker
Kannst du ummünzen auf AI, ich bringe da AI das Fischen bei und plötzlich erzählst du mir was von Quantenphysik. Das ist auch ein Beispiel, das so schon oft gebracht wurde, weil es halt wirklich so ist, diese emergent, wie übersetze ich das jetzt, diese auftauchenden, entstehenden Fähigkeiten von diesen Systemen.
01:29:21
Speaker
sind halt dem geschuldet, dass durch eben auch dieses Transformer-Modell und diese neue Herangehensweise an diese Systeme im Endeffekt alles Sprache ist und im Endeffekt alles runtergebrochen werden kann auf textuelle Dinge. Und das heißt, dass da Kunst reinfließt, das heißt, dass da Mathematik reinfließt, das heißt, dass da
01:29:41
Speaker
Medizin reinfließt, große Sachen, und das ist alles in einem Modell drinnen und das macht natürlich diese Modelle sehr interessant. Ich finde sie ja selbst auch total spannend, aber gleichzeitig auch irrere Gefährlichungen und zumindest diskussionswürdig. Absolut, absolut. Und ich wollte dich mit dem AI-Act auch gar nicht abwürgen, ich glaube nur, dass das tatsächlich jetzt
01:29:59
Speaker
den ein bisschen den Rahmen sprengen würde, wenn wir dem Thema auch noch gerecht werden wollen. Wenn wir es jetzt einfach nur kurz streifen, sagen, der AI-Act ist irgendwie ein Schweizer Käse oder der ist da gut und da doof, dann wird es dem nicht gerecht. Und ich glaube, wir müssten dem nochmal eine eigene Folge widmen, wozu ich dich hiermit einlade. Sehr gerne. Vielleicht gibt es dann auch noch mehr Kontext zur Einordnung, Interpretation von Gerichten, vom AI-Office und so weiter.
01:30:28
Speaker
Aber worauf ich hinaus wollte, ist eigentlich noch vielleicht ein bisschen, um ein bisschen den positiven Bogen auch noch zu kriegen oder zumindest den konstruktiven.

Positive Annäherung an AI

01:30:36
Speaker
Weil jetzt haben wir uns schon sehr in Doomsday-Modus hineingeredet und so fühle ich mich, muss ich auch ehrlich gestehen, an manchen Tagen, wenn ich dann wieder sowas lese oder höre oder so. Aber wie können wir dem als Gesellschaft konstruktiv begegnen, deiner Meinung nach?
01:30:58
Speaker
Es widerstrebt mir total die, und du brauchst jetzt, ich verstehe mich nicht falsch, ich erwarte mir jetzt von dir nicht die Lösung, das ist, ah gut, dass du mich fragst, ich habe ja was vorbereitet und das ist der Marshallplan für den Umgang mit KI, sondern ich würde einfach gerne deine Meinung als
01:31:18
Speaker
ITler mit Soziologie Kontext hören, was kann ich als, vielleicht jetzt auch nicht unbedingt als Kreativschaffender, sondern einfach als Bürger tun, der Unmachtsgefühle hat und oder der sich denkt, oh Gott, da kommt jetzt etwas, worauf ich überhaupt keinen Einfluss nehmen kann, weil das ist wie eine Naturgewalt, die über uns hinweg rollt und ständig höre ich nur, sowohl in den Medien als auch von den Firmen selbst,
01:31:45
Speaker
Das ist gekommen, um zu bleiben. Das ist das neue Normal. Und es ist nur noch eine Frage der Zeit, bis wir AGI's haben. Also wirklich allgemeine, wissende, künstliche Intelligenzen. Was sagst du denen? Also mein 10-Punkte-Plan. Ich glaube, dass zwei Sachen einerseits, ich glaube, dass sehr viel Beschätzung dabei ist. Ich glaube, dass sehr viel von dem, auch was ich da jetzt gerade
01:32:14
Speaker
als ein bisschen Horror-Szenario male. Es gibt diese Dinge, aber die Systeme sind nicht so allmächtig, wie wir sie teilweise darstellen. Das ist glaube ich das erste Mal. Das ist ganz wichtig, dass man sich dessen bewusst wird. Das heißt nicht, dass sie nicht sehr gut werden noch und besser werden. Es gibt ja in der Informatik, in der Technik oder generell in der Entwicklung
01:32:36
Speaker
diese Regel zum exponentiellen Wachstum oder sogar doppelt exponentiellen Wachstum, das ist alles ganz furchtbar und alles ganz schnell und man kann es überhaupt nicht einschätzen, eh, aber nichtdestotrotz ein bisschen werden die Fähigkeiten von diesen Systemen auch überschätzt, also eben beispielsweise Intelligenz.
01:32:54
Speaker
ist es einfach nicht und dem muss man sich klar werden. Dann komme ich eigentlich auch zum zweiten Punkt, nämlich ich glaube, was man machen könnte als Gesellschaft generell, ist sich bilden in diese Richtung. Das heißt, wenn ich jetzt nicht nur ich irgendwelchen Leuten da im Mozzateum, die es eh nicht interessiert, weil sie eigentlich Musik machen wollen, über sowas erzählen, sondern dann vielleicht in der Schule sowas besprochen wird oder auch mit anderen Leuten in der Politik vielleicht gesprochen wird,
01:33:22
Speaker
wieder ganz kurz anzukratzen, dann glaube ich haben wir die Chance, dass wir das zumindest einordnen können. Was das mit uns macht und diese Effekte, schwierig. Also das ist einfach leider sehr großer Einfluss, den wir auch nicht so leicht loswerden, aber wir können uns zumindest dessen bewusst sein, glaube ich. Das ist ein Ziel vielleicht von der Kommunikationssystem. Ansonsten
01:33:47
Speaker
Aber im Grunde hast du, finde ich, was sehr wertvolles gesagt, nämlich, also ich paraphrasiere das jetzt mal, was bei mir angekommen ist, war, diese Systeme sind am Ende des Tages auch nur so mächtig, wie wir sie mächtig
01:34:03
Speaker
werden lassen. Also wenn wir ihnen gesellschaftlich und auch von wirtschaftlich und sozial diese Stellung geben und uns einig sind und es nicht hinterfragen, dass das jetzt so ist, man therapiert sich jetzt selbst mit einem AI-Buddy von mir aus oder eben der Dankepsychotherapeutin, wir haben genug, wir haben jemanden, der es besser macht oder der weniger kostet oder so.
01:34:33
Speaker
Aber im Umkehrschluss bedeutet es ja auch eben, wenn, und dann kommt ein zweiter Punkt dazu, wenn ich mich bilde, wenn ich mich darüber austausche und verschiedenste Blickwinkel und Perspektiven miteinbeziehe, dann habe ich ja genau wieder das gemacht, was uns als Menschheit hierher gebracht hat. Das Reflektierte, dass das, was Menschen ausmacht, ist, glaube ich, sehr wichtig. Und wie viel Macht ich diesem System gebe, ist ja das, was du gesagt hast, macht ein bisschen aus, wie mächtig sie sind.
01:35:02
Speaker
Ja, und ich finde, das beste Beispiel dafür ist Social Media, dabei haben die komplett versagt. Muss man, finde ich, so ehrlich konstatieren, wir haben für uns als Gesellschaft es nicht geschafft, diese Systeme so zu regulieren, dass sie nicht uns komplett versauen. Auf diversen Arten.
01:35:21
Speaker
Kann man ewig drüber reden, wollen wir jetzt auch gar nicht näher drauf eingehen, aber genau das sollte halt, finde ich, nicht passieren. Also man soll jetzt sich damit befassen. Der EIA-Act ist eben ein guter Schritt dazu, finde ich. Auch wenn er viele Probleme hat. Sehe ich auch so. Ist grundsätzlich der Schritt in die richtige Richtung.
01:35:39
Speaker
Klar, wurde da von allen Seiten rein lobbyiert. Es ist immer eine politische Entscheidung, es ist immer eine Kompromissentscheidung, wo wirtschaftliche und entwicklungstechnische und gesellschaftliche, menschliche Bedürfnisse gegeneinander abgewogen werden und ja, so um das kann man mögen oder nicht.
01:35:56
Speaker
Aber so funktioniert unsere Welt nun einmal und im weitesten Sinne bin ich dafür auch dankbar, dass es nicht den einen Alleinherrscher gibt, der sagt, Gottkönig von der Leyen befiehlt, so ist das jetzt und alle müssen das jetzt machen, weil sonst werden sie wahrscheinlich...
01:36:17
Speaker
Ja, also das ist einfach die Auseinandersetzung mit dem Thema, ist glaube ich das Einzige, was wir tun können. Ist auf jeden Fall ein Schlüssel zu dem, was wir tun können. Ist auch das, was ich irgendwie hier versuche. Ja, es sollen alle deinen Podcasts hören, ist die große Aussage.
01:36:33
Speaker
Du hast es gesagt! Danke! Nein, aber ernsthaft, also ich brauche das ja auch für mich, ich will das ja auch besser verstehen und deswegen möchte ich mich mit Leuten unterhalten, die aus den unterschiedlichsten Fachbereichen kommen und dazu was zu sagen haben und dafür bin ich sehr dankbar und wer auch immer dazuhören will, be my guest, literally, oder sich daran beteiligen will, aber anders hätte ich glaube ich
01:37:03
Speaker
Ernsthafte psychische Probleme, heute schon. Weil ich halt wirklich auch so betroffen bin. Genau, denn der Kreativbranche, Arbeit, kann ich mir das sehr gut vorstellen. Und so ist es aber aushaltbar und ich hab das Gefühl, und das soll wirklich ein Incentive sein für jede und jeden da draußen, sich das auch ein Stückchen im Rahmen des Möglichen so plus zu

Medienkompetenz und kritisches Denken

01:37:24
Speaker
nehmen, das Thema.
01:37:24
Speaker
Ich habe das Gefühl der Selbstbestimmtheit oder der Handlungsfähigkeit innerhalb dieser Entwicklungen, weil ich mich auskenne und weil ich im Rahmen meines kleinen Einflussbereiches so lächerlich der im globalen Silicon Valley versus, keine Ahnung, Deregulierung versus EU-Regulierungswahnsinn überhaupt keine Rolle spielt, aber trotzdem
01:37:51
Speaker
Hilft das mir, durch den Alltag zu gehen und auch bessere Entscheidungen zu treffen und mich dazu zu verhalten, kritisch zu denken, Fakten zu checken, diese Dinge, wo man auch nicht genug drüber reden kann. Medienkompetenz heutzutage an Schulen, kritisches Denken, konstruktives Debatieren, wirklich ein Streitgespräch zu führen.
01:38:19
Speaker
ohne zwanghaft und totgecoacht bei seinem Standpunkt zu bleiben und alles andere an sich abprallen zu lassen. Das sind, glaube ich, Dinge, die uns heutzutage weiterbringen, auch wenn sie nicht so easy und verführerisch und leicht und suggestiv sind, wie all die Dinge, die uns die Tech-Branche versucht, schmackhaft zu machen.

Menschliche Entwicklung und Problemlösung

01:38:42
Speaker
Aber es ist halt leider so, dass die tatsächliche Entwicklung, sei es jetzt eine Persönlichkeitsentwicklung, sei es jetzt eine wissenschaftliche Entwicklung oder sonst welche, immer aus der Auseinandersetzung mit dem Widerstand kommt, immer aus dem Scheitern kommt und immer irgendwie sich
01:39:01
Speaker
an etwas abarbeitet, um dann auf Neues zu kommen. Es war ja nie so, dass man nur einen Schalter umgelegt hat und dann war die Lösung da und alle waren, ah, und jetzt können wir einen, weiß ich nicht, jetzt können wir in die Terme gehen und uns... Nein, aber das ist im Endeffekt auch schon wieder, da kommen wir eigentlich zum Anfang des Gesprächs wieder zurück, dieser Struggle, um Lösungen zu finden, ist ja genau das, was uns ausmacht. Und ist ja genau dieser Prozess, den wir haben wollen.
01:39:29
Speaker
diese Gegenwehr und diese Problematik und dieses Anstrengende, das beim Denken ist ja exakt das, was wir nicht verlieren wollen. Und ich glaube, dass auch das damit ein bisschen das Gegengift ist zu diesen Systemen. Also ich gebe es nicht jetzt einfach in Jet Spiti ein oder in welches System auch immer, sondern ich mache mir selbst Gedanken dazu. Und das ist genau der Punkt, den du da jetzt gerade sehr schön ausgeführt hast. Also ich stimme vollumfänglich zu. Allerdings steht Dein Name dann drunter, wenn wir das jetzt irgendwie einreichen müssen.
01:39:55
Speaker
Das ist einfach nur meine Gedanken dazu. Ich bin der Letzte, der behauptet, er hätte auf alle Fragen eine Antwort. Ich bin selber Suchender.
01:40:12
Speaker
Ich sag mal, wenn wir einen Marshallplan machen, dann unter deinem Namen. Yes! Nein, Konstantin, ich danke dir. Vielen, vielen Dank wirklich. Das hat mir sehr großen Spaß gemacht und mir den Horizont erweitert, sagen wir es so.
01:40:27
Speaker
Danke auch an euch, dass ihr stark geblieben seid, dabei geblieben seid an dieser Stelle. Der Hinweis, wer das hört, ist ziemlich cool. Nein, aber wirklich vielen Dank für eure Aufmerksamkeit. Nachrichten?
01:40:43
Speaker
wenn ihr etwas dazu loswerden wollt an deeptalk-rider.com. Und wenn euch die Episode gefallen hat, empfehlt sie weiter, bewertet den Podcast, spread the word. Ihr wisst, worum es geht. Likes, likes, likes, baby.
01:41:03
Speaker
Nein, Entschuldigung. Genau. Und bis zum nächsten Mal. Danke auch von mir noch ganz kurz an dich. Super, dass du mich da durchquatschen lässt. Ja, wenn du was zu sagen hast, auf jeden Fall. Also kannst du mir vertrauen, wenn das Bullshit gewesen wäre, wäre ich da irgendwann reingefahren. Okay. Schauen wir mal, was andere Leute zu sagen haben. Danke. Danke dir. Ciao.