Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#75 - Wie du mit datengetriebenen Experimenten deine Business-Ideen erfolgreich testest - mit Nader Fadl von Experial  image

#75 - Wie du mit datengetriebenen Experimenten deine Business-Ideen erfolgreich testest - mit Nader Fadl von Experial

S1 E75 · VisualMakers
Avatar
406 Plays2 years ago

Nader Fadl im Gespräch mit Lilith  

In dieser Podcastfolge spricht Lilith Brockhaus mit Nader Fadl, dem Co-Founder und CEO von Experial, über die Wichtigkeit von Experimenten und wie man Value Propositions, Zielgruppen und Pricing mithilfe von datengetriebenen Experimenten verbessern kann. Nader gibt Einblicke in seine Erfahrungen mit Experimenten und erstaunliche Ergebnisse, die niemand erwartet hätte. Dabei geht er auch darauf ein, warum man eigentlich überhaupt nichts weiß und warum es so wichtig ist, zu experimentieren.  

Experial ist eine Lösung für schnelle und datengetriebene Experimente, die dir viel Zeit und Ärger beim Aufsetzen deiner Experimente sparen kann. In diesem Podcast erfährst du, wie das Tool funktioniert und wie es dir helfen kann, deine Business-Ideen schnell und einfach zu testen und zu validieren.  Höre jetzt rein, um mehr über die Bedeutung von Experimenten und die Vorteile von Experial zu erfahren. 

Dieser Podcast ist ein absolutes Muss für jeden, der sich für Datengetriebene Experimente und No-Code-Tools interessiert.  

 /// Links der Episode:   

Experial: https://www.experial.ai/ 

Nader auf Linkedin: https://www.linkedin.com/in/nader-fadl/ 

Rapid Prototyping Bootcamp: https://basics.visualmakers.de/rapid-prototyping  


////////// Gefällt dir unser VisualMakers Content? 

Werde selbst zum VisualMaker mit einem unserer vielen kostenlosen Kurse. Starte jetzt durch und werde NoCode Profi https://bit.ly/3OCIRsy  

////////// Folge uns auf

LinkedIn: https://bit.ly/3SfL6oO 

Youtube: https://bit.ly/3OF5jBj 

Instagram: https://bit.ly/3cMYH6N 

Slack: https://bit.ly/3cMNJhC  

////////// Jetzt Newsletter abonnieren und keine NoCode News mehr verpassen! https://bit.ly/3cMYNeF

Recommended
Transcript

Wer ist Nada Fade und was ist Xperial?

00:00:07
Speaker
Herzlich willkommen zu einer neuen Folge im Visual Makers Podcast. Ich bin Lilith und ich freue mich sehr auf die heutige Folge, denn wir haben wieder einen großartigen Gast, und zwar Nada Fade. Er ist Co-Founder und CEO von Xperial und außerdem Dozent bei uns im Bootcamp für Rapid Prototyping.
00:00:26
Speaker
Dazu aber später mehr. Mit Xperia könnt ihr Businessideen schnell und einfach testen. Die Software macht das Ganze ziemlich leicht, ziemlich schnell und ziemlich einfach. Und ihr merkt, ich bin ein Riesenfan vom Tool. Und ich durfte
00:00:43
Speaker
Naja, ein bisschen Xperial begleiten in den letzten Zeiten. Nada und ich kennen uns ungefähr seit einem Jahr ungefähr. Und seitdem habe ich natürlich auch schon viel mitbekommen, wie sich das Tool so weiterentwickelt hat. Und deshalb freue ich mich ganz besonders, dass er heute bei uns im Podcast

Wie funktioniert Xperial als No-Code-Plattform?

00:00:58
Speaker
ist. Und bevor wir in den Hauptteil der Episode starten, hören wir uns erstmal von Nada selber an, was denn Xperial eigentlich ist im Tool der Woche. Tool of the Week.
00:01:12
Speaker
Experial ist die einfachste Art und die smarteste Art, neue Businessideen, neue Produktideen zu validieren. Und das Ganze machen wir auf eine Art und Weise, dass unsere Kunden eine No-Code-Plattform zur Verfügung gestellt bekommen, wo sie in der Lage sind, genau diese neuen Produktideen sehr einfach zu konfigurieren, sehr einfach quasi zu set-upen und dann im Endeffekt durchzuführen und Daten zu gewinnen für nach allerhand von Hypothesen, die man im Endeffekt testen kann.
00:01:37
Speaker
Das kann sein, habe ich überhaupt Kunden? Welchen Preis soll ich setzen? Was soll ich eigentlich auf meine Webseite schreiben? Was habe ich eigentlich für Nutzenversprechen? Welche Zielgruppe passt für dieses neue Produkt, diesen neuen Service? Und all das kann getestet werden, bevor ich die teure Produktentwicklung, die Serviceentwicklung im Endeffekt starte.
00:01:54
Speaker
Und das Ganze sieht in der Regel so aus, dass wir dort Fake-Dot-Tests durchführen.

Was sind Fake-Door-Tests?

00:01:59
Speaker
Das machen wir in der Regel am Anfang. Dass man erst mal sagt, wir suggerieren für die Zielgruppe, für den Nutzer, erst mal das Produkt gibt es schon, bevor das existiert. Dazu wird in der Regel eine Social-Media-Kampagne aufgesetzt, wo ich meine Zielgruppe targetiere, diese Zielgruppe auf einer Landing-Page leite und auf der Landing-Page dann beobachte, wie verhalten sie sich, wenn sie auf einer Landing-Page sind, die beschreiben würde, wie das Produkt wirklich aussieht.
00:02:21
Speaker
Klicken Sie auf den Button, scrollen Sie runter, wie lange verweilen Sie dort und das alles können wir beobachten und tracken. Und genau diese Daten werden dann quasi über alle Testnutzer aggregiert, dass im Nachhinein weiß, habe ich einen richtigen Preis gesetzt, kommt meine Werteversprechen an, konverten quasi die Webseitenbesucher, wer ist eigentlich die Person, der auf der Webseite ist, um einfach die nächste Entscheidung
00:02:43
Speaker
die dann im Nachgang im Endeffekt gefallen werden kann, validiert zu haben und das nächste Experiment durchzuführen, um am Ende mein Risiko zu reduzieren, ein Flop-Produkt rauszubringen, ein Flop-Service rauszubringen, den kein Mensch braucht, sondern man ausschließlich seine internen Ressourcen dafür verwendet, richtige Produktbänge, richtige Winner im Endeffekt zu produzieren. Das weiß man erst, wenn man mit dem Markt gesprochen hat.

Wie führt Nadas Hintergrund zu Xperial?

00:03:07
Speaker
Na, herzlich willkommen. Schön, dass du da bist. Vielen Dank, dass ich da sein darf.
00:03:14
Speaker
Ja, sehr gerne. Ich hab dich eben schon mal kurz im Intro vorgestellt und wir haben dich auch gerade schon im Tool der Woche gehört. Magst du trotzdem noch mal einmal kurz erzählen, wie bist du eigentlich zu Xperia gekommen oder beziehungsweise zu dem generell, was du jetzt überhaupt machst?
00:03:30
Speaker
Ich bin im Herzen Wissenschaftler, tatsächlich. Und das ist ein Stepping-Store gewesen, wie wir zu Xperia gekommen sind. Ich habe eigentlich einen Background in der Marketingwissenschaft. Da beschäftigt man sich ganz viel mit dem Thema Experimentieren, Experimente. Und das immer mit dem Fokus auf Psychologie eigentlich. Wir Menschen ticken eigentlich sehr einfach, reagieren auf viele Dinge sehr einfach, sehr planbar.
00:03:52
Speaker
Aber man sollte immer Experimente durchführen, um herauszufinden, was das im Endeffekt dann ist, was rauskommt als Ergebnis. Und das ist quasi grau Vorzeit, das ist ein paar Jahre her. In der Zwischenzeit haben wir, mein Co-Founder und ich, also ja auch bei Xperial der Co-Founder ist der Tobi, haben wir eine Innovationsagentur gegründet und einfach für Unternehmen
00:04:09
Speaker
Konzepte entwickelt, Ideen entwickelt und die auch tatsächlich mit Software umgesetzt. Und dabei festgestellt, tatsächlich wird viel zu wenig experimentiert zwischen Konzept und tatsächlicher Umsetzung. Und so ist die Idee zu Xperial entstanden, die wir jetzt seit einem guten Jahr verfolgen.

Warum sind Experimente im Business wichtig?

00:04:27
Speaker
Okay, spannend. Und wie seid ihr zur Agentur generell überhaupt gekommen?
00:04:32
Speaker
Tatsächlich auch wieder über denselben Background. Ich habe meine Doktorarbeit geschrieben über das Thema Gamification. Ich hasse mittlerweile den Begriff, weil der hardcore ausgelutscht ist. Ich sage viel lieber mittlerweile Motivationsdesign, weil das es viel besser trifft. Weil im Kern, was Gamification eigentlich sagt, ist Videospiele oder Spiele im Allgemeinen sind ultra gute Tränen, Menschen zu motivieren.
00:04:54
Speaker
Aber da hat es gar nichts mit Spielen zu tun, sondern eigentlich mit der Psychologie dahinter, welche Bedürfnisse angesprochen werden. Und das kann man ultra gut auf Software quasi überführen, auf Konzepte überführen, die man Oberflächen so gestaltet, wie man Prinzipien so gestaltet, dass Menschen genau das tun, was der Anbieter von ihm möchte, um Engagementsteigerungen zu haben. Und das war dann quasi der Schritt von der Wissenschaft erstmal in die Agentur. Und der zweite Schritt kam dann, als wir festgestellt haben, Experimente kommen da auch wieder viel zu kurz.
00:05:22
Speaker
Warum sind denn Experimente so wichtig?
00:05:26
Speaker
Da zitiere ich ganz gerne Game of Thrones, für alle, die es gesehen haben. Because you know nothing, Jon Snow. Das ist eigentlich das Grundprinzip. Man weiß vorher nie, was im Endeffekt funktioniert. Es gibt keine best practices. Es gibt Ergebnisse von Experimenten, wo man denkt, das müsste eigentlich so sein. Und in Realität ist es einfach nicht so. Nur Daten sprechen die Wahrheit. Und man kennt immer das Beispiel von E-Commerce-Läden, wo immer dann beisteht, nur noch drei im Stock. Und es gibt Bereiche, es gibt Shops, wo das dafür sorgt, dass die Conversion-Wert runtergeht.
00:05:56
Speaker
Und das würde man eigentlich nie erwarten. Und solange man nicht experimentiert, solange man diese Datenlage eigentlich nicht hat, kann man nie wissen, ob das eine gute Idee ist. Man trifft so viele Entscheidungen jeden Tag und weiß eigentlich nicht, was ist das Ergebnis am Ende. Und deswegen ist Experimentieren so wichtig, weil nur mit einem Experiment, nur mit echten Daten, mit Verhaltensdaten kann man eigentlich sagen, ob die Idee, die ich gerade verfolgt habe, die etwas update, was ich fahre, das Feature, was ich entwickeln will, irgendeinen positiven Impact hat und der nicht negativ sich vielleicht auswirkt.
00:06:25
Speaker
Und bevor man sich experimentiert, ist alles erstmal nur eine Annahme.

Wie formuliert man effektive Hypothesen?

00:06:30
Speaker
Ja, eines der Dinge, wir kennen uns ja schon was länger, und eins der Dinge, die ich wirklich einfach in der Zeit mit dir gelernt habe, alles ist eine Annahme. Und ich finde es so krass, wie man halt immer wieder da rein tappt in dieses, okay, ich denke, etwas Bestimmtes ist wahr und nicht hinterfragt, ob ist das eine Annahme oder nicht. Wir haben zum Beispiel, letztes Jahr haben wir einen Kurs produziert, von dem wir ausgegangen sind, von darauf hat die Welt gewartet und wir haben gar nicht
00:06:56
Speaker
Aktiv gedacht darauf hat die Welt gewartet zu sagen, wir haben einfach gedacht, es ist eine gute Idee, ohne es vorher zu testen. Und es wäre so einfach gewesen, es vorher zu testen. Und ich finde es beeindruckend, wie sehr man das weiß, alles ist eine Annahme, und trotzdem stolpert man immer wieder, immer wieder in diese Pfanne.
00:07:15
Speaker
Dafür sind sie selbst wenig geschützt im Endeffekt. Ich sehe das bei mir selbst, dass ich denke, mega gute Idee. Dann denke ich mir, nein, du hast gerade nur eine Annahme getroffen, nur eine Hypothese aufgestellt. Es könnte eine gute Idee sein. Es könnte aber auch eine richtig richtig gute Idee sein. Man muss es erstmal ausprobieren. Aber man tendiert halt dazu. Man will halt schnell Entscheidungen treffen.
00:07:35
Speaker
Und in der Regel, man sagt, ich muss jetzt ein Experiment durchführen, ich muss irgendwas machen, ich muss Daten erheben. Das ist erst mal so ein Blocker, erst mal so, ach, gar kein Bock, lass direkt loslegen. Aber man muss sich dazu zwingen, auch wir, die das ja predigen, ja, am Ende, eat your own dog food oder wie SAP sagen würde, drink your own champagne, ja, macht das im Endeffekt halt ganz, macht das halt ganz präzise, ja, geh halt hin, mach die Tests.
00:07:57
Speaker
trifft die Annahmen und du wirst am Ende viel, viel genauer wissen, was du eigentlich tust, was funktioniert und was nicht funktioniert. Und da sind, wie gesagt, jetzt wieder nicht vorgefallen. Ja. Aber was ist denn eine gute Hypothese? Da gibt es ja auch Unterschiede von, wie kann ich Hypothesen so formulieren, dass ich auch irgendwas damit anfangen kann?
00:08:21
Speaker
Da kann man jetzt natürlich im Endeffekt tief einsteigen. Eine Hypothese ist immer erstmal nur eine Annahme, die man im Endeffekt trifft. Je präziser die Hypothese im Endeffekt ist, desto besser. Wenn ich jetzt zum Beispiel sage, ich glaube, dass dieses Feature unserem Kunden gefällt, ist das ein guter erster Aufschlag, aber du hast super viele Varianten im Endeffekt da drin mit.
00:08:39
Speaker
Was heißt unseren Kunden gefallen im Endeffekt? Und je mehr man das versucht zu quantifizieren, desto besser ist das. Wenn man dann sagt, ich glaube, dass dieses Feature unser Net Promoter Score um Faktor X erhöht, wäre viel präziser, weil wir eine Quantität im Endeffekt in unsere Prothese bekommen.
00:08:56
Speaker
Und das sollte man immer eigentlich überlegen, was ist das konkrete Ziel, so konkret wie möglich zu werden? Ich könnte jetzt ultratief da reingehen, was eine richtig gute Hypothese ausmacht, aber am Ende des Tages ist es wichtig, dass man sich überlegt, in welchem Ziel teste ich eigentlich? Also was ist die eine Sache, die ich herausfinden möchte am Ende des Tages? Wenn man zum Beispiel dann ein neues Produkt hat und du testest Preise und du weißt nicht, ist das Produkt 99 Euro, 149 Euro, 199 Euro, dann trifft eine konkrete Annahme und sagt, ich gehe davon aus,
00:09:25
Speaker
dass das Produkt 149 Euro wert ist, dass wir keine Abnahme im Demand haben am Produkt, wenn ich von 99 auf 49 und springe. Wenn das Experiment dann zeigt von 99 Euro gehen auch, ist wunderbar, aber du hast eine klare Perspektive, was du vorher erwarten würdest. Und dabei ist es gar nicht so wichtig, ob du Daten hast, die da stützen, ob das 149 Euro wert sind, sondern dass du im Nachgang eigentlich nicht anfängst,
00:09:49
Speaker
an deiner Hypothese, an deiner Annahme noch zu schrauben und das Ergebnis so zu drehen, dass es irgendwie dann doch dazu passt, was du ursprünglich erwartet hast. Aber so präzise wie möglich, aber man muss da jetzt auch keine Raketenwissenschaft ausmachen. Heißt denn präzise und konkret, so präzise und konkret wie möglich auch messbar? Also ist das damit auch gemeint?
00:10:11
Speaker
Idealerweise. Idealerweise. Es hängt immer ein bisschen davon ab, wo ich experimentiere. Wenn wir jetzt auf einer Webseite sind, auf einer laufenden Webseite sind und wir machen klassische AB-Tests, dann würde ich sagen, mache es wirklich präzise wie möglich. Ich mache das nur, wenn die Conversion Rate um Faktor X steigt. Dann ist es für mich ein Winner. Dann würde ich quasi diese Umstellung auf der Webseite im Endeffekt machen. Da kann man ultra präzise werden.
00:10:35
Speaker
Je vager das im Endeffekt wird, was du eigentlich testest, du hast eben gesagt, neuen Kurs, neues Produkt, neuen Service irgendwie einführen, dann kann es ein bisschen weniger vager sein. Dann geht es darum, im Endeffekt zu sagen, ich möchte mindestens so und so viele Leads generieren in dem Test oder ich möchte so und so hohe Clickrate haben.
00:10:52
Speaker
ohne dass man ultra dogmatisch wäre. Wenn du dann ein neues Produkt im Endeffekt rausbringst und du hast dann zwei Prozent Conversion Rate, mag gut genug sein für den ersten Test am Ende des Tages. Da musst du nicht sagen, ich habe aber drei Prozent meiner Hypothese stehen und jetzt muss ich alles über den Haufen werfen und das ist auf jeden Fall eine schlechte Idee. Und das ist so ein bisschen so, wir versuchen nur mit der Daumregel zu machen. Je mehr das an
00:11:13
Speaker
Je mehr das Ergebnis belastbar sein soll, desto präziser und quantifizierbarer muss es sein. Je weicher auch das ist, was du eigentlich testest, desto weniger brauchst du. Da geht es eher darum, überhaupt erstmal eine Hypothesis zu definieren und dann halt auch die Daten aus dem Experiment zu ziehen. Ja, okay, verstanden. Und da hast du ja gleich, hoffentlich auch gleich nochmal ein paar Beispiele mitgebracht. Aber bevor wir dazu kommen, vielleicht, wer sind denn so eure Kunden?

Wen unterstützt Xperial mit Innovationstests?

00:11:41
Speaker
Tatsächlich bei uns bei Xperia, wir fokussieren uns gerade super stark auf jede Art von Innovationsabteilung. Das kann ein Corporate Venture Builder sein, das können aber so Corporate Innovation Units sein, das kann eine klassische Innovationsabteilung sein. Wir wollen unterstützen mit Xperia die Möglichkeit, neue Ideen, neue Services, neue Produkte zu testen, bevor man
00:12:04
Speaker
die teure Produktentwicklung startet, weil die ist immer teuer, egal was man macht am Ende des Tages. Und wir wollen versuchen herauszufinden, was sind eigentlich deine Winner, bevor du anfängst da irgendwelche Invests zu tätigen, die sich im Nachhinein rechnen, weil kein Mensch dieses Produkt braucht. Das haben wir häufig genug erlebt. Und damit sich das aber lohnt und rechnet und man so eine Software auch jeden Tag eigentlich im Einsatz hat,
00:12:23
Speaker
brauchen Unternehmen eine gewisse Größe, das heißt da so eine, ich sag mal, ein 15-Mann-Betrieb mag vielleicht nicht ganz optimal sein, das geht dann eher bei uns los, wenn man so eine vierstellige Mitarbeiterzahl quasi hat. Es gibt Unternehmen, die sind kleiner, die auch passen, aber die unterscheiden da eigentlich gar nicht so viel, außer, und das ist gerade bei uns Fokusthema, eher B2C-Produkte, weil B2B testen kann man auch.
00:12:44
Speaker
Es ist aber ungleich schwieriger, weil einfach die Zielgruppen in der Regel viel kleiner sind, für die das Produkt passt. Bei B2C kann man sich ja vorstellen, da kann man relativ gut auch an, sagt man, Testprobanden kommen über Social Media. Ja. Hast du da ein paar Beispiele? Also das mit dem, das Pricing-Beispiel, das kenn ich ja schon, das finde ich auch ein krass was spannend, wenn du das einmal noch mal erzählen könntest. Und vielleicht hast du noch andere so Lieblingsbeispiele oder Use Cases, die dich selber überrascht haben.

Beispiele unerwarteter Experimentergebnisse

00:13:12
Speaker
Da will ich immer das Schlimmste, wenn du aus einem Experiment reingehst und eigentlich ein klare, eigenes Gefühl hast, was rauskommen müsste und dich das Ergebnis dann überrascht, warum doch was anderes rausgekommen ist. Das Beispiel, das du ansprichst, ist, da haben wir ein Hardware-Produkt im Endeffekt getestet, ein Sicherheitsprodukt für Frauen, ohne da jetzt zu viel ins Detail im Endeffekt zu gehen. Und die Annahme von dem Person, dem Kunden war, wir sind irgendwo so in der Range 129, 139 Euro, so ungefähr das Produkt.
00:13:40
Speaker
Und dann haben wir einen Preistest gemacht, wo es dann darum ging, drei Preispunkte, 99 Euro, 149 Euro, 199 Euro, also ein Preis ungefähr in der Nähe der Erwartung, ein bisschen höher, einer niedriger, einer deutlich weiter weg oben. Und dann einfach mal zu testen über eine Social-Media-Kampagne, die auf die Zielgruppe abgestimmt war, die dann halt zufällig verteilt worden sind auf einer der drei Seiten. Das heißt, die Nutzer, die Teilnehmer wussten nie, dass es die anderen Preise auch gibt. Aber wir haben dann geguckt, wer klickt jetzt auf den Jetzt-Bestellen-Button mit der Preisinformation.
00:14:10
Speaker
Und was dann zur Überraschung aller rauskam ist, bei 199 Euro war immer noch kein Rückgang der Click-Through-Rate im Endeffekt zu beobachten, auf einem statistisch signifikanten Niveau nicht zu sehen. Und dann wussten wir, okay, die Leute sind auch bereit, für 199 Euro das Produkt zu kaufen. Und dann haben wir uns eigentlich im Nachhinein geärgert mit dem Kunden zusammen, warum werden nicht auch noch 249, 299, 304, was auch immer.
00:14:33
Speaker
399 Euro getestet haben, um wirklich herauszufinden, wann bricht der Demand eigentlich runter. Wann geht das halt so weit runter, dass du weißt, du hast schon einen Preismaximum erreicht. Und wenn man sich das überlegt mit dem sehr einfachen Test, der ging relativ schnell, hat ein paar Tage gedauert, weiß der Kunde im Endeffekt, ich mache nicht 129 Euro, sondern mindestens 199 Euro, was ja ein mega Benefit im Grunde genommen ist.
00:14:54
Speaker
Das ist auf jeden Fall ein Test, der cool war. Einen anderen Test, den wir gemacht haben, da ging es um eine Anwendung, eine Belohnungsanwendung im Grunde genommen. Du bearbeitest, beantwortest Fragen, Umfragen, schaust dir irgendwelche Videos an und dergleichen bekommst du dafür eine virtuelle Währung, die du eintauschen kannst gegen Gutscheine und Co.
00:15:14
Speaker
Da war die klare Frage, braucht das überhaupt wer? Und die klare Perspektive vom Gründer war, das ist ab jeden Fall ein Gen Z Produkt. Es sind junge Leute, die sind digital und dergleichen. Und das kam im Ergebnis gar nicht so stark raus. Die meisten Klicks für die App, erstaunlicherweise, weil wir das bei
00:15:30
Speaker
META gar nicht getagelt hat, also gar keine Targeting-Einschränkungen gemacht haben, nur auf Gen Z, war die 65 plus haben sehr viel geklickt. Was super erstaunlich war im Endeffekt, wo man wahrscheinlich ableiten kann, was steckt eigentlich dahinter, hat das vielleicht was mit Altersarmut zu tun, was mit Zeit zu tun und dergleichen, also da entsteht eine Reihe weiterer Experimente.
00:15:49
Speaker
Aber die klare Perspektive von Kunden war Gen Z Produkt und raus kam ja vielleicht, aber noch viel interessanter, eigentlich 65 bloß. Also das ist halt immer interessant, wenn man dann feststellt, man weiß wirklich nichts und kann nicht davon ausgehen, dass du weißt, was rauskommt. Und das sollte man immer im Blick haben. Alles ist, ich glaube, ist eine gute Hypothese. Starte, teste und dann nimm die Ergebnisse in die Daten, geh von dort an weiter und nimm halt nichts für gegeben an, solange du keine Daten hast, die das unterstützen.
00:16:18
Speaker
Ja, ich find das schöner an solchen Experimenten, die ja durch Experial total leicht werden, ne? Also, die sich leicht, schnell und ... ja, einfach zu bedienen anfühlen, schnell aufgesetzt sind und so. Entsteht ja auch so eine Neugierde, ne? So eine Experimentierfreudigkeit, so eine viel größere Offenheit von ... Okay, ich will gucken, was rauskommt, und man kommt weg von diesem, was ist richtig und falsch und was haben wir auf der Product-Roadmap,
00:16:45
Speaker
Okay, was haben wir denn auf der Product Roadmap? Was ist denn die Value Proposition? Was ist denn das richtige Pricing? Vielleicht daran nochmal, was kann ich denn alles testen? Was sind so die typischen großen Felder, wo man Experia auch vor allem einsetzt?
00:17:04
Speaker
Die großen Felder sind eigentlich, sind was man immer mittestet, was eigentlich in jedem Test in irgendeiner Form inerent mit drin ist. Es ist irgendeine Form von, wie sagt man, Marketing-Ad. Also man bekommt einfach Feedback vom Markt, klicken die Leute auf eine Social Media-Ad, die quasi das Produkt im Endeffekt darstellt und klicken sie auch auf der Webseite dann auf, jetzt bestellen, Request-Demo, mehr erfahren, irgendeine Art von Culture Action. Das heißt irgendwie, reagiert der Markt auf dein Produkt, die Kunden auf dein Produkt,

Welche Tests nutzt Xperial vor dem Launch?

00:17:30
Speaker
ist immer mit drin.
00:17:30
Speaker
Gleistattic ist immer mit drin. Wer klickt? Also wer ist diese Target Group möglicherweise? Also ein Target Group Test steckt eigentlich auch immer mit drin und das ist immer so ein Given. Das was wir ganz viel sehen ist und das ist glaube ich der Prime Case ist Value Propositions. Das Nutzenversprechen. Weil du kannst ein Produkt was komplett
00:17:47
Speaker
Baugleich ist völlig anders positionieren an Form von dem von den Texten an den Benefits die du in den Vordergrund rückst. Und dann merken wir teilweise gigantische Unterschiede in den Tests, dass das selbe Produkt ist. Du framest bei dem einen so, bei dem anderen so und auf einmal geht die Click-Through-Rate immer dreimal so hoch und denkst wow krass, da scheint das Problem krasser zu adressieren. Wirklicher Prime-Case, weil
00:18:08
Speaker
Bei aller Liebe, da ist keiner vorgefeiht. Du kannst immer deine Positionierung, deinen Wertversprechen anpassen. Jederzeit, jedes Produkt hat er mehrere, auch stellst du ihn in den Vordergrund. Und deswegen solltest du da eigentlich ganz viel testen. Da sollte man nicht nur einen Value Proposition Test machen, sondern wahrscheinlich mehrere aneinander rein, was man eigentlich immer tun kann.
00:18:24
Speaker
Ähm, was wunderbar gut geht, ist Preise. Grade weil sich da diese Form von diesen Landing-Page beziehungsweise Fake-Dot-Tests wunderbar eignen. Weil bei Preis, die kann man, Preise kann man schlecht abfragen, wenn man das so in einem Interviewsetting macht. Wenn ich dich frage, hey, wärst du bereit, für das Produkt 99 Euro zu zahlen? Dann haust du dir einen entgegen und, ja, kann ich mich schon vorstellen, weil's dir erst mal egal ist. Klickst aber auf den 99-Euro-Button, ja, nein. Das ist die einzig relevante Frage. Das heißt, diese Prime-Case für Fake-Dot-Tests.
00:18:53
Speaker
Und dann kann man im Endeffekt... Vielleicht hier einmal kurz zur Erklärung. Wenn du Factor-Tests, einmal kurz zur Erklärung. Ja. Factor-Tests sind Tests, die suggerieren, dass das Produkt eigentlich schon am Markt ist. Das heißt, ich schalte irgendwo eine Social-Media-Ad, wo ich sage, hast du dieses oder folgendes Problem, wir haben eine Lösung für dich. Erstmal um das Interesse überhaupt an dem Problem im Endeffekt zu wecken.
00:19:17
Speaker
Und dann leitest du Leute auf einer Landingpage, die so aussieht, als gibt es dieses Produkt im Endeffekt schon. Du hast irgendeine Produktabbildung, einen Mockup, irgendetwas, was dir den Eindruck gibt, hey, das scheint jetzt ein Produkt zu sein, was am Markt ist. Ohne dass das der Fall ist. Es gibt noch kein Produkt. Es gibt noch gar nichts, das man ausprobieren kann. Aber es ist gar nicht Teil des Tests, sondern du willst herausfinden,
00:19:36
Speaker
Wenn es dieses Produkt jetzt geben würde, würden die Leute heute schon bereit sein zu klicken. Und wenn er dann auf den Button klickt, jetzt bestellen wir dergleichen, löst man erst auf, hey, wir arbeiten noch am Produkt, finden dein Interesse super spannend, dürfen wir dich im Nachhinein noch weiter kontaktieren, um dir weitere Fragen zu stellen, das Produkt bestmöglich an dir quasi auszurichten, deine Bedürfnisse besser zu verstehen.
00:19:56
Speaker
Und so habe ich die Informationen, bevor ich das Produkt baue, nicht erst im Nachhinein. Man kann auch sagen, das ist ein bisschen unfair dem Nutzer gegenüber, weil der erwartet ja irgendwie, dass da was passiert oder dass ich das Produkt schon nutzen kann. Aber wenn man das halt dann so framed, cool, dass du jetzt schon so viel Interesse hast, wir sind noch mittendrin und wir wollen das auf deine Bedürfnisse anpassen, dann kann man so dieses Reaktanzgefühl, was vielleicht ein Nutzer dann in dem Falle hat, so ein bisschen wegmoderieren. Aber es ist auch erst mal gar nicht wichtig, was der Nutzer dann in dem Moment denkt, sondern wichtig ist ja zu verstehen,
00:20:24
Speaker
greift mein Produkt eigentlich gerade, gibt's dann Demand für, passt die Welle proposition zu dem, was ich erwarten würde. Ja, da hatten wir ja auch eine ganz interessante Diskussion im, als du bei uns im Bootcamp warst, in unserem Bootcamp fürs Rapid Prototyping, wo es ja im Prinzip auch genau um das geht, von schnell Ideen testen zu können, mit tatsächlich schon Prototypen. Weil für mich, ich fand das ganz spannend, weil für mich wäre das zum Beispiel so ein
00:20:48
Speaker
Ah, voll krass, cool. Ich bin jetzt in so einem Testing-Environment irgendwie gelandet. Also ich hätte da, glaube ich, eine total positive Reaktion, weil ich total Bock auf sowas habe. Aber es kamen ja auch echt viele Fragen von, hey, warte mal, fühlen sich da nicht Leute total verarscht von?

Wie reagieren Nutzer auf Fake-Door-Tests?

00:21:04
Speaker
Spürt ihr das irgendwie? Also, du weißt auch gerade, es spielt eigentlich keine Rolle.
00:21:09
Speaker
Ja, es gibt natürlich eine dunkle Ziffer. Wir wissen natürlich nicht, wer da jetzt irgendwie vom Smartphone sitzt, vom Rechner sitzt, dann irgendwie einen Test teilnimmt und weiß es gar nicht, kriegt es dann aufgelöst und dann das Gefühl, boah, die haben mich halt irgendwie hier veräppelt an der Stelle. Das bekommen wir gar nicht so mit. Es ist aber das Schöne an dieser Methode ist, darum geht es ja gar nicht.
00:21:24
Speaker
Du hast ja das schon getan, was ich von dir wollte. Ich wollte dich beobachten, klickst du oder klickst du nicht. In dem Moment hast du deine Zwecke schon erfüllt. Spannender ist aber deine Reaktion, dass du das cool findest. Du wärst dann derjenige, der sich auf die Liedliste schreiben lässt. Ich kann dich im Nachhinein kontaktieren und genau diese Person will ich haben.
00:21:46
Speaker
haben. Ich will die Leute haben, die interessiert sind. Ich will nicht die haben, die dann irgendwie genervt davon sind, dass das quasi noch nicht irgendwie existiert. Das ist im Ende gar nicht so wichtig. Man darf dabei auch nicht vergessen, wie viele Social-Media-Posts siehst du, wie lange scrollst du durch irgendwelche Feeds durch, wie lange gehst du auf irgendwelche Webseiten, dergleichen, das Gedächtnis, was du da hast. Ich bin, ich weiß nicht, auf wie vielen Early Bird Pages, die genauso sind, wo ich mich irgendwo eingetragen habe. Das Produkt gibt es nicht bei diesen ganzen
00:22:11
Speaker
Generative AI Tools. Ich könnte die nicht mehr auflisten, was die sind. Wenn die mir noch schreiben, freue ich mich. Und wenn nicht, bin ich auch nicht genervt davon, dass ich mich irgendwo eingetragen habe und es ist gar nichts mehr passiert. Man sollte das nicht überschätzen.
00:22:25
Speaker
Ja, fair enough. Macht total Sinn. Darauf kommen wir gleich auch noch zu dem ganzen Thema generative AI und was hat das für einen Impact auf euch.

Erleichterung von Experimenten durch Xperial

00:22:35
Speaker
Aber vielleicht einen Schritt davor noch. Seht ihr euch selber als No-Code-Tool?
00:22:43
Speaker
Hell yeah. Das kann ich eigentlich sagen. Der Hauptgrund, warum diese Methode, die eigentlich anderen Methoden dieser Phase überlegen ist, weil bei diesen Faktor-Tests bekommst du Verhaltensdaten. Also wirklich, Leute haben gerade ein Verhalten dargestellt im Vergleich zu eben dieser beschriebenen Situation. Ich bin in einem Interview und ich kann ganz viele Interview behaupten, die entspricht nicht der Realität. Also wir haben ja so ein krasses Say- und Do-Gap im Grunde genommen. Was du sagst und was du tust, sind zwei Paar Schuhe.
00:23:13
Speaker
Und eigentlich ist diese Methode krass überlegen für viele Fragesteller, nicht für alles, auch nicht für alles brauchbar. Und wenn man dann aber, das war bei uns am Anfang, als wir uns damit auseinandergesetzt haben, du hast brutal krasse Friction, Hürden, Hindernisse, ganz viel Abhängigkeit, dass du eigentlich, oh, wer baut mir jetzt die Seite, wer kennt sich mit Social Media aus?
00:23:31
Speaker
Wie kriege ich das Tracking da gut rein? Und wer sich mit Google Analytics und Tech Manager auskennt, weiß, was das selbst für erfahren Leute für ein Kraus ist, das irgendwie alles sauber hinzubekommen. Was wir dann gesagt haben, das muss alles rationalisiert sein. Du musst eigentlich nur noch an den Punkt kommen, dass du weißt, ich habe eine Produktidee, Serviceidee, whatever. Und das kannst du dir superschnell zusammenklicken und starten.
00:23:51
Speaker
Und das ist für uns halt No-Code am Ende des Tages. Du sollst gar nicht mehr in die Tiefen eintauchen, du sollst nichts coden, du sollst wenig die Gedanken darum machen, wie das Setup im Endeffekt ist. Das soll alles das Tool übernehmen, so wie das ja andere No-Code-Tools an vielen Stellen machen. Die einen besser, die anderen schlechter. Aber wir zählen uns definitiv zur Kategorie No-Code-Tool, weil wir ganz viel Setup-Zeitabhängigkeiten versuchen zu reduzieren, was ja No-Code-Tools an der Regel immer versuchen.
00:24:17
Speaker
Ja, I love it. Nutzt ihr dann selber No God Tools oder welche Rolle spielt No God bei euch?

Vorteile von No-Code-Tools für Startups

00:24:25
Speaker
Gerade im Aufbau des Unternehmens eine riesengroße. Wir sind gar nicht schnell genug da drin, mehr No-Code-Tools im Endeffekt zu integrieren. Also für uns gilt nämlich das selbe Prinzip. Wie kannst du mit einer kleinen Mannschaft, mit einer kleinen Truppe möglichst schnell sein? Und das ist ja der Vorteil, was du als Start-up hast, dass du einfach Prozessgeschwindigkeit hast, dass du Entscheidungsgeschwindigkeit hast. Und dann stellst du fest, es gibt einen Haufen To-Do's, die man day-to-day hat, die man in der Woche hat, die man im Monat hat.
00:24:52
Speaker
die immer wiederkehrend sind und dafür sollte man idealerweise jede Art von NoCoTool benutzen, einfach um eben schon diese Friction, diese Hindernisse eigentlich auszuräumen. Wenn ich weiß, ich muss eigentlich 3000 E-Mails rausschicken an Kunden, dann sollte ich das nicht händlich tun, sonst habe ich verdammt viel zu tun, sondern da gibt es NoCoTools wie
00:25:11
Speaker
Apollo, die man dann mit HubSpot connectet und auf einmal kannst du so einen kompletten Prozess automatisieren, der läuft permanent wie so einen Sales-Mitarbeiter eigentlich hin oder erschaffst, der aber virtuell ist, im Grunde genommen. Man muss dann ein bisschen steuern, das ist nicht komplett voll, voll, voll automatisiert, sondern ein bisschen Arbeit hat man, aber der Anteil ist halt super gering im Vergleich zu vorher. Und auf einmal bist du mit einer kleinen Truppe auf einmal genauso produktiv wie Unternehmen, die drei, vier, fünfmal so viele Mitarbeiter haben.
00:25:38
Speaker
Oh yes. Wie ist das denn bei euren Kunden? Sind die technisch versiert, wenn die, also gerade wenn die vielleicht aus einer Marketing-Sicht kommen oder eben die Produkte in Innovation Teams?
00:25:52
Speaker
sehr, sehr, sehr heterogen tatsächlich. Wir arbeiten mit Kunden, die ultra-effizient sind, wo man auch dann über Experiment, über Hypothesen spricht, die direkt auf Augenhöhe sind, das kennen, teilweise auch im Start-up-Kontext gearbeitet haben und dann halt auch wirklich sich selbst was zusammenziehen können, die Tools auch kennen, mit No-Core-Tools arbeiten. Und teilweise trifft man ein bisschen
00:26:13
Speaker
Grüne Wiese. Cooles Thema. Würden wir uns gerne mal rantrauen. Könnt ihr uns ein bisschen mehr Input zugeben. Könnt ihr uns irgendwie trainieren, Webshops zu machen und dergleichen. Und das war auch ein Learning gewesen, dass es da nicht so einen Status Quo gibt im Markt, sondern echt total abhängig ist davon, mit wem spreche ich eigentlich gerade.
00:26:31
Speaker
Und für uns natürlich dann auch eine spannende Sache, wie gehen wir damit um? Weil am Ende des Tages, wohl müssen wir es idealerweise das Tool so einfach machen, dass jeder damit umgehen kann, egal ob er Profi ist oder eigentlich zum allerersten Mal versucht, so einen Test aufzusetzen. Ja, ja voll. Und da gehört ja auch noch mal viel mehr Wissen dazu, nicht nur das technische Setup quasi, sondern auch das Wissen von, was ist eigentlich ein sinnvolles Business-Experiment?
00:26:58
Speaker
Genau. Genau. Und das ist genau der Punkt, dass wir sagen, all diese Regeln, die wir kennen und wo wir Experten sind, wo wir schon viele Experten durchgeführt haben, wie können wir das jetzt so strukturieren, so in unser Tool quasi einbauen, dass du am Ende dir gar keine Gedanken mehr darüber machen musst und einfach sagst, hey, ich will einen Preis testen.
00:27:16
Speaker
Lieber Nada, lieber Xperia, macht mal im Grunde genommen mit so wenig Inputs wie möglich und du weißt aber, das was da rauskommt ist cool, das was da rauskommt ist belastbar, das kann ich meiner Abteilungsleiter zeigen, kann ich meinem Geschäftsführer zeigen, wir können darauf Entscheidungen treffen mit gutem Gefühl, ohne dass du im Vorhinein irgendwie Gedanken machst, habe ich das jetzt richtig gemacht, war das jetzt das richtige Experiment, kann ich die Daten so belasten, was mache ich mit den Daten eigentlich und all dieses Wissen da in ein Tool zu gießen macht wahnsinnig viel Spaß,
00:27:41
Speaker
auch wahnsinnig anspruchsvoll, weil man dann halt an manchen Stellen sagen muss, okay, dann geht halt diese eine Sache nicht, du kannst da nichts customisern, weil wir da halt für alle eine gleiche Regelmenge definiert haben, was dann bei einem Kunden negativer Aufblick als bei anderen Kunden, aber so muss man immer so einen guten Mittelweg finden. Ja, voll. Und ich meine, es muss ja auch einfach genug sein, ne? Also es ist ja auch gar nicht der Zweck von den komplexesten Tools zu bauen, weil experimentieren muss ja einfach sein.
00:28:08
Speaker
Genau. Ganz im Gegenteil sogar im Endeffekt. Der Tobi ist ja noch viel rigoroser als ich. Mein Mitgründer, der immer sagt, mach es doch so einfach wie möglich. Haben wir diesen 90%-Use-Case? Wer die 10% mehr will, passen wir nicht zu am Ende des Tages. Weil wir es dann nur komplexer machen für alle. Aber wir machen es dann komplexer für 100% aller Nutzer. Und die 90% ärgern sich und die 10% hätten es gerne. Aber die 10%, die könnten es vielleicht auch auf eine andere Art und Weise lösen. Das sind meistens die auf dem Spektrum, die viel fitter sind.
00:28:35
Speaker
und wir wollen für 90% eigentlich anbieten. Und dann ist es manchmal cooler zu sagen, gib den Leuten weniger Optionen, einfaches Tool, weniger Kopfschmerzen, weniger Customisen, aber man wäre überrascht, wie wenig Leute eigentlich Customisen wollen, wie sehr sie eigentlich nur wollen, dass schnell was entsteht. Das ist ja das Prinzip. Schnelles Testen, nicht perfektes Testen.
00:28:56
Speaker
Ja, ja, total. Inwiefern verändert denn No-Code und auch eben Experial es einfach zu machen, zu testen, die

Experimentation in Top-Unternehmen

00:29:08
Speaker
Unternehmenswelt? Welche Potenziale siehst du da?
00:29:13
Speaker
Ich glaube, dass, wenn man sich die Top-Unternehmen aus den USA anguckt, immer die so groß hochgejubelt werden im digitalen Bereich, im Endeffekt die LinkedIns, Microsofts, Netflixes, Metas dieser Welt, die haben eine ultra integrierte Experimentation Culture. Also da muss man sich vorstellen, LinkedIn macht jedes Jahr auf der Plattform, bekommt das sehr kaum mit, 18.000 bis 20.000 Experimente.
00:29:36
Speaker
die permanent laufen. Also man muss sich mal vorstellen, 18 bis 20.000 Experimente. Wir haben 365 Tage im Jahr viele Experimente machen, die eigentlich also Wahnsinn im Endeffekt. Das schafft man nur, wenn Testen easy ist. Da hat LinkedIn eine eigene Experimentation Software gebaut, die direkt an der Plattform dran hängt. Also es ist nichts, wo man da LinkedIn anhauen kann und sagen kann, dürfen wir auch mal, sondern das ist integriert in die Unternehmens-DNA eigentlich.
00:29:58
Speaker
Und das ermöglicht, dass alle Personen bei LinkedIn mehr oder weniger in der Lage sind, Experimente zu starten. Was cool ist, weil du permanent optimieren kannst, permanent Daten gewinnst über was eine coole Weiterentwicklung ist oder was nicht so eine coole Weiterentwicklung ist und direkt entscheiden kann. By the way, neun von zehn Experimenten scheitern. In Anführungsstrichen muss ich das ganz explizit sagen. Also keinen positiven Effekt, haben einen negativen Effekt.
00:30:21
Speaker
Oder sind inconclusive, also haben gar keinen Effekt und dann kann man sagen, vergiss das Experiment, wie du es im Endeffekt eigentlich hattest. Aber warte, warte, warte!
00:30:31
Speaker
Wenn ich hier kurz einsteigen darf, du sagst, okay, das Experiment hat keinen Output geliefert, entweder das ist neutral oder das Experiment ist schlecht gelaufen. Gibt es denn überhaupt schlechte Experimente, also im Sinne von, dass das Ergebnis schlecht sein kann? Oder ist eher, dass nicht das gewünschte Ergebnis oder, weil ich meine, sich gegen etwas zu entscheiden, aufgrund der Daten, ist ja auch ein gutes Outcome, oder? Ja, ja. Hast du genau richtig gesagt, es ist ein negatives Ergebnis.
00:30:58
Speaker
Aber es ist nicht ein schlechtes Experiment. Du hast mich genau korrigiert an der Stelle. Ein Experiment kann nicht schlecht sein. Ich habe ein negatives Ergebnis. Also wie es vorher war, was besser. Veränder nicht, zumindest nicht das, was du gerade getestet hast. Und das muss man halt auch in den Kopf bekommen. Wenn ich sage, 9 von 10 Experimenten scheitern, also failen im Grunde genommen, heißt das, ich habe von 9 und 10, also von 9 Elemente gefunden, die nicht das verbessern, was gerade

Demokratisierung von Experimenten

00:31:22
Speaker
der Status Quo ist.
00:31:22
Speaker
aber eins gefunden, was es verbessert. Und wenn man dann 18.000 bis 20.000 Experimente macht, ein Prozent funktioniert, kann man sich vorstellen, da geht krass viel nach oben, was Umsätze angeht, was Relevanz von der Plattform angeht, was Customer Centricity angeht. Und dementsprechend ist das wichtig, dass man viel experimentiert, weil man weiß es im Endeffekt nicht.
00:31:40
Speaker
Und viele kleine 1%-Lösungen, die besser werden, haben hinten raus einen ultrakrassen Effekt, der eigentlich compounded, der die Zinseszinseffekte hat, dass du an 3, 4, 5 Stellen 1% Verbesserungen hast und auf einmal machst du 8% mehr Umsatz. Was total krass ist bei so einem Unternehmen.
00:31:56
Speaker
Und um da auf deine Frage zurückzukommen, genau das sehen wir eigentlich. Wir müssen Friction reduzieren, wir müssen Hindernisse reduzieren, wir müssen Abhängigkeiten reduzieren, dass ich dann nicht hingehe und sage, ich will eine neue Produktidee einführen. Und dann ist die erste Direktion bei einem, ah, jetzt müssen wir dann irgendwie so einen Marktforschungsinstitut dazu holen und wir machen dann vier Wochen Concepting.
00:32:17
Speaker
Und dann kommen die mit einer Idee und dann sagen wir, jetzt geben wir das an unseren Panel und nach 18 Wochen habe ich dann die Ergebnisse und kriege eine 537 Seiten lange PDF zugeschickt, wo dann am Ende noch so eine Executive Summary steht. Das waren die Key Insights. Und dann sind 100.000 Euro weg und ich bin kein Meter schlauer.
00:32:35
Speaker
Ja, am Ende des Tages, sondern eher die Idee, hey, lass doch, wir haben jetzt die Idee gerade im Meeting gesprochen, lass das doch jetzt gleich am Nachmittag aufsetzen, starten und wir können nächste Woche über die Ergebnisse sprechen, weil dann das Experiment abgeschlossen ist und von da weitergehen und uns so ein Experimentation-Reel eigentlich erzeugen. Das heißt, eine Idee haben, experimentieren, datenauswerden und mit den Daten neu degenerieren. Und das hilft, wenn wir Abhängigkeiten reduzieren. Wenn du eigentlich als Einzelperson im Unternehmen in der Lage bist,
00:33:02
Speaker
ein Experiment komplett selbst aufzusetzen und durchzuführen, ohne dass du irgendwie einen Fragen musst, so im Idealzustand. Da müssen wir noch ein paar Barrieren einreißen, um da hinzukommen, aber man hat ja auch ein Ziel, was ein bisschen länger dazugutrifft.
00:33:15
Speaker
Ja, und da sind wir auch wieder beim ganzen Thema Demokratisierung von Tech, von Experimenten, von generell befähigt, eure Leute, und es können ganz großartige Dinge dabei rauskommen. Absolut, weil das halt auch Spaß macht, im Endeffekt. Die coolsten Workshops, die ich selbst besuche, sind die Workshops, wo du hands-on an einem konkreten Case gezeigt bekommst, wie es geht. Und nicht, wenn du sagst, okay, das ist so die Theorie dahinter,
00:33:41
Speaker
sechs Meetings einberufen und sprechen und tun und dann verschwinden verdammt viele gute Ideen in der Schublade oder werden die umgesetzt, weil es halt zu viele institutionelle Hürden gibt. Und das war so gesagt, dass Demokratisierung, das ist mega wichtig, dass du eigentlich sagst, jeder muss beim Unternehmen in der Lage sein, Mehrwertenbeitrag dazu zu leisten. Und das geht wunderbar, indem man halt Abhängigkeit an an Code und an
00:34:05
Speaker
quasi Wissen etc. im Endeffekt einfach wegnehmen, dass es keine Gatekeeper gibt. Ob das jetzt Coder sind, ob das das Wissen ist, wie Experimente richtig aufzusetzen sind, jede Art von Gatekeeper macht den Prozess ineffizient. Und die muss man alle wegrationalisieren. Das geht mit Software ganz gut.

Wie hilft generative KI bei Experimenten?

00:34:23
Speaker
Inwiefern verändert jetzt AI, respektive generative AI, das ganze Thema? Experimentieren.
00:34:34
Speaker
Meinst du?
00:34:37
Speaker
Ich glaube, wir sind im Auge des Sturms, glaube ich. Also ich glaube, es gibt ... Ich glaube, so wie das ganz viele Bereiche gerade betrifft, die von Generative AI irgendwie erfasst werden, und ich habe da auch die Perspektive, Generative AI wird auch keine Arbeitsplätze wegrationalisieren, sondern Generative AI macht uns hundreds of times more productive am Ende. Wir werden viel produktiver sein, wenn wir Generative AI benutzen und integrieren. Und bei uns ist genau das selbe Thema. Wenn du anfängst, ein Experiment zu denken,
00:35:07
Speaker
Und an vielen Stellen irgendwo Input braucht. Sei es, du brauchst einen Werbetext. Sei es, du brauchst eine klare Value Proposition. Sei es, du willst überhaupt auf eine Idee kommen, was du vertesten sollst. Was sind deine kritischen Hypothesen? Wo hast du Risiko? Da kann man mit Generative AI wahnsinnig viel Input zurückbekommen, ohne selbst diese wahnsinnig viele Gedanken zu machen. Und auf einmal ist die Setupzeit um 90 Prozent reduziert. Und dann bist du noch schneller da drin zu experimentieren. Man muss dir noch weniger Gedanken um irgendwelche, ich sag mal immer so,
00:35:35
Speaker
Operations machen. Du hast viel mehr Zeit für Ideation, viel weniger Zeit für Execution. Also viel weniger Zeit ist notwendig für die gesellschaftliche Execution. Dass du überlegen musst, ist das jetzt ein guter Copytext? Habe ich da den richtigen Benefit herausgearbeitet? Lass das doch ein Tool machen, was auf Trainingsdaten sitzt, die du niemals erzeugen könntest, der ein viel besserer Copywriter ist als du. Warum nutzt du das nicht und konzentrierst dich eher darauf?
00:35:59
Speaker
diese Ideen zu erarbeiten, die internen Gespräche zu führen, das Projekt an sich voranzutreiben und nicht dann Arbeitszeit darauf zu verwenden, dich irgendwie um die Execution zu kümmern, die in der Regel meistens 90% ausmacht. Und das macht Unternehmen viel, viel, viel potenter da drin, schneller zu sein.
00:36:18
Speaker
Und Generative AI verändert uns im breiten Markt und wir sind total happy drin, dass wir da alles integrieren, was wir integrieren können. Alles, was uns hilft, Shortcuts für unsere Kunden zu liefern, Versuche, die zu integrieren, damit es halt einfach mega schnell geht. Dass du dir dann nicht da sitzt und sagst, ich habe jetzt vier Stunden gebraucht, um diese Headlines zu schreiben. Ja, TGPT macht dir 20 Headlines in acht Sekunden. Da brauchst du dir gar keine Gedanken machen. Und die werden besser sein als deine, in aller Regel.
00:36:42
Speaker
Wenn du richtig prompt bist. Wenn du richtig prompt bist. Auf jeden Fall. Und die kannst du dann ja auch wieder gegeneinander vertesten, von welchen funktioniert der jetzt am besten. Ja, glaube ich auch, dass da unfassbar viel Potenzial drin ist. Was sind denn gerade so eure größten Herausforderungen?

Herausforderungen bei Xperials Wachstum

00:37:07
Speaker
Tatsächlich sehr, sehr unterschiedlich im Endeffekt. Ich glaube, eine Herausforderung, die wir gerade haben, ist eben schon angesprochen, du hast ein total unterschiedliches Level an, ich nenne es mal, Experimental Mindset. Du hast Unternehmen, wo das schon super gut integriert ist, wo wir einfach einer Addition sein können zu einem bestehenden Prozess. Dann geht das wahnsinnig schnell, man ist ultra gut im Thema. Und dann gibt es Unternehmen, für die ist das Rocket Science. Wow, das geht wahnsinnig, ist eine coole Methode, warum habe ich noch nie davon gehört.
00:37:33
Speaker
und das sind dann eigentliche Unternehmen, die plus minus auf demselben Level stehen und da halt irgendwie so ein gutes Gefühl dafür zu bekommen, was musst du dem eigentlich anbieten, wie kriegst du irgendwie 90 Prozent aller unter einen Hut, ist ein bisschen herausfordernd und dann überlegen wir halt, okay, wie können wir
00:37:49
Speaker
Hilfestellung liefern, das Tool so weiterentwickeln, dass wir eigentlich für jeden Mentefekt dann auch funktionieren, egal wo er im Endeffekt steht. Und das ist so ein bisschen so ein Austarieren. Vor allen Dingen, weil das immer ein Mentefekt hat, auch unsere eigene Product-Broadmap. Wir haben wahnsinnig viele da draufstehen. Und dann ist immer die Frage, was priorisieren wir jetzt weiter nach oben? Was kommt eigentlich als nächstes? Und für wie viele Leute ist das relevanter? Und da switchen die Sachen dann immer nach den Erkenntnissen, die wir im Endeffekt haben.
00:38:15
Speaker
Und das ist, glaube ich, die zweite Herausforderung. Wir können noch wahnsinnig viel bauen, aber es ist gar nicht schlau, da jetzt megaviele weitere Developer einzustellen und einen Megadruck darauf zu geben, weil die Geschwindigkeit, in der Neuigkeiten auf uns einprasseln, neue Ideen kommen, Anfragen kommen von Kunden, wir merken, das wäre eigentlich gerade viel spannender. Und wenn wir jetzt was anderes priorisiert hätten, hätten wir das alles überhaufen werfen können. Das passiert eigentlich jede Woche.
00:38:40
Speaker
Und dann ist man eigentlich froh, dass das Team kleiner ist, dass wir uns etwas langsamer bewegen in Anführungsstrichen. Aber man dann quasi immer wieder diese neuen Formationen schneller einarbeiten kann. Dass wir immer das nächste Bau nach dem guten alten Scrum-Prinzip, was den meisten Value für alle Kunden, die wir haben, liefert. Aber dieses Austavieren ist nicht ganz so simpel.
00:39:02
Speaker
Hm, ja, kann ich mir vorstellen. Ja, krass, gerade in so einem Blue Ocean, wo einfach auch viele auch erst mal checken müssen von, ah, Moment, warte, das kann ich damit machen. Und dann kommen ja bei den Kunden auch wieder ganz viele Ideen wahrscheinlich.
00:39:18
Speaker
Bei uns selbst ist das ja so. Wo wir auch merken, oh, das können wir ja auch damit machen, ja, am Ende. Und dann merkt man so, keine Ahnung, unser Pitch hat sich irgendwie die letzten acht Wochen sechsmal verändert. Also nicht fundamental, aber halt immer feiner geworden, feiner geworden. Und dann merkt man auf einmal, hey, auch Generative AI bietet auf einmal Shortcuts in Bereiche rein, wo wir dachten, puh,
00:39:36
Speaker
das ist Thema für nächstes Jahr. Und dann merken wir, nee, das ist Thema für in sechs Wochen, müssen wir damit loslegen, weil das ein mega geiler Hebel ist. Aber auf die Ideen kommst du immer erst dann, wenn du dich damit beschäftigst. Und die Schlagzahl ist da mega hoch so an neuen Ideen. Und wenn man sich dann darüber redet, denke ich mir, wir reden aber immer noch über dasselbe Produkt und über dieselbe Sache. Aber es wird halt immer feiner in vielen Stellen. Und das ist mega spannend, diese Entwicklung gerade eigentlich mitzugehen.
00:40:03
Speaker
Ja, ja voll. Wie groß ist euer Team gerade? Ich muss jetzt zählen. Ich glaube, wir sind gerade zu neun.
00:40:13
Speaker
Mit allen zusammengerechnet. Wir haben zwei Freelancer im Endeffekt. Wir sind neun Leute. Der größte Teil arbeitet auf Produkt. Mittlerweile ziehen wir an den Stellen nach, wo es notwendig ist. Das ist in der Regel dann Operationsprozesse, Customer Care, Customer Success. Überall da, wo wir mit den Kunden mehr Kontakt haben. Und das Development-Team wird auch größer werden. Aber im Moment bin ich froh, dass es so groß ist, wie es ist. Ich kriege sonst nicht mehr viel Code, den wir produzieren, nachher wieder schreddern. Weil es dann einen Switch gab, der das obsolet gemacht hat, aus dem wir gebaut hätten.
00:40:44
Speaker
Verstehe. Und sammelt ihr, seid ihr gerade auf einer Fundingrunde?
00:40:50
Speaker
Tatsächlich ja. Also Fundingrunde noch nicht mega akut. Also bei uns ist der Plan Ende des Jahres, Anfang nächsten Jahres eine Investmentrunde zu machen. Wir sprechen damit ganz vielen Investoren, sind aber auch offen für weitere Gespräche mit Investoren, die eine gute Passung haben. Aber es ist glaube ich gerade so, dass das für uns coole ist, noch ein paar Meilensteine selbst zu erreichen, auch die Investoren gut kennenzulernen, ob die eine gute Passung für uns unheitlich haben.
00:41:13
Speaker
Und dann hoffen wir dann Ende des Jahres, spätestens am nächsten Jahres, dann die Runde mit Infekt zu schließen. Aber da laufen auch im Hintergrund einige Gespräche. Sehr, sehr spannend.

Wichtige Lektionen und zukünftige Pläne

00:41:26
Speaker
Was sind denn so deine größten Learnings aus der Zeit mit Xperia jetzt? Die größten Learnings?
00:41:38
Speaker
Da gibt es im Endeffekt ein paar, würde ich im Endeffekt sagen. Ich glaube, das Allerwichtigste ist, geh nie von irgendetwas aus. Und da rede ich nicht von experimentieren, sondern da gehe ich wirklich viel von aus. So löst dich von jeden Art von so gedanklichem, gedanklichem Prozess, wo du denkst irgendwie, das müsste ja eigentlich so sein. Wir sprechen mit Riesenunternehmen.
00:42:00
Speaker
Und dann sprichst du mit den Innovationsabteilungen und denkst, die müssten eigentlich ultraaufzack sein, die müssten all diese Methoden kennen, die waren alle im Silicon Valley, die kennen alle Eric Rees, die kennen Lean Startup. Und dann schlägst du fest, der Standardprozess für die komplette Geschäftsmodellvalidierung sind Interviews zu führen.
00:42:16
Speaker
und nicht mehr und nicht weniger. Und das teilweise auch unstrukturiert und teilweise einfach irgendwelche Calls reingegangen und dann werden Meetings gemacht und dann werden teuer Clip-Damis gebaut und wir dachten, Wahnsinn, das hätten wir nicht erwartet. Und diese Erwartungshaltung kam ja nicht, weil wir Daten dafür hatten, sondern die Erwartungshaltung kam, weil wir dachten, so müsste es sein. Und ich glaube, diese gedankliche Barriere reinzureißen, dass man sagt, eigentlich gibt es, kannst du nichts erwarten. Und wenn du mit Leuten sprichst, die Head of Innovation sind, dann kannst du im Zweifel nicht davon ausgehen, dass sie wissen, was ein Factor-Test ist.
00:42:46
Speaker
Obwohl ich es erwarten würde, aber das darf man auf keinen Fall machen. Und seit wir da versuchen, das besser zu handhaben, merken wir, es läuft dann auch für uns besser. Wir denken irgendwie so, ich gehe nicht davon aus, dass der Gegenüber das versteht, er läutet es ihm einfacher, macht das klarer. Das ist auf jeden Fall ein ganz zentrales Learning, das ich habe. Und das zweite Learning, glaube ich, was dazu kommt, ist Communication, Communication, Communication. Selbst bei uns im eigenen Team im Endeffekt.
00:43:12
Speaker
Die Schlagzeilen an Informationen von außen kommen in so einer Frequenz. Du kannst eigentlich in einem Start-up nicht zu viel kommunizieren am Ende des Tages. Das ist eher eigentlich mit der Gegenteil der Fall. Manchmal berichte ich was und auf einmal sitzt mein Team da und sagt, krass, krasse Informationen, cool, dass du uns das mitteilst.
00:43:32
Speaker
so groß und wichtig ist die Information im Endeffekt nicht. Und deswegen auf jeden Fall gelernt, viel Kommunikationsflow zu haben. Lieber drei Minuten mehr erzählen als drei Minuten zu wenig, weil im Zweifel ist es dann eine Information, die verloren geht, die jemand aus dem Team bräuchte für seine weitere Arbeit und dergleichen. Und das dritte Learning ist, und das haben wir an vielen Stellen nicht gut geregelt und versuchen da immer besser zu sein, ist, versuchen, Dinge gut zu antizipieren, dass man vor der Welle ist.
00:44:00
Speaker
Du solltest dein Customer-Success-Team nicht aufbauen, wenn du schon zu viele Kunden hast, die Anfragen stellen, dass sie Hilfe brauchen. Weil dann hängst du da und hast mehr damit zu tun, diese Anfragen zu bearbeiten und hast nicht die Zeit, dein Customer-Success-Team aufzubauen. Selbst mit Sales, mit Operations, überall. Versuche immer herauszufinden, dem Prozess, den ich gerade habe, passt der auch, wenn ich 20 mal so viele Kunden habe, 20 mal so viele Mitarbeiter habe.
00:44:24
Speaker
Wie auch immer, dass du eigentlich dann antizipieren kannst, wen musst du jetzt schon einstellen, welchen Prozess musst du jetzt schon aufbauen, damit er dir nicht in drei, vier, fünf Wochen in den Hintern tritt. Und das haben wir teilweise gut hingekriegt und teilweise gar nicht. Und das ist eine Sache, wo wir mehr Fokus darauf legen, dass man sich nicht an seinen eigenen Prozessen erwirkt. Oder besser gesagt, an den nicht frontenden Prozessen erwirkt.
00:44:47
Speaker
Ja, er versteht total, was du meinst. Ja, das ist auch echt eine tricky Sache, weil eigentlich hat das ja auch mit Annahmen zu tun, vor allem ich nehme an, dass das in Zukunft so und so wird und muss dann eigentlich schon vorher handeln, bevor ich sagen kann, weil eigentlich, wenn ich die Daten habe, in Anführungsstrichen, dann ist es eigentlich halt schon zu spät. Also das ist auch echt nochmal tricky.
00:45:27
Speaker
Ich fühle dich.
00:45:31
Speaker
Du hast eben schon kurz ein bisschen von der Roadmap angeteasert. Kannst du uns ein bisschen mehr Details geben, was ist als nächstes so geplant?
00:45:42
Speaker
Was bei uns geplant ist, ist Simplifizierung, Simplifizierung, Simplifizierung, so würde ich es im Endeffekt nennen, also zumindest mal aus der Kundenperspektive. Wir werden einen Haufen Generative AI integrieren, definitiv. Wir werden integrieren, dass davor und danach, dass es nicht nur darum geht, wie exekute ich so einen Faktor-Test möglichst schnell, sondern wie
00:46:05
Speaker
Wie komme ich über den Input überhaupt? Was ich vertesten soll auf der einen Seite? Und auf der anderen Seite, was mache ich eigentlich mit den Daten? Also die Daten in der diskriptiven oder statistischen Form zu sehen ist gut. Da kann man aber wieder wissen, für was ich damit mache. Wie kann ich das noch einfacher darstellen? Wie kann ich da auch
00:46:21
Speaker
AI integrieren, was es mir einfacher darstellt und mir simpler im Endeffekt erzählt, dass man im Endeffekt den gesamten Prozess besser abbildet. Dass es nicht nur um das Execution und das aufsetzten Setup von Tests geht, sondern wie komme ich dahin auf der einen Seite und auf der anderen Seite, wie kann ich die Daten auch schneller interpretieren, einfacher interpretieren, dass ich direkt das nächste Action Item ableiten kann im Grunde genommen.
00:46:43
Speaker
Und da wird sich die nächsten Wochen und Monate einige Sponsor geben. Da freue ich mich schon drauf. Und das wird auf jeden Fall auch das Fokusthema sein. Einfach die selbe Stelle Geldkeeper rausnehmen. Je mehr Führden ich habe, dass ich an irgendwas stoße und sage, ich weiß jetzt gar nicht, wie es weitergeht, ist immer ein Killer für den Prozess. Und wenn wir da irgendwas machen können, was diesen Killer, diesen Blocker, diesen Geldkeeper rausnimmt, desto mehr wird experimentiert und desto mehr Benefit haben auch die Unternehmen, die mit uns arbeiten, von unserer Lösung, unserer Leistung.
00:47:12
Speaker
Ja, auf jeden Fall, würdest du unterstreichen. Cool. Wo, also, ich hätte jetzt auf jeden Fall, wenn ich jetzt zuhören würde, hätte ich jetzt auf jeden Fall ziemlich Bock, mir das Ganze mal anzugucken.

Wo findet man Xperial online?

00:47:24
Speaker
Wo kann man euch finden? Wir verlinken natürlich auch alles noch in den Show Notes. Aber wenn du es auch einmal sagst, wie findet man dich, wie findet man Experial? Genau.
00:47:35
Speaker
Genau. Also, uns findet man am allerbesten über unsere Webseite www.experial.ai. Direkt eine Demo-Request ist direkt oben im Header. Idealerweise kann man das Tool auch dann mal in einer kurzen Session zeigen und ein paar Use Cases zeigen, was da auch das Ergebnis ist, wie einfach das tatsächlich geht. Mich selbst findet man wunderbar unter Linked-In. Nader Fadel, ich denke, das Profil wird dann auch mal verlinkt. Gerne, Adam, ich bin immer bereit für Austausch zu dem Thema. Und wir werden sicherlich dieses Jahr auf der einen oder anderen
00:48:04
Speaker
größeren digitalen Veranstaltungen sein, sei es dem Mexico, sei es Digitaler Leute Summit, sei es Pirate Summit, der sogar noch früher ist, quasi der im Juni ist, da werden wir sicherlich auflaufen, wer da Lust hat sich zu treffen und dergleichen freue ich mich immer über einen Kaffee oder Austausch.
00:48:20
Speaker
Auf jeden Fall. Und du bist auch, du bist in Hamburg und in Köln, oder beziehungsweise Wuppertal und Köln oft unterwegs, richtig? Genau. Ich bin selbst, genau, man trifft mich in Hamburg durchaus an, obwohl ich da auch im Homeoffice arbeite, und bin aber sehr regelmäßig in Wuppertal, da haben wir das Unternehmen ursprünglich gegründet, sind aber so eine Remote-First-Kompanie, das heißt, man kann arbeiten von überall, aber bin dementsprechend mindestens immer so eine Woche im Monat in NRW und dann halt Wuppertal, Köln, Düsseldorf,
00:48:49
Speaker
je nachdem wo gerade Veranstaltungen und Termine sind.
00:48:52
Speaker
Ja, ja, sehr cool. Na, das hat mir mega Spaß gemacht wieder. Wir kennen uns ja jetzt schon was länger, und ich find's immer wieder megacool, über Xperiel zu hören. Ich find's ... Ja, also klar, weil wir auf einer ähnlichen Mission auch tatsächlich sind, so das Ganze vereinfachen, zugänglicher zu machen und so was, und ich bin mega gespannt, wo's mit Xperiel hingeht. Ich freu mich sehr auf eine Follow-up-Folge oder so in einem Jahr oder im halben Jahr oder so.
00:49:22
Speaker
Außerdem ist Nana, habe ich schon am Anfang schon gesagt, auch Dozent bei uns im Bootcamp und gibt da in einer Session auch eine längere Einführung in das ganze Thema Experimente und Experience. Genau. Total schön, dass du da warst. Vielen, vielen Dank für deine ganzen Insights. Hat mir wahnsinnig viel Spaß gemacht. Ich werde nicht müde, über dieses Thema zu reden und freue mich da über die Einladung und die Möglichkeit, dass wir heute bei euch mit Podcast getanzt haben.