Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#84 - Daten Onboarding endlich schmerzfrei dank No- aber auch High-Code - mit Michael Zittermann von Nuvo image

#84 - Daten Onboarding endlich schmerzfrei dank No- aber auch High-Code - mit Michael Zittermann von Nuvo

VisualMakers
Avatar
362 Plays1 year ago

Adriano im Gespräch mit Michael Zittermann.

In dieser Folge erfährst du, wie Nuvo den langwierigen und vor allem kostspieligen Prozess des Data Oboardings auf den Kopf stellt. Angefangen mit einer High-Code Lösung als Software Development Kit bieten sie mittlerweile auch immer mehr No-Code Lösungen an, um Daten schnell, einfach und fehlerfrei zu importieren.

Denn jeden Tag müssen Unternehmen Daten migrieren, importieren, onboarden - neue Kunden, neue Lieferanten, neue User, neue Plattform. Viele Daten heißt dann nicht nur viel Arbeit, sondern auch viel Potenzial für Fehler. Denn der Prozess ist längst nicht nur eine CSV hochzuladen. Dateiformate müssen stimmen und fehlerfrei sein, Felder müssen gematcht werden, Daten brauchen die richtigen Datentypen etc. Und dann ist da natürlich wie immer noch das Thema Datenschutz.. aber auch dafür hat Nuvo eine Lösung.

Links zur Folge

/// Webseite von Nuvo: https://www.getnuvo.com/

/// LinkedIn von Michael: https://www.linkedin.com/in/michaelzittermann/


////////// Gefällt dir unser VisualMakers Content? Werde selbst zum VisualMaker mit einem unserer vielen kostenlosen Kurse. Starte jetzt durch und werde NoCode Profi

https://www.visualmakers.de/academy

////////// Folge uns auf

LinkedIn: https://bit.ly/3SfL6oO

Youtube: https://bit.ly/3OF5jBj

Instagram: https://bit.ly/3cMYH6N

Slack: https://bit.ly/3cMNJhC

////////// Jetzt Newsletter abonnieren und keine NoCode News mehr verpassen!

https://bit.ly/3cMYNeF

Recommended
Transcript

Einführung in Low-Code Importlösungen

00:00:00
Speaker
wie viel kostet es, die Import-Applikation auf Kundenseite zu bauen, wenn die sagen, das kostet uns 100.000 Euro in diesem Jahr, da sitzen vier Entwickler und Entwicklerinnen dran, dann ist es quasi dieses Thema, wo wir sagen, okay, dieses Feature in Richtung Low-Code oder gänzlich in Low-Code zu bewegen, hat den größten Business Impact. Und so hangelt man sich durch, bis wir dann im März komplett mit dem ersten Low-Code-Produkt live gegangen sind.

Vorstellung von Michael Zittermann und Nuvo

00:00:31
Speaker
Herzlich willkommen zu einer neuen Folge des Visual Makers Podcast. Ich bin Adriano und in dieser Folge spreche ich mit Michael Zittermann, einem der Mitgründer von Nuvo. Nuvo ist noch ein sehr junges Startup aus Hamburg, aber die haben schon einiges geschafft und zwar im Bereich External Data Onboarding und Data Importing. Und was genau das Ganze heißt und was Nuvo macht, das erfahren wir natürlich beim Tool der Woche. Tool of the Week.

Herausforderungen beim Datenimport

00:01:02
Speaker
Nuvo nimmt sich dem Thema des External Data Onboarding und Data Importing an. Und jeder oder jede, der das schon mal gemacht hat, irgendwelche Daten über CSVs oder Excel Sheets irgendwo hochladen, weiß genau, dass das meistens viel Arbeit und vor allem viel Nerven kostet. Kleine Fehler führen dazu, dass ein kompletter Import scheitert, der aber schon 45 Minuten lang hochgeladen hat.
00:01:27
Speaker
Und da dachte sich Nuvo, das muss besser gehen und hat auch bewiesen, dass das besser geht.

No-Code und High-Code Komponenten von Nuvo

00:01:35
Speaker
Nuvo bietet sowohl eine No-Code als auch eine High-Code-Komponente an. Über das Software Development Kit, was Nuvo eben anbietet, kann man etwas komplexere Daten, Onboarding und Import-Lösungen finden. Und die No-Code-Komponente kümmert sich um alles andere mit einer schönen und einfachen No-Code-Oberfläche.
00:01:53
Speaker
aber auch mit bekannten Excel-ähnlichen Formeln, mit der man eben dann seine Daten so manipulieren kann, wie man möchte. Und das Ganze ist natürlich aus Deutschland und in Deutschland gehostet und dementsprechend datenschutzkomform. Aber auch aus einem anderen Grund ist das Ganze datenschutzkomform.

Datenschutz und Datenvolumen Management bei Nuvo

00:02:08
Speaker
Da hat sich Nuo nämlich eigentlich was recht Cleveres ausgedacht, um bei den Unmengen von Daten, die täglich durch die Software laufen,
00:02:15
Speaker
nicht in irgendwelche Datenschutzkonflikte zu kommen. Und wie genau sie das gelöst haben, das verrät uns Michael in dieser Folge. Los geht's. Hallo Michael, und hier sind wir jetzt. Ja, schön, dass du dabei bist. Stell dich doch einmal kurz den Zuhörenden

Michael Zittermanns Karriereweg und Nuvos Ursprung

00:02:32
Speaker
vor. Wer bist du, bevor wir dann zum spannenden Thema, nämlich deine eigene No-Code-Tool und nicht nur No-Code, wie ich schon erfahren habe, sondern auch High-Code, aber dazu kommen wir gleich.
00:02:42
Speaker
Ja moin Adriano, vielen Dank, dass ihr mich eingeladen habt, heute beim Podcast dabei zu sein. Ich bin Michael, ich bin einer der Mitgründer von Nuvo, getnuvo.com und bei uns geht es um das Thema external data onboarding. Ganz kurz um mein Background herum, ich komme ursprünglich aus der Schifffahrt.
00:02:59
Speaker
war für Jahre bei Habak Lloyd, bin dann in die Saas-Welt eingestiegen recht schnell, war bei einem Recruitment-ATS-Tool in der Schifffahrt geblieben tatsächlich, also dann wäre es mal grob gesagt Personio für Seafarers. Und bin dann direkt als First-Time-Forner mit ComLogs reingegangen, habe mein Mitgründer Ben Hartig, das ist unser CTO, das Unternehmen gegründet, war tatsächlich im Marketplace, recht unterschiedlich zu dem, wo wir im Endeffekt gelandet sind tatsächlich.
00:03:29
Speaker
und über den Pivot hinweg dann bei Nuvo gelandet. Jetzt sind wir ein kleines Team, 12 Leute aus Hamburg und Berlin und beschreiben wie angesagt das Thema external data onboarding und versuchen das ein bisschen mehr in die Massen zu tragen.
00:03:48
Speaker
Spannend. Also der klassische Fall von, du hast irgendwo Erfahrung gemacht, wo du meintest, hey, das kann nicht der beste Weg sein, das muss irgendwie cooler, einfacher, besser gehen. Und so kam dir dann auf die Idee.
00:04:01
Speaker
Genau. Es war ganz typisch, glaube ich, dass man ursprünglich einfach eine Need gefunden hat bei dem anderen Problem. Innerhalb dieses Prozesses, aber ich glaube, da kommen wir ja gleich noch mal zusätzlich drauf, sage ich mal, so ein bisschen auf die History, dass aus dem Kunden-Need, aus einem Value-Added-Service, den man eigentlich angeboten hat, die große Business-Idee entstanden ist und No-Code eigentlich auch ein Resultat daraus war, um das Unternehmen sauber aufbauen zu können. Okay. Aber dazu vielleicht gleich noch mehr.
00:04:27
Speaker
Erspannt, genau wie schon previewed. Es ist nicht nur No-Codes, sondern auch eine High-Code-Komponente. Was wäre denn so dein Elevator-Pitch, was Nuvo für ein Problem löst, was es vielleicht vorher oder ohne Nuvo irgendwie gibt?

Effiziente Lösungen für externe Datenintegration

00:04:43
Speaker
Ja, gerne. Bei uns geht es im Endeffekt um das Thema External Data Onboarding, wie wir es nennen. Das heißt, immer wenn man Kundendaten-Onboarding betreibt oder mit
00:04:51
Speaker
externen Partnern, Lieferanten, Distributeuren, etc. zusammenarbeitet, kriegt man einfach immer externe Daten zugespielt, die oft auch noch in CSV oder Excel-Dateien, weil die Usage in dem Bereich weiterhin nunmal wächst, stattfinden oder man muss aus Legacy-Systemen Daten migrieren in das neue System, was man im Endeffekt nutzen will. Und das ist

Automatisierung und Fehlerreduktion im Datenimport

00:05:12
Speaker
ein... Bitte.
00:05:13
Speaker
kurz um so einen konkreten Case, man hat irgendwie einen neuen Partner, der einen beliefert und der sagt, hier, alles klar, ich schicke dir schon mal die 15.000 Produktinformationen in so und so vielen Millionen Zeilen und das kommt immer als irgendwie eine CSV dann rüber. Ja, unter anderem. Also ich glaube, ein ganz classic Case ist möglich und wo wir auch am stärksten gestartet sind, ist eigentlich jedes SaaS Tool.
00:05:36
Speaker
Wenn man ein Onboarding betreibt und ein CM, ERP, PEM, TULS, Salesforce, dann geht es immer darum, dass die historischen Daten migriert werden. Und dieses Kundendaten-Onboarding kann gerne mal drei Monate, sechs Monate oder ein ganzes Jahr dauern, wo dann noch nicht als Kunstberatung mit reingeführt werden, bis hin granular runter eigentlich zu simpleren Cases, wo du vielleicht auch schon mal eine Excel-Datei importiert hast einfach an einem SaaS-Produkt und einen Importfehler bekommen hast.
00:06:03
Speaker
Und dieses recht intransparente Problem nennen wir Data Onboarding. Da fallen unfassbar große Mengen an Entwicklungskapazitäten rein. An Importskripten wird sehr, sehr viel geschrieben. Es gibt sehr, sehr viele Edge Cases von neuen Kunden und Kundinnen, die quasi aufgebaut werden. Und dem verschreiben wir uns und versuchen das eben agnostisch über alle Industrien hinweg jetzt anzubieten.
00:06:29
Speaker
Spannend. Ich glaube, da können wahrscheinlich die meisten irgendwie ein Lied von singen, von genau diesem, ich habe hier eine CSV. Ich exportiere irgendwas aus einem E-Mail-Tool und wenn es auch nur, ich weiß nicht, 300 Kunden Infos sind, exportiere ich eine CSV und will es irgendwo importieren.
00:06:46
Speaker
und dann das Mapping von irgendwelchen Daten und Attributen und dann wieder die Importfehler und dann checkst du, und dann ist es ja oft genug, wenn du sagst, ja, komm, die 100 Zeilen, die mach ich jetzt händisch, aber das ist halt auch schon halben Tage Arbeit. Genau. Und bei euren Größen macht das wahrscheinlich, also werden wahrscheinlich dann von, wie du schon gesagt hast, irgendwelchen Kundenseitig oder von der IT von denen irgendwelche so Workarounds gebaut und da setzt ihr sozusagen an.
00:07:10
Speaker
Genau, und das ist quasi eben der spannende Punkt, wo wir dann eben ansetzen und wir sichere, skalierbare Lösungen bauen, um eigentlich den Import von Daten aus Excel, CSV, JSON etc. eben stark zu automatisieren.

KI-gestützte Datenvalidierung und -bereinigung

00:07:23
Speaker
Also wir mapen, wir validieren, bereitigen und importieren, das Ganze KI-gestützt und datenschutzsicher auch im Browser verarbeitet, um quasi, ja ich sag jetzt mal,
00:07:33
Speaker
Wie man es bei ETL-Lösungen oder normalen DASEN-Pipelines kennt, kennt man ja Punkt A und Punkt B, um die API aufzusetzen. Und bei uns muss man nur Punkt B kennen. Das heißt, wenn man Daten erhält, sagt man in jedem Case, alles klar, damit kann ich arbeiten.
00:07:50
Speaker
wirft das im Endeffekt in Nuvo rein und dann wird quasi automatisch KI-gestützt, gemapt, validiert und bereinigt. Und so hat man eben die Möglichkeit, Onboarding-Cycles massiv zu reduzieren, administrative Arbeit zu reduzieren, Entwicklerkapazitäten zu sparen und da bieten sich eben eine große Reihe an Use-Cases an.
00:08:08
Speaker
Und marktübergreifend gesehen ist es einfach noch ein großes Thema, wenn man enterprise-seitig sieht, wie stark eigentlich ja nicht API-gestützt gearbeitet wird. Ein Großteil des Wissens ist eben noch lokal oder in der Cloud gespeichert, kann aber nicht über einen Mausklick direkt in jegliche Systeme gepusht werden und daraus kann ein Wert entstehen, sondern es muss Reformatierungsarbeit stattfinden, weil eben die Struktur nicht stimmt.
00:08:33
Speaker
Und das kann ja so banal sein, wie das Datumsformat muss auf das europäische Tag-Monat-Jahr-Format zurückgeführt werden. Aber auch größere Server-Callbacks, wo gesagt wird, okay, hier sind 6.000 E-Mail-Adressen, die Duplikate entsprechen, die man dann zurückschmeißt und dann definieren muss in den Import-Skripten, ob die ganzen überschrieben werden sollen, ob es ein Update tragen soll.
00:08:56
Speaker
oder ob das Ganze im Importprozess gelöscht werden soll. Es hat also eine Reihe von Anwendungsverhältnissen, im weitesten Sinne immer, wenn man mit strukturierten Daten,

Übergang von High-Code zu Low-Code Lösungen

00:09:04
Speaker
also CSV, Excel, die gerne nicht sind, zusammenarbeitet. Und wie kann ich mir das dann vorstellen, also, wenn ich jetzt als Nutzer eben eine riesige CSV hab, und ich weiß, okay, nur wo irgendwie setzt da an, wo, wenn ich das direkt in mein Endtool sozusagen hochladen würde,
00:09:25
Speaker
Da habe ich die ganze Zeit diese Inportfehler oder sonst was. Und das lade ich dann in die Web App von Nuvo hoch. Dort passiert dann alles und muss es dann wieder, also wird das über API direkt an verschiedene Tools dann weitergeschickt oder genau wie Setup Prozess.
00:09:40
Speaker
Genau, das ist eigentlich jetzt der spannende Punkt, wo wir anfangs eben mit High-Code gestartet haben und uns dann immer mehr Richtung Low-Code und dann Low-Code bewegt haben. Wir haben mit unserem Ist-Importer SDK als Software Library gestartet. Also als DevTool im weitesten Sinne, damit man eben nicht das Rad neu erfinden muss, damit man Importprozesse sehr schnell und einfach auch Powerful-Importprozesse sehr schnell aufbauen kann. Und hier ist es eben so, dass bei knapp 70 Prozent von unseren Kunden das Ganze im Frontend implementiert wird.
00:10:09
Speaker
und custom-styled wird. Das heißt, du kannst dir vorstellen, dass der Import-Button, den du in den Software trägst oder den du benutzt jetzt beispielsweise, wenn du in einem Zastrafile bist und Daten hochladen müsstest, dann ist das die Nuvo-Komponente, die da genutzt wird und vom Kunden weitestgehend dann eben zum End-User zur Verfügung gestellt wird.
00:10:30
Speaker
Und wie das Ganze dann eben funktioniert ist, man hat beispielsweise einen Data, einen Spreadsheet Export, den man nicht gezogen hat aus dem System oder aus zwei, drei Systemen. Und dann sagen wir jetzt mal, da sind 50 Spalten drinne, auch recht viele redundante Informationen nicht benötigt werden. Die Spaltennamen sind mit Sicherheit unterschiedlich benannt zum Zielsystem, was wir im Endeffekt definiert haben.
00:10:54
Speaker
Und hier ist eben der Fall, dass man ein sogenanntes Zieldatenmodell definieren muss, denn man muss eben wissen, wie dieser Punkt B aussieht, den wir angesprochen haben. Wie möchte ich Daten erhalten? Das ist das Mindeste, was man glaub ich wissen muss. Und dann ist es eben so, dass unser Machine Learning Algorithmus definiert, ah, okay, diese 20 Spalten aus den 50 sind für uns relevant. Die ziehen wir uns also raus.
00:11:14
Speaker
In den Entries sehen wir, wie die Formatierung vorgenommen wird und ob quasi ein Split von Entries vorgenommen werden muss oder ein Reformatierungsaufwand betrieben werden muss. Und das wird alles in einem sehr nicht technischen Frontend dargestellt, damit quasi auch jegliche User aus verschiedensten Abteilungen erfolgreich so einen Import durchführen können, obwohl das eigentlich ein Projekt von größerer Komplexität ist.
00:11:40
Speaker
Das heißt, wenn ich es richtig verstanden habe, ist es wieder irgendwie gewidelabelt auf dem Frontend von dem Kunden, also angenommen jetzt, weil sie ein neues CM-Tool kommt raus. Man kennt es ja, wie du es schon sagst, du Salesforce und Hubsport, du willst irgendwelche Kundendaten importieren. Und dann gibt es ja immer dieses manuelle Mapping.
00:11:58
Speaker
Ne, aus welcher Spalte soll er sich das ziehen und so. Und dieser Prozess wäre sozusagen, was im Background, der läuft nur wo drüber, aber im Vordergrund ist es für die Mitarbeiter oder für externe User ganz normal das Tool.
00:12:11
Speaker
Genau, also wenn du jetzt eine CRM-Tool nimmst, wie tatsächlich eben so ein Samdoc beispielsweise, die wir uns implementiert haben, läuft das alles Frontend-seitig, die haben die Library importiert. Das ist auch hochspannend eben in dem Sinne, dass eben keinerlei Daten, die importiert werden in diesem Prozess, jemals über unsere Server laufen.
00:12:31
Speaker
Das heißt tatsächlich also nur, dass wir die Spaltenmappings verarbeiten, um den Machine Learning Algorithmus weiter trainieren zu können, aber dementsprechend eben keine Datenschutzsorgen vorhanden sind im europäischen Markt. Und dann gibt es in verschiedensten SaaS-Produkten oder anderen Produkten in Europa eben die Gewohrkomponente drin, wo dir nicht bewusst ist, dass du sie nutzt. Und

Datenschutz durch serverlose Architektur

00:12:51
Speaker
hier haben die Kunden und Kunden eben die Möglichkeit, sehr viel Kosten zu sparen, schnellere Onboardings durchzuführen und auch mehr zu verkaufen.
00:12:59
Speaker
Ah ja, okay. Spannend, gerade was du auch meintest, dass das auch überhaupt nicht irgendwie bei euch auf den Servern halt passiert. Das ist einmal, wie du schon sagst, datenschutztechnisch natürlich super, weil da seid ihr fein raus. Die anderen kennen sich wahrscheinlich auch besser aus und sind ja ihre Kundendaten. Das heißt, es muss nie irgendwie diesen Prozess geben, die Kunden halt zu fragen, hey, ist das in Ordnung, wenn wir das irgendwie weitergeben? Aber wahrscheinlich auch so Serverkapazitätsmäßig und kostenmäßig ist das für euch ja auch viel, viel besser, oder?
00:13:27
Speaker
Ich glaube das auf jeden Fall auch. Das war primär nicht der Punkt, an den wir tatsächlich gedacht haben, als wir die Architektur des Tools aufgebaut haben, sondern wirklich einfach der Prozess. Wenn man über den Datenimport spricht, geht es direkt um Datenschutz. Das heißt quasi, die größte Blockade wäre im Endeffekt sogar unser Legal Agreement gewesen in erster Form.
00:13:46
Speaker
wenn innerhalb eines DPAs zu viel processed wird, eine Abtime-Garantie in dem Fall ja da ist und jegliche private Daten quasi und wir als Nuvo quasi auch back-to-back in den Agreements der Kunden weiter gereicht werden müssen. Und dementsprechend war einfach die Frage, schafft man das kapazitätstechnisch, schafft man das von der Architektur auch sauber, diese großen Datenmengen zu processen, was nun mal möglich ist. Und dementsprechend ist das in diese Richtung gelaufen. Genau.
00:14:17
Speaker
Aber ja, also finde ich es sehr cool. Ich glaube, auch ein ziemlich gutes Learning von euch und einfach generell so ein Tipp, was man weitergeben kann, wenn man an so einen Punkt kommt, weil das ja mit Datenschutz immer eine große Gefahr ist. Nicht nur daran, dass es dann wirklich komplett daran scheitert, sondern auch einfach ein Potluck, dass es dann drei Monate lang sich zieht oder vielleicht sogar ein Jahr und in der Zeit
00:14:41
Speaker
passiert halt nichts. Einfach mal zu überlegen, okay, muss das wirklich, also müssen wir die Daten in irgendeiner Weise wirklich halten oder können wir das irgendwie anonymisiert machen oder benutzen wir überhaupt eigene Server? Das ist cool. Ich glaube, von der Argumentation, wenn man als SaaS-Unternehmen auf europäischer Ebene wirklich
00:15:01
Speaker
skalieren will, zum Product Market Fit kommen will, kann man einfach sagen, dass das eine Order Form und ein sauberes DPA und GDPR-Konform zu arbeiten ganz klarer USP ist. Man hat oft ja auch einen US-based Competitor, die dort mitspielt, wo man sich sehr leicht, also architektonisch nicht leicht, aber dann doch, wenn man es hinkriegt, sehr gut differenzieren kann auch für einen sehr langen Zeitraum und auch klare Handlungsempfehlungen, wie du das eben gerade angesprochen hast.
00:15:28
Speaker
Ich finde es aber auch spannend, in dem Sinne zu vergleichen, wie sind die Prozesse vorher gelaufen? Waren die in dem Fall dann auch datenschutzkonform? Was wurden denn überhaupt für Tools genutzt? Und da kann man sich dann auch recht schnell positionieren, um sogar eine Verbesserung des vorherigen Prozesses eben vorzunehmen. Ja, also du meinst so als ein Pitch zu den Kunden so, hey, wie macht ihr das bisher? Oh, das dauert nicht nur lange, sondern ist so datenschutzmäßig auch eine Grauzone und wir nehmen euch beides irgendwie ab.
00:15:56
Speaker
Ich glaube, der größte Feind, den man dann oft hat, ist tatsächlich dann trotzdem noch die administrative Arbeit, das manuelle Abarbeiten von derartigen Sheets in Haus. Da ist das Compiken selbst natürlich immer eine gewisse Schwierigkeit.
00:16:10
Speaker
Aber wenn das ganze serverseitig gelagert wird, gibt es auf jeden Fall immer weitere Parteien, die da ins Processing mit reinspielen und das ist durch unsere Komponente eben nicht von nöten. Aber ich glaube, da schneiden wir auch schon so ein bisschen in doch sehr, sehr relevantes Thema rein.
00:16:28
Speaker
wo wir jetzt die vorherigen Prozesse angesprochen haben. Und das ist tatsächlich eben, dass die vorherigen Lösungen einfach überhaupt nicht im No-Code-Segment stattgefunden haben, sondern ein Großteil der Entwicklungsressourcen einfach darauf aufgewendet worden sind, bei so so vielen Saas-Tools weltweit, um CSWs zu pasen, um Importprozesse abzuarbeiten und nicht am eigentlichen eigenen Produkt zu arbeiten. Das heißt, dieses Thema Datenimport haben wir festgestellt,
00:16:56
Speaker
hatte überhaupt nichts mit No-Code an Gut, wenn man jedenfalls in diesem External-Data-Onboarding-Bereich sich bewegt. Natürlich gibt es viele Process-Automization und ETL-Tools, die da schon sehr große Vorreiter sind, aber es war einfach ein reines High-Code-Thema, was manuell oder mit Entwicklerkapazitäten abgehakt worden ist.
00:17:20
Speaker
Das heißt, wenn irgendeine Company jetzt mal auf so ein Problem gestoßen hat, also diese Importgeschichten gehören ja zum Alltag bei so großen Companies. Ja, wie du schon sagst, es kommen entweder neue Kunden oder Lieferanten dazu oder sonst was, aber das ist ja irgendwie so Daily Business. Das heißt, viele Entwicklerkapazitäten waren einfach nur dafür abgestellt, dass irgendjemand die versucht hat, zu übersetzen, damit die auf den eigenen dann irgendwie System brauchbar sind, oder wie?
00:17:47
Speaker
Genau, es ist im Endeffekt so, dass wenn eine neue Lizenz verkauft worden ist, dann kann man eigentlich jedes Mal von einem Edge Case sprechen. Es ist ja jedes Mal eine eigene Struktur, mit denen man konfrontiert wird. Und wir hören das einfach quasi jedes Mal, wenn wir ein neues Gespräch führen, dass andere Leute sagen, mein Importprozess ist ja so außergewöhnlich komplex.
00:18:09
Speaker
und ich habe immer neue Edge-Cases. Und jedes Mal, wenn Kunden-Onboarding betrieben wird und ich auf die Product-Roadmap gucke, sind da dermaßen viele Tickets, die eigentlich importbasiert sind, weil wir Kunden schnell ins System bewegen müssen. Die müssen, ja, Time-to-Value ist das Stichwort, eigentlich möglichst schnell einfach von unserem Tool profitieren und dort vorankommen.
00:18:27
Speaker
Und genau, das ist eben der Punkt, wo wir ansetzen und sagen, nein, man kann komplett generische Lösungen anbieten, die jegliche Edge-Cases anbinden.

Ressourcenschonende Kundenonboarding Prozesse

00:18:37
Speaker
Und das ist tatsächlich eigentlich hauptsächlich durch KI möglich, würde ich dann behaupten. Und dadurch, dass man eben Entwicklerressourcen auch einfach durch die Library selbst einspart.
00:18:49
Speaker
Und wie ist das in eurer Erfahrung mit dem Einführen von eurem als einen neuen Tool in so einer Company, weil oft ist es ja oft gar nicht mal das, bzw.
00:19:04
Speaker
Es gibt ja viele Fälle, in denen diese Akzeptanz für neue Tools intern dann einfach so, ja, ich weiß, es dauert zehnmal länger bei uns, aber wir machen das schon immer so und ich will auch kein neues Tool lernen. Konntet ihr durch das Whitelabing erstens einen großen Unterschied irgendwie merken und generell, was ist da so eure Erfahrung?
00:19:22
Speaker
Ich gebe dir auf jeden Fall recht, dass eine gewisse Schwierigkeit bei uns auf jeden Fall ist die Intransparenz des Problems. Es wird quasi als Daily Business abgetan und ein großer Teil unseres Inbau und Flows eigentlich ist auch Content Beschaffung.
00:19:40
Speaker
Bild versus By-Analysen oder White Paper, um aufzuzeigen, so viele Kapazitäten werden intern überhaupt bei euch verwendet, um Kunden-Onboarding sauber durchlaufen zu lassen. Und so viele mehr Kunden können ongebordet werden. Es kann eine Demo direkt angesprochen werden, wie schnell ein Onboarding selbst stattfindet, wenn also quasi unser Tool angeboten wird.

Herausforderungen bei der No-Code Akzeptanz

00:20:02
Speaker
Aber die Implementierung selbst ist immer mit einem Testing verbunden, was ja immer eine gewisse Schwierigkeit mit sich zieht, weil wir eben als High-Code-Library gestartet sind und das immer noch auch anbieten, weil es tatsächlich dann eben die maximale Flexibilität anbietet in bestimmten Cases, die benötigt wird.
00:20:25
Speaker
Aber Entwickler und Kapazitäten sind immer low. Das ist ja auch der Hintergedanke von No Code selbst. Und dann wird uns quasi gesagt, okay, es ist wahnsinnig toll, dass Kapazitäten gespart werden in dem Zusammenhang, aber wir kriegen das nicht auf die Roadmap.
00:20:41
Speaker
Das ist natürlich ein Paradox, klingt in erster Linie, aber das ist auch direkt zu Beginn immer ein sehr klares Signaling gewesen. Wie kann man den Implementation-Prozess von Nuvo vereinfachen? Das schreit nach Low-Code. Das schreit einfach daran, den Prozess ohne Codezeilen durchzuführen. Im besten Fall ohne Entwicklerkapazitäten möglichst weit voranzuschreiten.
00:21:07
Speaker
Und das war dann quasi der Prozess, also hattet ihr Nuvo, weil du hast ja vorhin schon angesprochen mit Comm.Docs seid ihr irgendwie gestartet, war das die High-Code-Version davon oder wie muss man sich das Ganze vorstellen? Da machen wir tatsächlich jetzt einen Zeitsprung, wobei
00:21:24
Speaker
Auf den Part gucken wir eigentlich sehr gerne zurück. Wir sind gänzlich anders gestartet als FMCG Marketplace. Wir haben Bayern Supply am weitesten nur miteinander verbunden in der Covid-Zeit.
00:21:40
Speaker
und haben da quasi nicht das Skalierungspotenzial gesehen. Wir hatten 400 Supplier auf der Plattform tatsächlich und ein paar Via-Events. Und was maßgeblich für uns war, waren zwei Sachen im Endeffekt. Einerseits waren wir sehr
00:21:56
Speaker
Pivot freudig, sage ich mal. Mein Co-Founder ist, ich würde sagen, Data Scientist at Heart. Der ist ein Techie, da ist der Marketplace vielleicht nicht immer die größte Challenge, nach der man sucht, ehrlicherweise. Und wir haben sehr, sehr früh mit QuickCommerce-Provideren wie Gorillaz und Pfling zusammengearbeitet, die damals natürlich wahnsinnig viel Product Data Onboarding betrieben haben. Master Data Management ist das Stichwort.
00:22:17
Speaker
Da wurden, ja ich sag jetzt mal, Excel mit 80 Spalten rausgeschickt, also noch recht Start-up-like, da gibt es natürlich andere Möglichkeiten, EAPs oder PIMs. Dann wird das 80-spaltige Excel an die Bäckerei in Berlin geschickt mit 10 Produkten, was dann eben 800 Data-Entrees bespricht. Und dann führt leider schon das Komma statt dem Punkt in der Mehrwertsteuer zum Importfehler.
00:22:39
Speaker
was zu massiven Stau Einstellungsstoppen führt. Und das war der Trigger Point und das war der Value Added Service, den ich angesprochen habe zu Beginn des Podcasts eigentlich, wo wir gefragt worden sind, könnte die Produktdatenlistung für uns mit übernehmen? Wir erstmal ohne Hintergedanken gesagt haben, ja, machen wir.
00:22:58
Speaker
Und auf dieser Plattform-Idee ist die Software Library entstanden, weil wir gemerkt haben, hey, das Problem ist ja total diagnostisch. Das ist insofern skalierbar, weil es überhaupt nicht relevant ist, dass jetzt produktbezogene Daten über, ja, was in dem Produkt drin ist, welche Kilokalorien da drin sind, wie viel Gramm Zucker, total unrelevant, weil man ja strukturell und tabellarisch vielleicht denkt und sagt,
00:23:20
Speaker
Ja, ich möchte eine Zelle in einer CSV splitten oder reformatieren und es interessiert mich weniger, dass da drin jetzt vielleicht Sugar oder 6 Gramm drin steht. Und da heraus resultiert hat man dann gemerkt, okay, das können wir größer fahren und das können wir auch in verschiedensten Industrien heraus tragen. Genau.

Nuvos Entwicklung von High-Code zu Low-Code

00:23:40
Speaker
Und die High-Code-Komponente, von der wir am Anfang auch gesprochen haben, die ist so jetzt noch existent bei euch und kann man irgendwie, also es ist einfach ein anderes Layer, was man aber auch als Nutzer, also worauf man auch zugreifen kann.
00:23:55
Speaker
Ja, ich glaube, da kann ich vielleicht so ein bisschen die Differenzierung zwischen High Court und No Court bei uns darstellen oder die Bridge. Wenn man bei uns auf die Website geht, ist es weiterhin so, dass man oben in die Dokumentation gehen kann, in die Entwicklungsdokumentation und anfangen kann, eben unsere Library zu nutzen und den Importprozess aufzubauen. Aber es ist nun mal einerseits essentiell für den Sales Flow, dass das Ganze so schnell wie möglich geschieht und man schnell einen POC aufbaut.
00:24:23
Speaker
Und in zweiter Linie ist es auch eine riesen Zeitersparnis in dem Zusammenhang, wenn man es schafft, den gleichen Wert ohne das Schreiben von Code aufzusetzen oder eben leichtechnischen Product-Managern die Möglichkeit gibt, den POC aufzusetzen. Darum hatte ich quasi die Brücke über Low-Code, wo vielleicht dann erst mal Product-Manager auch viele bei uns im ICP angefangen haben, das aufzusetzen und wir uns immer weiter da voran bewegt haben. Und die
00:24:51
Speaker
Ich hatte tatsächlich jetzt mit der Elite von euch schon von einer längeren Zeit gesprochen, weil ich immer so ein bisschen cautious war, ob wir in die Richtung No-Code überhaupt uns bewegen wollen, weil faktisch die Nutzung ist eine Developer-Thematik, tatsächlich. Die wird in der Entwicklung weiter betrieben. Was für uns erstmal ein Signal war, okay, wir sind eine High-Code-Library, die haben die volle Flexibilität, die wollen das Ganze entwickeln. Aber wenn man dann, bitte.
00:25:18
Speaker
Zurück, du meinst kurz, also dieses generelle Importieren ist eher eine Developer-Thematik? Nee, das Import-Script-Schreiben tatsächlich. Ah, okay, das. Und tatsächlich einfach ein Haus, die Migration zu begleiten. Und da war quasi immer der Hintergedanke, wieso sollen wir tatsächlich voll in den Low-Code-Markt tappen? Ja. Ja, weil
00:25:41
Speaker
Es war quasi der Punkt, dass unser Tool, das war uns schon recht früh klar, und das war ein Riesen-Learning, das wird nicht dazu führen, dass die Nutzung innerhalb des Unternehmens in ein anderes Department shiftet. Was man sich ja oft bei No-Code denkt, No-Code ermöglicht es jeder Person im Endeffekt, diese Prozesse zu begleiten. Das stimmt nicht. Ich kann da nicht die Responsibilities bei meinem Kunden abändern. Das ist immer noch die Entscheidung auf deren Seite. Und so ist es letztendlich gewesen, dass aber trotzdem von allen Seiten kamen, ja, aber dann läuft die Entwicklung viel schneller.
00:26:11
Speaker
dann wird noch mehr gecodet. Wir können auch viele der Komponenten einfach schneller vorantreiben. Es wird weiter in der Entwicklung vorangetrieben. Und man muss sich einfach, sage ich mal, von diesem Stigma lösen, dass man es für alle nutzbar machen will, weil ich sage mal, No Code hieß für mich zu Beginn, Enablement von allen Leuten innerhalb der Organisation.
00:26:32
Speaker
Das ist aber falsch gewesen. Es ist einfach eine starke Effizienzsteigerung in unserer Bubble. Und die ist genauso viel wert. Und das muss gar nicht der Zwang sein, dass alle Leute aus einer Abteilung quasi dieses Tool benutzen, sondern einfach Effizienzsteigerung durch No Code. Das finde ich tatsächlich echt eine
00:26:53
Speaker
Einen super interessanten Insight, weil ich glaube, das wird oft nicht so gedacht. Also zum einen gibt es natürlich immer so ein bisschen dieses, soll No-Code-Code ersetzen oder wird No-Code-Developer ersetzen? Das ist halt so, nee, darum geht es halt in keinster Weise. Und ich glaube auch, in dem No-Code-Fundamentals-Kurs bei uns hatte ich das, glaube ich, auch so
00:27:15
Speaker
argumentiert, dass das halt passieren kann. Es gibt zum einen dieses, da müssen sich die Entwickler oder die IT-Abteilung halt nicht mal mit so Kleinigkeiten, wenn irgendein Produktmanager oder Marketingmanager jedes Mal sagen muss, hey, können wir das so und so anpassen und dann dafür ein Entwickler zwei Tage abgestellt sein muss und dann gibt es ein Missverständnis. Das ist natürlich ein großer Pain. Und wenn sowas natürlich ein No-Code ist, dann geht der Marketingmanager selber hin, passt das an, lässt es ihm die frei geben, um sicher zu gehen, dass es live gehen kann und fertig.
00:27:44
Speaker
Und die Entwickler können sich dementsprechend mit wirklich Sachen befassen, die diese Skills wirklich brauchen. Aber das, was du jetzt gerade meintest, ist ja auch extrem spannend. Nur weil die Entwickler und Entwicklerinnen jetzt mit einem komplexeren System arbeiten könnten, heißt es ja nicht, dass sie es wollen oder müssen. Weil am Ende des Tages wollen wir es ja immer irgendwie einfacher haben.
00:28:05
Speaker
Und die Tatsache, dass natürlich trotzdem super viel immer noch gecoded wird, ist dem geschuldet, dass man damit halt immer noch alles machen kann, weil alles basiert natürlich einfach auf diesen Sprachen. Aber das ist, glaube ich, echt ein extrem guter Punkt. Es ist eben genau der Punkt, den du angesprochen hast. Wir hatten auch Cases, wo gesagt wird, okay, dann kann die Marketing-Abteilung das ja selbst machen.
00:28:26
Speaker
Ja, aber das ist sekundär für die Designer, das ist nicht mein Job. Das ist weiterhin Entwicklungsthematik und wenn das bei uns intern nicht anders geregelt wird, dann wird es auch nicht anders passiert. Aber es kann so, so viel mehr Fokus aus der Entwicklungsabteilung endlich für das eigentliche Produkt benutzt werden, also was quasi Wert auf Kundenseite schafft.
00:28:45
Speaker
dass man sagt, okay, dort können wir voranschreiten. Und darum ist, glaube ich, auch unsere Definition von No-Code in dieser Bubble, in der wir sind einfach minimal anders als in allen Bereichen, aber genauso wertvoll trotzdem noch, wie es auf der Seite dann passiert.
00:29:01
Speaker
Ja, ja, total. Bringt dir immer noch dieselben Vorteile halt. Das ist einfacher, zugänglicher und spart halt einfach Zeit und Geld. Da geht es ja halt ganz oft bei Low-Code darum, irgendwie was schneller ausprobieren zu können. Aber das heißt, dass die High-Code-Komponente, sind die beide gleichgestellt von den Funktionalitäten oder können die Entwickler dann schon noch sagen, okay, das habe ich jetzt mit der Low-Code-Komponente nicht hinbekommen und kann darüber switchen, wie kann man sich das vorstellen?
00:29:27
Speaker
Aktuell würde ich sagen, kommen wir mit der No-Code-Variante nicht an die Möglichkeiten der High-Code-Variante dran. Es gibt auch einfach gewisse Trigger-Elemente, wie beispielsweise das, auch wenn wir komplett No-Code bei uns an Import-Floor aufsetzen, ein, wie gesagt, ein Server-Callback zu bestehenden Datenbank auf Kundenseite gemacht wird. Das sind Sachen, auf die wir keinen Zugriff haben, dementsprechend auch keine No-Code-Komponenten so wirklich dafür zur Verfügung stellen können, in gewissem Sinne.
00:29:54
Speaker
Und ich glaube, es ist auch noch eine gewisse Angst da im Markt. Wenn wir einfach Verkaufsgespräche führen, ist es immer ein Fallback zu sagen, ihr könnt hier noch JavaScript-Code einfügen, weil dann quasi immer die möglichen Limitierungen, die in Köpfen hängen, aufgehoben werden können.
00:30:13
Speaker
Und dann gibt es immer eine Aufatmen-Nennung call, irreführenderweise. Aber es ist nun mal trotzdem noch so, dass man in diesem Bereich DevTools, Datenimport ist nun mal ein massiv komplexes Thema, wenn man beispielsweise an ERP-Tools denkt. Das sind ja ganze Abteilungen, die da im Endeffekt dran sitzen und elementar für dieses ganze Tool. Und das wäre auch, glaube ich, irreführend, wenn man behaupten könnte, mit Nuvo können wir diese ganze Abteilung einfach no-code-seitig ersetzen. Ich glaube, man ist ja aktuell auch
00:30:42
Speaker
durch Machine Learning und durch die vorantreibende Innovation einfach in der Lage, immer mehr No-Code-Funktionalitäten zu ermöglichen, Codeteils automatisiert zu generieren, der auf Kundenseite im Endeffekt angefragt wird. Aber ich habe das Gefühl, dass der Markt noch ein bisschen Zeit braucht, um die volle No-Code-Akzeptanz da mitzubringen und nicht diesen Fallback zu haben. Das heißt, auch alle No-Code-Komponenten, auch unsere No-Code-Data-Pipelines
00:31:10
Speaker
die wir eben anbieten, haben einen JavaScript Injection Fallback. Und der wird auch genutzt. Und das ist teilweise dann auch personenabhängig. Wer implementiert das Ganze und denkt sich vielleicht, ich kriege das genauso schnell, wenn ich das code. Oder einfach, wie du schon sagst, immer so gemacht, dann mache ich das auch weiterhin so, auch wenn ich dieses Tool bekommen habe. Also geben wir dem Ganzen nochmal Zeit, aber ich glaube, es ist durch die Effizienzsteigerung
00:31:37
Speaker
nicht möglich diesen Trend aufzuhalten. Aber das ist also auch ein extrem spannender Punkt, weil auch
00:31:45
Speaker
so unternehmerisch gedacht. Also es passiert ja oft so dieses, diese, ja, ich weiß nicht, diesen so unternehmerischen Hochmut, den viele dann haben, so, hey, ich hatte das Problem, ich habe jetzt eine Lösung dafür gebaut und basiert halt das komplette Ding auf der eigenen Erfahrung, vielleicht noch mal zwei Leuten gesprochen und sagt dann, ja, damit geht's schneller und besser. Aber es scheitert ja wirklich oft an den einzelnen Cases, wie du sagst, dass dann doch ein einzelnes Unternehmen oder ein einzelner Entwickler oder dann wirklich sagt,
00:32:15
Speaker
Nee, finde ich irgendwie nicht, das ist nicht der Weg, den ich es mache, und es gibt kein Fallback dazu. Und das kann ja wirklich so ein K.O.-Kriterium halt dafür sein, zu sagen so, okay, ja, kann ja wirklich sein, dass alles perfekt läuft, aber dieses Vertrauen darin ist halt so ein starker Faktor. Und du hast ja auch schon gesagt, das Norco-Thema kommt jetzt erst wirklich so irgendwie in der breiten Masse langsam an.
00:32:39
Speaker
Aber trotzdem nur so im beruflichen Umfeld. Und das ist immer noch, und wir sind halt da auch in Deutschland natürlich, immer alles so ein sensibles Thema von, wo liegt etwas, wie funktioniert das, wer hat den Zugriff drauf, wer hat die Kontrolle. Und ich glaube, das ist ja noch mal so eine untere Sparte davon, also diese Datenimportierung, da geht es ja wirklich um Kundendaten und so. Und da, ja, da wäre es wahrscheinlich so, ja, wäre irgendwie schön, wenn man das ohne eine einzige Zeile code und jeder könnte das machen.
00:33:05
Speaker
Aber es ist nicht realistisch. Und der Case funktioniert halt nur, wenn die Entwickler und Entwicklerin halt sagen, finde ich schön, aber ich möchte trotzdem die Sicherheit haben, dass wenn irgendwas schiefgeht, das ist nämlich meine nächste Frage gewesen, der Import wird gemacht und man sieht eine Fehlermeldung, irgendwas ist schiefgegangen. Die können immer zurück auf das High-Coding und dann noch mal gucken, ob die das dann doch irgendwie mit Code alles lösen.
00:33:33
Speaker
Ich glaube zum ersten Punkt, den du auch noch angesprochen hast, was ich da so spannend finde, ist, wir sehen eine klare Abstufung.
00:33:43
Speaker
unterschiedliche Parties, mit denen man dann argumentiert im Unternehmen, ist es eben so, dass wir, glaube ich, im ersten Schritt immer diese Build versus Buy Argumentation haben und erstmal überhaupt den Sprung machen müssen, dass Extended Tools in dem Sinne eingesetzt werden, dass man nicht alles inhouse machen muss und dann im nächsten Schritt auch im Development Department sagen kann,
00:34:05
Speaker
No-Code-Tools sind dann die Effizienzsteigerung. Das soll nicht den Spaß an der Arbeit nehmen, wenn man sehr passionate ist, sondern wirklich einfach nur die Möglichkeit machen, noch mehr Raum für wirklich wertvolle Arbeit in dem Segment voranzuschreiten. Und zu deiner zweiten Frage, die ich sehr schön finde, ist natürlich, bei uns kann es nicht zu Importfehlern kommen.

Sicherstellung der Datenqualität bei Nuvo

00:34:27
Speaker
Das heißt, es kann natürlich sein, dass auf Zieldatenmodell-Ebene neue Definierungen vorgenommen werden. Man ändert was am Zieldatenmodell, aber es ist eben so, dass jegliche Datei importiert werden kann. Und dadurch, dass eben ein KI-gestützes Spaltenmaterial reinkommt, kann es quasi auch keinen Fehler schmeißen. Man kann nur aufgefordert werden, Veränderungen vorzunehmen an der Spaltenstruktur oder an gewissen Dateneinträgen, die vorhanden sind.
00:34:55
Speaker
Aber ein Fehler an sich kann es nicht geben. Im weitesten Sinne, was passieren kann, ist, dass man feststellt, man hat Daten hochgeladen, wo nicht, sage ich mal, wenigstens alle mandatory fields vorhanden sind. Wenn man einfach feststellt, okay, die Daten, die gesucht werden, sind wohl einfach nicht in einem Schiet drinnen, weiß nicht, was ich importiert habe. Aber so hat man eine gewisse Sicherheit, dass die Datenqualität einfach höchstmöglich bestehen bleibt.
00:35:21
Speaker
Das ist eigentlich ein echt guter Punkt, weil man kennt es ja oft genug selbst, wie du vorhin auch gesagt hast, mit dem ein einziger Kommersatzungsfehler führt dann zu einem kompletten Importstopp.
00:35:35
Speaker
Fehler gefunden, konnte nicht importiert werden, nachdem du 12 Minuten drauf gewartet hast, dass da was hochlädt. Obwohl alles andere irgendwie gut genug wäre, das könnte angezeigt werden. Das ist dann, wenn ich es verstehe so bei euch, es ist drin und sagt ihr dann so, aber hier gibt es irgendein Fehler, guckt ihr das nochmal an. Aber alles andere, was eigentlich flawless ist, ist dann halt da.
00:35:56
Speaker
Genau, also es ist im Endeffekt so, dass wir auch tabellarisch so ein Excel-like Sheet zum Ende darstellen, was ich einfach als Smarter Version beschreiben würde. Das heißt, man kann jede Spalte, jede Reihe quasi anpassen und Abi-Calls machen, also die Städte-Kalle mit der Google Maps API verbinden, Validierung und Bereinigung, sag ich mal, durchführen. Aber es ist ein Excel-like Sheet.
00:36:19
Speaker
wo rot und grün Farben genutzt werden, um automatisches Data Cleaning darzustellen in grün, oder Hard Errors oder ganz simple Regex-Validierungen, wenn beispielsweise die Domain falsch eingetragen ist. Und es wird ganz klar gezeigt, in dem Sheet von 10.000 Reihen sind 600 Fehler drin.
00:36:39
Speaker
Das heißt, quasi auf End-User-Perspektive wird immerhin angezeigt, was fehlerhaft an Daten drinne ist. Und das kann ja trotzdem die Entscheidung getroffen werden, die Daten zu importieren. Das Schöne ist nämlich, dass der Großteil der SaaS-Produkte unfassbar große Mengen an fehlerhaften Daten importiert hat. Man bekommt es ja noch nicht vorgezeigt innerhalb dieses Import-Prozesses.
00:37:00
Speaker
und auf dieser Datenbasis wird gearbeitet. Und darum sagen wir einfach auch, ein professioneller Importprozess hilft einfach auch beim Verbessern des eigenen Tools, bessere Data-driven Decisions zu betreiben, weil die Qualität einfach höher ist in dem Segment.
00:37:16
Speaker
Ja, und es kommt auch nicht zu dem klassischen Fehlercode 374F, es passiert. Ja, was heißt das denn? Ja, keine Ahnung. Ich muss erst mal rausfinden, was dieser Fehlercode heißt. Ja, es ist tatsächlich bei größeren Unternehmen auch wirklich so, dass wir ganz normal werben, dass die Support Tickets einfach reduziert sind. Weil es ein Riesenthema ist, wie viele Support Tickets durch Importer entstehen, wenn man quasi im 100-plus-Employees-Bereich, sage ich mal, ein größeres Sarstool anbietet.
00:37:44
Speaker
Ja, verrückt, was wirklich irgendwie so, wenn man nicht alltäglich damit zu tun hat, denke ich mir halt so nachher, man importiert halt Daten, man kennt es, jeder hat es schon mal gemacht, dann gibt es mir auch Fehler, aber genau, was die Zahlen da wahrscheinlich sagen, wie viel Zeit daran verloren geht und Geld und Entwicklerkapazitäten in irgendwie 2023, wo es wirklich besser gehen müsste. Von daher sehr, sehr cool. Was mich noch interessieren würde, wie seid ihr an die, also wie eure Herangehensweise
00:38:10
Speaker
für die No-Code-Komponente. Nachdem ihr alles High-Code hatte, die hattet alle Funktionen, hat gesagt, okay, das muss man so user-experience-mäßig irgendwie anders darstellen. Habt ihr da... Also, wie habt ihr das von der UI-UX-Seite gemacht? User-Testing und so? Ja. Da hab ich schon lange nicht drüber nachgedacht, ehrlicherweise. Es ist natürlich so, dass in erster Linie ich da groß Vertrauen in meinen CTO hab, der da am Lied ist.
00:38:39
Speaker
Aber was ich auf jeden Fall noch rückverfolgen kann, ist, man hat die Low-Hanging-Fruits, also Sachen, die vereinfacht, no-code-seitig dargestellt werden, und dann den größten Value-Add-of-Sale-Seite. Das heißt, unser primäres Ziel war, dass es geschafft wird, einen vollständigen POC aufzubauen, in kürzester Zeit, vielleicht in fünf Minuten.
00:39:00
Speaker
einen funktionierenden Importprozess, wo man vielleicht eine Beispiel-File hochladen kann. Wenn wir es schaffen, diesen gesamten High-Code-Prozess komplett No-Code abzubilden, keine komplexen Validierungsregeln, aber es kann ein vollständiger POC aufgebaut werden und es kann auf Kundenseite der Value immerhin schon mal festgehalten werden und das Potenzial, was dahinter ist.
00:39:21
Speaker
dann ist das schon mal ein Riesenthema für uns. Und das ist es tatsächlich auch gewesen zum Endeffekt. Das heißt, hier haben wir angesetzt, was der highest Impact für den POC und auf Kundenseite tatsächlich stattfindet. Und im Nachgang hangelt man sich dann immer und immer weiter, was hat den größten, weil wir einmal business case wise und return investment wise kalkulieren, wie viel kostet es, die Import-Applikation auf Kundenseite zu bauen, wenn die sagen, das kostet uns 100.000 Euro in diesem Jahr, da sitzen vier Entwickler und Entwicklerinnen dran.
00:39:48
Speaker
dann ist es quasi dieses Thema, wo wir sagen, okay, dieses Feature in Richtung Low-Code oder gänzliche No-Code zu bewegen, hat den größten Business-Impact. Und so hangelt man sich durch, bis wir dann im März komplett mit dem ersten No-Code-Produkt live gegangen sind, mit den No-Code-Data-Pipelines, wo man komplette ETL-Prozesse und No-Code-Data-Transformations durchführen kann. Wobei, selbst da muss ich zugeben, Transformationen ja auch durch Excel-like Functions durchgeführt werden.
00:40:17
Speaker
und wir uns auch immer wieder in diesem Datenimport und dieser Spreadsheet-Welt an bestehenden Prozessen orientiert haben. Wir sehen Excel so ein bisschen als das erste No-Code-Tour in einer Form, auch wenn quasi Formeln geschrieben werden müssen. Und dort kann eben die Usability recht gut gehalten werden. Das schließt vielleicht auch so ein bisschen in den Kreis der UI- und UX-Frage.
00:40:41
Speaker
dass bestehende, bekannte Strukturen aus den letzten 25 Jahren aufgebrochen werden, die visuell aber sehr ähnlich aussehen, um da eben sicherzustellen, es kann sauber gearbeitet werden. Ja, und darum ist es quasi auch ein Ziel, immer und immer mehr in Richtung No-Code zu gehen, bis wir hoffentlich auch jeden Edge-Case zukünftig komplett No-Code-seitig abbilden können.
00:41:06
Speaker
Ja, aber genau am Ende geht es in erster Linie halt darum, was kostet es und ist das so wichtig für die Kunden, dass es sich halt lohnt, weil ich meine, ich habe noch nicht mit vielen Leuten gesprochen, die das in der Form gemacht haben, aber zuletzt mit
00:41:23
Speaker
Mit Burkhard von Heisenwehr, der auch aus dem High-Code-Background kommt und jetzt mit Heisenwehr eben so ein Low-Code, No-Code-Ding für IoT baut. Und das ist genau das. Es war ja auch gerade spannend, was du meintest. Und ich glaube, für jeden, der sowas irgendwie auch machen möchte, also wirklich irgendwie ein eigenes Tool,
00:41:42
Speaker
präsentieren und verkaufen muss. Dieser, das das Verburgert eben meinte, Moment von, ich gehe zu dem Kunden, zeige ihnen hier drei, vier Handgriffe und fünf Minuten später kann er das Ding benutzen, hat ein Ergebnis, hat diesen Aha-Moment. Das war wahrscheinlich halt mega wertvoll.
00:41:57
Speaker
Man muss sich auch einfach immer in die bestehende Kundengruppe reinversetzen und wo befinden diese sich. Und die befinden sich nun mal im High-Code-Environment bei uns. Import-Skripte werden High-Code geschrieben. Das heißt, wir müssen dort ansetzen und vielleicht auch eher eine Brücke bauen, weil man nun mal auf Unverständnis stößt und man sagt, ich kann das Ganze jetzt No-Code lösen.

Potenzial in DevTools und Förderung der No-Code Nutzung

00:42:16
Speaker
Dann werden keine Prozesse aufgebrochen.
00:42:18
Speaker
Wenn man aber vielleicht ein Tool anbietet, was die Brücke darstellt, was die vollen Funktionalitäten und die Angst nimmt aus der Vergangenheit, dass man quasi das Ganze noch abbilden kann, dann hat man, sag ich jetzt mal, die Möglichkeit viele Leute zu migrieren auf diese Seite, dass no-code-seitig alles funktioniert, Importprozesse, auch komplexe Importprozesse.
00:42:37
Speaker
von nicht-technischen Leuten sauber abgebildet werden können. Und darum sehe ich einfach in dem DevTool-Bereich, wo so viel No-Code-Potential drin hängt. Ich glaube, die bekanntesten No-Code-Tools, die ihr verwendet, haben ja wahrscheinlich nicht die Entwicklungsabteilung als Zielgruppe ganz, ganz oft, sondern auch andere Users verschiedener Abteilung. Und hier bei uns in dieser Wandel muss man vielleicht den Weg gehen, auch High-Code-Optionen zu gehen, um groß zu werden, weil da eben noch Prozesse aufgebrochen werden müssen.
00:43:07
Speaker
Ja, finde ich eine sehr, sehr spannende Perspektive. Habe ich so, wie du schon sagst, glaube ich, in diesem No-Code-Bereich auch noch nie bedacht, weil oft, glaube ich, ich denke, hey, das soll jeder jetzt können. Ja, es gibt einfach manche Prozesse, die sind per Aufgabe schon gar nicht für alle da, weil das muss nicht jeder machen. Aber die Entwickler sparen sich eben natürlich trotzdem gerne Zeit. Und das kann man, glaube ich, dann doch auch vereinfachen, viel zu holen.
00:43:34
Speaker
Sehr schön. Abschlussmäßig würde mich natürlich auch noch mal interessieren, wie ihr selber mit NoCo-Tools arbeitet und welche Erfahrungen ihr hattet, vielleicht bevor ihr dann selber diese NoCo-Komponenten gebaut habt. Aber genau, also bei euch, bei Nuvo selbst, habt ihr andere NoCo-Tools am Laufen, sind Sachen über bestimmte anderen Tools irgendwie verbunden. Wie sieht es da Toolstack-mäßig bei euch aus?
00:44:01
Speaker
Ja, ich glaube, es ist ja auch einfach. Wir haben dann doch eine recht hohe Akzeptanz im Markt selbst, glaube ich, noch festgestellt, in dem ICP-Bereich, in dem wir sind. Wir könnten ja auch Entwicklerressourcen im Mittelstand vielleicht aufgreifen, Enterprise-Unternehmen. Wir sind ja in dem SaaS-Bereich tätig, wo, glaube ich, recht innovationsgetrieben noch gearbeitet wird. Und bei uns war es, glaube ich, ähnlich so, dass wir immer No-Code-First gedacht haben. Das ist immer recht schwer, teilweise intern zu argumentieren.
00:44:29
Speaker
Und ich glaube auch, da gab es hier und da heated discussions in Meetings, weil man sagt, wieso baue ich das Ganze jetzt no-code-wise? Wieso kaufe ich mir diese SARS-Truhe ein? Weil wir einfach die Abhängigkeit zu anderen Departments komplett ausbremsen wollten.
00:44:48
Speaker
Ich meine, ich versuche jetzt ehrlich gesagt ein direkteres Beispiel zu bringen, weil ja natürlich auch Website-Bilder wissen, wir sind bei Webflow, bei der Learning-Page gelandet, was für mich eigentlich schon Must-Have ist. Da sehe ich auch nicht die Möglichkeit, das anders abzubilden heute. Aber wenn wir unsere ganzen User-Analytics und Import-Analytics beispielsweise ziehen und das Verhalten,
00:45:08
Speaker
darstellen wollen, dann hat man natürlich die Möglichkeit, alles im Dashboard aufzubauen bei uns, im Custom Dashboard und gewisse Open Source Libraries zu verwenden. Und das kann auch sehr, sehr schnell aufgebaut werden. Und jetzt, wo man ein skalierendes Gerät und ein sehr gutes Gefühl vom Product Marketfit bekommt als Unternehmen und weiß, okay, da kommen jetzt zwei, drei, vier Leute im Customer Success dazu, will man einen Open Playground dieser Customer Success Abteilung geben, die keine Abhängigkeit
00:45:37
Speaker
für Dev-Resourcen bei uns im Unternehmen hat. Das heißt quasi, es muss nie angefragt werden, kann ich hier Funktionalitäten zum Messen der Kundenzufriedenheit oder zum Importverhalten aufgreifen, sondern nein. Es gibt die API, die Daten ausspielt, die dann bei uns beispielsweise in Rows gespielt werden können. Oder quasi in spreadsheet-Lösungen, die eigentlich Daten rüberspielen. Oder in Retool beispielsweise, da gibt es ja, glaube ich, verschiedenste Möglichkeiten, um dann quasi
00:46:06
Speaker
Ja, komplette Unabhängigkeit zu generieren, damit die Abteilung überhaupt fragil arbeiten kann. Das ist nämlich das Schlag, warum wir sagen, kein Customer Success Department beispielsweise bei uns kann schnell aufgebaut werden, wenn die Abhängigkeit zu Entwicklerressourcen so hoch ist. Und dieses Denken tragen wir, glaube ich, in
00:46:24
Speaker
viele Abteilungen rein. Also ich würde nicht sagen, dass wir eine Riesenzahl an No-Code-Tools benutzen, aber eher sehr, sehr stark mit wenigen Arbeiten, wie beispielsweise dann mit einem Webflow oder wir sehr aktiv auf Make beispielsweise, um jegliche Prozesse quasi aufzusetzen, wo auch Zugriff für alle Employees innerhalb der Organisation da gegeben ist.

Stärken der Customer Success Teams durch No-Code

00:46:45
Speaker
wo wir gesagt haben, bitte automatisieren Prozesse, frag da kein Ticket an, da wirst du, glaube ich, auch gegen eine Wand laufen, weil wir sagen, da haben wir schon No-Code-Tools, die das Ganze abbilden können. Und ja, für uns gibt es da keinen anderen Weg. Das ist eine sehr finale Meinung, gebe ich zu, wie sie bei uns betrieben wird, aber also fahren wir, glaube ich, gut.
00:47:05
Speaker
Ja, aber damit sind wir ja wieder bei dem Punkt halt, die Aufgaben, also wenn es Aufgaben gibt, die dann eben irgendwie Customer Success Team oder Marketing Team machen müssen, in dem Moment, wo die irgendwie Entwicklerabhängigkeit haben, kann man sich das halt nicht mehr erlauben. Und genau dafür gibt es ja dann No Code Tools. Wie du schon meintest, die sozusagen erste Definition von No Code Tools. Jeder sollte in der Lage sein,
00:47:28
Speaker
zwei einzelne Tools über Make zu verwenden, weil das wirklich genau dafür gemacht ist. Es ist halt easy. Ja. Und das andere... Das Training ist ehrlicherweise auch ein Riesenthema, muss ich sagen. Da hängt ihr natürlich auch auf, ne? Aber ich greife gerade so ein bisschen auf, was du ganz zu Beginn mit der Definition von No-Code noch erfragt hattest. Wir sehen natürlich auch No-Code, ja, Usability auch hoch, aber das heißt nicht, dass ich Webflow gut benutzen kann.
00:47:57
Speaker
Nämlich genau das Gegenteil. Ich kann es eigentlich überhaupt nicht gut benutzen und ich würde Wochen brauchen, um das Ganze aufzusetzen. Das ist auch irreführend zu denken. No Code Tools heißt Usability an allen Enden. Ich habe sogar das Gegensätzliche erfahren. Sauberes Training aufsetzen.
00:48:14
Speaker
Und dann kann es richtig gut funktionieren. Dann empowert man alle Leute eigentlich, code-lastige Prozesse zu automatisieren. Weil, ja, es ist witzig eigentlich jetzt, wenn ich es mir das erste Mal sage, dass Usability eigentlich dann doch nicht da war. Es gibt nur die Möglichkeit der Usability.
00:48:31
Speaker
Ja, klar. Aber am Ende des Tages muss man ja trotzdem noch irgendwas lernen, obwohl da vielleicht eine schöne UI und UX irgendwie dranhängt. Das macht es halt nicht zwingend leichter. Und das hängt natürlich immer mit der Komplexität zusammen. Und Webflow kann halt so viel, weil es natürlich auch nicht super leicht ist. Du machst es nicht auf und sagst, ah, okay, so wie jetzt bei Software, wo du halt einfach Blöcke reinziehst.
00:48:52
Speaker
Also wirklich in einer Minute eine Landing-Page, da brauchst du noch die Texte, die kannst du ja auch noch generieren lassen über chat.gbt und fertig. Aber genau, also um alles, was dann natürlich trotzdem so in der Schnittstelle zwischen es ist immer noch no code und schön und einfach zu bedienen, aber es kann trotzdem viel, muss man halt einmal lernen. Sei es Make, Zapier, Webflow, Bubble, alles, was das halt ist. Aber grundsätzlich ist es halt mehr Leuten eröffnet und dementsprechend.
00:49:16
Speaker
glaube ich, sehr gut, wenn man halt mit allem, was nicht zwingend hardcoded sein muss, damit fährt. Genau. Also ich glaube auch, mit dem Proper Training kann man da einfach groß Potenzial ausschöpfen und sollte das auch heutzutage machen und da nicht in development first.

Bedeutung der Nutzerbasis und Wertwahrnehmung

00:49:36
Speaker
Sehr schön. Und dann zum guten Abschluss, vielleicht noch jetzt aus deiner Erfahrung damit, nicht nur die Company hochzuziehen, sondern wirklich auch natürlich so ein High-Code, No-Code-Tool zu bauen. Was würdest du jedem Gründer, jedem Start-up mitgeben, was einen ähnlichen Weg beschreiten möchte? Gibt es irgendwie einen Main-Tipp, der dir so einfällt?
00:50:00
Speaker
Ja, also ich glaube, jetzt aus dem Gespräch resultierend würde ich mir noch mal vor Augen halten, No-Code heißt nicht gleich No-Code. Und wie wird der Wert von einer No-Code-Applikation in der User-Gruppe gesehen, die man bedient?
00:50:17
Speaker
Wie gesagt, das war das größte Learning für uns. Wir arbeiten, wir sind ein DevTool, eine Software Library in dem Sinne gewesen und dann ist die Effizienzsteigerung viel, viel höher gerankt als die Nutzbarkeit in verschiedensten Partien, weil die einfach nicht gegeben ist. Und hätten wir das früher realisiert, wären wir auch schneller vorangekommen.
00:50:35
Speaker
Darum nochmal den Value von Low-Code und Low-Code-Challengen mit dem ICP und daraus dann resultierend Entscheidungen treffen, dann sollte man schneller vorankommen, als wir das dann gemacht haben. Wir sind ganz happy damit, aber es geht immer besser, sage ich in dem Sinne. Genau, das wäre mein größtes Learning.
00:50:56
Speaker
Ja, damit das man wie dabei, wie mit allem eigentlich, egal was man baut, es geht beim Produkt natürlich dann immer darum, wer nutzt das eigentlich, wer möchte es haben und was haben die denn. Und das ist, man kann es wirklich so oft, man möchte halt irgendwie hören und sagen, aber irgendwie geht es doch manchmal unter so ein bisschen dieses, geh immer davon aus, dass du nichts weißt, also finde man,
00:51:16
Speaker
im Kern raus. Für wen machst du das? Und haben die wirklich das Problem, was du denkst? Ja, das lässt sich alles immer auf den RCP, glaube ich, zurückspielen und das ist der einzige Weg, erfolgreich zu sein.
00:51:30
Speaker
Sehr schön. Schöne abschließende Worte an dieser Stelle. Michael, vielen Dank, dass du da warst. Ich bin sehr gespannt, wohin auch die No-Code-Reise von Nuvo natürlich hingeht und generell aber vom Start-up. Genau, alle wichtigen Links findet ihr zuhören in der Beschreibung. Und ja, an dieser Stelle vielen Dank, dass du da warst. Und hoffentlich sprechen wir uns bald wieder, wenn es noch mehr Neues von Hause Nuvo gibt.
00:51:57
Speaker
Vielen Dank, Adriano, für die Einladung. Viel Erfolg euch noch und danke für eure Zeit.