Become a Creator today!Start creating today - Share your story with the world!
Start for free
00:00:00
00:00:01
#99 - Virtual Reality zum selber bauen mit VR Builder - mit David von MindPort image

#99 - Virtual Reality zum selber bauen mit VR Builder - mit David von MindPort

VisualMakers
Avatar
280 Plays11 months ago

Adriano im Gespräch mit David Lähner, Gründer und Geschäftführer von MindPort.

In dieser VisualMakers Podcastfolge sprechen wir mit David von MindPort über ihr Low-Code Tool namens VR Builder. Dieses Open-Source-Toolkit macht den Zugang zu VR so einfach wie nie zuvor. Egal ob Neulinge oder VR Experten. Denn zweitere können zwar eben von der Drag-and-Drop-Funktionen gebraucht machen, aber Custom Code verwenden.

Wir sprechen über die Wichtigkeit von UI/UX in VR, Vermeidung von Motion Sickness und was bei VR noch relevant ist. David sieht die Zukunft von VR in der Verbindung von AR und MR, was transformative Auswirkungen auf digitale Erlebnisse in Bildung und Industrie haben dürfte.

Links zur Folge:

VR Builder im Unity Store: https://assetstore.unity.com/packages/tools/visual-scripting/vr-builder-open-source-toolkit-for-vr-creation-201913?aid=1101ljV8b

MindPort: https://www.mindport.co/

Ressourcen für VR Builder: https://www.mindport.co/resourcesDavid’s LinkedIn: https://www.linkedin.com/in/laehner/

**////////// Gefällt dir unser VisualMakers Content? Werde selbst zum VisualMaker mit einem unserer vielen kostenlosen Kurse. Starte jetzt durch und werde No-Code Profi https://www.visualmakers.de/academy**

**////////// Folge uns auf: LinkedIn: https://bit.ly/3SfL6oOYoutube: https://bit.ly/3OF5jBjInstagram: https://bit.ly/3cMYH6NSlack: https://bit.ly/vm-slack**

**////////// Jetzt Newsletter abonnieren und keine No-Code News mehr verpassen! https://bit.ly/3cMYNeF**

Recommended
Transcript

Einführung in den Podcast und Vorstellung von David Lehner

00:00:07
Speaker
Hallo und herzlich willkommen zu einer neuen Folge des Visual Makers Podcasts. Ich bin Adriano und in der heutigen Folge spreche ich mit David Lehner, dem Gründer von Mindport, dem Unternehmen hinter dem Tool, um das es heute geht. Das Tool ist VR Builder und das ist wenig überraschend natürlich auch unser Tool der Woche. VR Builder ist ein Open Source Toolkit für die Entwicklung von Virtual Reality Anwendungen.
00:00:36
Speaker
Open Source bedeutet, jeder hat Zugang zum Source Code und kann damit arbeiten und das Ganze auch erweitern. VR Builder ist aber auch eine Low-Code-Lösung und das macht das so besonders. Das ist nämlich die erste ihrer Art, wenn man so will. Low-Code, weil es zwar auf der einen Seite kompletten Newbies im Bereich VR ermöglicht, ihre eigenen Anwendungen zu bauen, aber auch bereits existierenden oder erfahrenen Entwicklerinnen und Entwickler in dem Bereich auch ermöglicht, damit zu arbeiten.
00:01:06
Speaker
Man kann sich den Editor vorstellen wie einen klassischen No-Code-Editor. Man hat eine visuelle Oberfläche, man hat Komponenten, Drag-and-Drop, Workflows. Man hat aber auch die Möglichkeit, das Ganze mit Custom Code zu erweitern.

VR Builder: Open-Source und No-Code für bessere Zugänglichkeit

00:01:19
Speaker
Viabilder ist verfügbar über den Unity Asset Store. Was genau Unity ist, das wird uns David gleich erklären. Und dadurch, dass es Open Source und No-Code ist, ist es ebenso zugänglich und wird uns hoffentlich ermöglichen, viel mehr und noch bessere VR-Anwendungen in der Zukunft zu bauen.
00:01:36
Speaker
In welchen Bereichen das zum Beispiel besonders wichtig sein wird und warum David diese Lösung gebaut hat, das erfahren wir in der heutigen Folge. Herzlich willkommen, David. Schön, dass du da bist. Wie geht es dir? Mir geht es gut. Danke, dass ich hier sein darf.
00:01:53
Speaker
Sehr schön. Ja, wir freuen uns sehr, dass du da bist. Ich habe es im Intro schon angekündigt, warum es heute ein bisschen geht, um das Tool, aber vor allem die zwei Themen, die wir so irgendwie zusammenbringen, ist natürlich mega spannend, weil das, glaube ich, nicht etwas ist, was man immer sofort zusammenbringen würde. Virtual Reality oder wie du gerne sagst, Virtual Reality. Das ist auch ein sehr, sehr cooler Begriff, kannte ich vorher nicht. Und natürlich No-Code, Low-Code. Aber ja, bevor wir darüber sprechen, vielleicht kannst du dich einmal allen Zuhörenden kurz vorstellen. Ja, sehr gern.
00:02:23
Speaker
Ich bin David Lehner, ich bin Gründer und Geschäftsführer von Mindport.

David Lehner über Mindport und Fokus auf VR Builder

00:02:26
Speaker
Mindport wurde 2021 gegründet und davor war ich bereits drei Jahre lang bei Interactive, wo wir Software gebaut haben für Unternehmen, die Virtual Reality Training in ihrem Unternehmen skalieren wollten.
00:02:39
Speaker
Spannend, genau das Virtual Reality Training, das werden wir später auch noch ansprechen, gerade wenn es dann darum geht, in welchen Bereichen man das alles benutzt. Du hast ja gerade gesagt, du hast Mindport gegründet, ihr baut aber VR-Bilder als Produkt, richtig? Correct. Ist das derzeit das Produkt, woran ihr arbeitet? Macht Mindport sonst noch andere Sachen im Bereich VR? Genau, das ist aktuell unser Produkt.
00:03:04
Speaker
und zahlt im Prinzip jetzt darauf ein, wie wir unsere Mission als Firma vollenden können. Und ja, noch sind wir ziemlich klein. Das heißt, irgendwann wird es, glaube ich, auch mehrere Produkte geben. Aktuell ist das das einzige. Okay. Ja, aber auch auf unserer Webseite findet man ja auch schon ein paar namenhafte Kunden. Das heißt, da funktioniert ja schon mal etwas und kommt gut an. Das ist natürlich immer gut zu sehen. Erklären uns doch einmal gerne kurz, was VR Builder ist, was man damit machen kann.

Unity und die Funktion von VR Builder als Plugin

00:03:33
Speaker
Via Builder ist ein Unity-Plugin. Und vielleicht für die, die es nicht kennen, Unity ist eine 3D-Game-Engine. Und ursprünglich entwickelt, um Spiele zu entwickeln, aber sie wird schon seit Längerem in Unternehmen eingesetzt, immer wenn es um 3D geht. Also 3D-Simulationen zum Beispiel, weil das halt eine Physik-Engine mit drin hat und eine Rendering-Pipeline. Und das macht es halt sehr einfach, auch für Unternehmen, damit Anwendungen zu erzeugen. Darauf setzen wir auf.
00:04:00
Speaker
Und die Schwierigkeit bei Unity ist halt, man muss doch relativ gute Unity kennen und programmieren können, damit man da mal was bauen kann. Und was wir versucht haben, ist, da den Einstieg zu erleichtern bei den Leuten, die wirtschaftliche Anwendungen erzeugen wollen. Das heißt, wir haben halt einen grafischen Editor.
00:04:15
Speaker
Und damit definiert man den Prozess, das heißt, den Ablauf von der eigenen Anwendung. Das heißt, man kann schon sozusagen, am Anfang gibt es eine kleine Begrüßung, dann muss man irgendwas greifen, irgendwas platzieren, dann wird eine kleine Bezogung gestartet. Und das heißt, da hat man einen sehr einfach zu verstehenden Ablauf. Und das, was halt
00:04:33
Speaker
so viel Mehrwert bringt, ist, wenn man jetzt zum Beispiel sagt, ich möchte jetzt in dem Schritt diese Box greifen, dann nimmt man einfach die Box, mit Drag & Drop zieht ihr rein, drückt einen magischen Fix-It-Button und dann werden alle Skripte, die man braucht, automatisch zugefügt und konfiguriert.
00:04:48
Speaker
Das heißt, man muss nicht mehr sich damit beschäftigen, welche Packages man installieren muss, wie man konfigurieren muss, welche Skripte benötigt werden. Das wissen hier doch sehr viele. Man muss die ganzen Collider zum Beispiel verstehen, wie sie in Unity funktionieren, wenn man es händisch machen möchte. Und wir übernehmen das alles durch Automatism. Okay, spannend.
00:05:07
Speaker
Du hast ja Unity gerade angesprochen. Das ist mir, obwohl ich mich so in dem Space gar nicht so auskenne, tatsächlich auch ein Begriff. Ich habe auch schon mal mit Matterport gearbeitet für so die 3D-Erfassung von Räumen. Da haben wir mal eine App gebaut, wo wir das genutzt haben. Da kam das erstmal an Unity vor. Und dann habe ich auch gemerkt, okay, das ist im Bereich VR auf jeden Fall irgendwie so das Ding, was man nutzt. Das ist eine Game Engine ursprünglich, weil das wusste ich tatsächlich nicht. Aber wie kann man sich das vorstellen, wenn man
00:05:35
Speaker
Bevor wir jetzt gleich dazu kommen, wie ihr das bei VR Builder sozusagen gelöst oder was euer Ansatz ist. Die VR Welt, wie kann man sich das so vorstellen? Wie wird das traditionell irgendwie gebaut, programmiert? Du meintest ja auch, da werden Skripte gemacht. Und wie war das zum Beispiel, bevor du Mindboard gegründet hast? Also, spannend wäre auch natürlich zu hören, wie du aus
00:05:59
Speaker
den Job davor, dann auch die Idee, ich mache jetzt mein eigenes Ding und baue etwas, was gebraucht wird und es so noch nicht gibt.

Herausforderungen der traditionellen VR-Entwicklung

00:06:08
Speaker
Also normalerweise ist es so, dass Unternehmen, wenn sie eine Virtuality-Anwendung brauchen, zu einer Agentur gehen. Manchmal haben die auch eigene interne Agenturen, aber es sind immer Virtuality-Developer oder Unity-Developer. Und die fangen dann erst mal an, setzen ein neues Projekt auf, fügen die Packages hinzu und konkurrieren dann zum Beispiel das Extra Interaction Toolkit, so dass es die Hardware unterstützt. Das heißt, du hast dann erst die Hardware-Kunststelle definiert.
00:06:32
Speaker
Und selbst dafür haben wir bereits ein Wizard. Das heißt, du selectierst einfach nur, welche Harte möchtest du verwenden. Und dann wird das alles automatisch gemacht durch uns. Der nächste Schritt ist dann halt, du musst deine 3D-Szene aufsetzen.
00:06:43
Speaker
Und Unternehmen würden da zum Beispiel ihre CAD-Daten nutzen, die sie durch eine Pipeline schicken und dann halt die Polygonenanzahl reduzieren, damit sie das halt in Virtuality gut nutzen können auf ihren Geräten. Man kann natürlich auch einfach selbst 3D-Modelle modellieren in der Modellierungstools in Blender zum Beispiel. Oder man kann einfach Assets
00:07:03
Speaker
aus dem Assets oder anderen Quellen heranziehen. Und dann gibt es auch sehr viele, welche die gratis sind. Kann man Kitbashing betreiben, das heißt dann ziemlich schnell und kostengünstig Prototypen bauen. Und das sind so die Phasen, wie man dann die 3D-Modelle zusammensetzt und damit eine Szene aufbaut. Und dann würde ein neuer Schritt kommen, dass man die Szene auch interagierbar macht. Denn die Interaktion ist das, was gerade Virtuality so wertvoll macht, statt dass man einfach nur die Sachen betrachtet.
00:07:30
Speaker
darf man hier in der virtuellen Welt wirklich aktiv werden. Mit Standardmethoden hieße das. Du musst halt genau wissen, wie funktioniert das zum Beispiel extra Interaction Toolkit oder ein anderes Interaction Toolkit. Und dann
00:07:45
Speaker
musst du entsprechend die Skripte hinzufügen, händisch zu deinen Objekten und betrachten, zum Beispiel ist da ein Rigidbody dran, sind die Collider dran, sind die richtig gesetzt, ist das kinematisch gesetzt, sind die richtig konfiguriert und das ist halt alles so technisch, dass du nachher nur sagst, hey, ich möchte das Objekt greifen, du damit schnell überfordert bist. Und dann kannst du halt Stundenlang Tutorials gucken oder ein Informatikstudium hinter dich bringen oder halt du benutzt unser Tool.
00:08:10
Speaker
Ja krass, ich wollte es nämlich gerade sagen. Also es hört sich sehr technisch an. Viele Begriffe, wenn sie denken, okay, irgendwie. Ich glaube, gerade wenn man dann so aufwächst mit den ersten 3D-Spielen und so, hat man sich das dann eher so vorgestellt wie so eine reine Animation. Aber dahinter muss ja irgendwie, ist ja irgendwie so ein GPU. Kann man sich Unity wie so eine Art
00:08:37
Speaker
Programmiersprache für welche Reality vorstellen oder ist das wirklich der NuNi Engine und sonst läuft das über andere Programmiersprachen? Ich würde es nicht als Programmiersprache sehen, nee. Früher hatte es sogar seine eigene Programmiersprache. Inzwischen wird bei Unity einfach C benutzt oder C-Shop und damit wird die Programmierlogik gebildet.
00:09:03
Speaker
Aber was Unity auch hat, ist die Game Engine. Und da kann man auch sagen, unterteilt sich einmal die physikalischen Berechnungen oder auch das Rendering. Und wenn man sich überlegt, das Rendering ist ja auch das, wo Unity und Unreal sich am stärksten unterscheiden. Das heißt, die versuchen natürlich immer die beste visuelle Qualität zu bekommen unter den Limitierungen, die es mit der Grafik gibt. Unity im Vergleich zu Unreal meinst du? Genau.
00:09:29
Speaker
Also Unreal ist bei den visuellen Sachen ein Ticken besser. Deswegen wird Unreal immer dann eingesetzt, wenn halt die höchste visuelle Qualität gefordert ist, wie zum Beispiel, wenn man Marketingmaterial produzieren möchte. Wenn es dann darum geht, dass man möglichst gute Integration und Schnittstellen haben möchte, dann würde man zu Unity greifen. Also da ist Unity einfach stärker mit dem Ökosystem und was es da an Anbindung bietet.

Vergleich von Unity und Unreal Engine

00:09:52
Speaker
Unreal Engine ist die von Epic Games, die Fortnite und da machen, richtig? Ja. Genau, okay. Und Unity hat ungefähr 60 Prozent des Anteils im Enterprise Sektor Unreal 38. Das heißt, die beiden teilen sich schon den Markt ziemlich gut auf. Wow, okay, spannend. Hätte ich tatsächlich gar nicht gedacht, dass man die irgendwie zusammenbringt, dass Unity da mit Unreal konkurriert. Die Unreal kann ich halt tatsächlich echt nur aus diesem Gaming und halt, wie cool das irgendwie ist, dass diese Engine da verfügbar ist und jeder damit Spiel entwickeln kann.
00:10:22
Speaker
Ja, so kommen dann irgendwie Fortnite und Unity dann zusammen sozusagen. Okay, ich würde sagen, wir haben es hierhin schon etabliert. Das Ganze ist gar nicht mal so einfach gewesen. Und es ist immer noch nicht, würde ich behaupten. Aber mit VR Builder wollt ihr da ja ein ganzes Stück dazu beitragen, es eben einfacher zu machen. Wie kamst du dazu, das Ganze zu gründen und das aufzubauen? Ich glaube, da muss ich anfangen,
00:10:52
Speaker
Ungefähr zehn Jahren, da habe ich zuerst mal Virtuality kennengelernt. Also, obwohl ich einen Informatikhintergrund habe, habe ich Virtuality später kennengelernt. Und das, was mich wirklich von der Technologie überzeugt hat, war eine Studie, die ist sogar schon 20 Jahre alt. Und da hat jemand untersucht den Effekt von Virtuality bei der Versorgung von Patienten mit Brandwürfen. Das heißt, da war das Szenario aufgebaut.
00:11:18
Speaker
Menschen hatten Verbrennungen und da muss der Verband regelmäßig gewechselt werden, weil es unter den Verbänden auch schnell eitert. Es ist ziemlich schmerzhaft. Selbst mit sehr starken Schmerzmitteln leiden die Patienten bei dieser Versorgung, weil sich immer die Hautschichten dann in die
00:11:38
Speaker
in den Verband reinsetzen, dann werden die quasi immer neu abgerissen, sehr unangenehm. Wurde halt getestet, die einen durften während dieser Versorgung einfach Nintendo 64 spielen, also das war damals High-End. Also so alt ist das schon. Auf der anderen Seite gab es halt Leute, die in eine virtuelle Simulation gesteppt wurden.
00:11:59
Speaker
Und wenn man sich die Bilder anguckt, also die Technologie von vor 20 Jahren im Bereich Virtuality, das sah schon sehr komisch aus. Heißt, der hatte so einen riesen Kasten drauf auf seinem Kopf, hatte ein Joystick in der Hand. Und die visuelle Qualität war auch ziemlich lustig. Das heißt, sie konnten halt durch eine Stehlandschaft fahren und data mit Schneemänner abwerfen. Und die Schneemänner, das waren halt drei Kugeln übereinander gesteckt. Also es war weit weg von Photorealismus.
00:12:24
Speaker
Und obwohl die Technologie und auch die visuelle Qualität so niedrig waren, war der Effekt davon trotzdem enorm. Das Schmerzempfinden wurde halt in sechs verschiedenen Kategorien unterteilt. Also wie es sich anfühlt, wie stark der Schmerz ist, wie unangenehm ist usw. Und der Effekt war halt Reduktion um die Hälfte bis zu 90%, je nachdem welchen Medik man hat.
00:12:48
Speaker
Es lag einfach daran, dass dadurch, dass Leute visuell in der Schnittlandschaft fahren, haben die den Schmerz als Kälte interpretiert. Als ich davon gelernt habe, habe ich gedacht, boah, ist der klasse. Vor 20 Jahren war das schon möglich. Zwei Sachen. Das eine, was ich mir gefragt habe, war,
00:13:08
Speaker
Wenn das schon möglich war, warum machen wir das nicht viel mehr und viel weiter? Und warum nutzen wir diese Technologie für so viele Möglichkeiten? Und auf der anderen Seite habe ich gemerkt, der Typ, der das gemacht hat vor 20 Jahren, der war einerseits in der Lage, eine Virtuality-Anwendung zu bauen, und andererseits hatte er ein medizinisches Verständnis, dass er wusste, wenn er es so umsetzt, hat er diesen medizinischen Effekt. Das heißt, um richtig wertvolle VR-Anwendungen zu erzeugen, musst du immer die VR-Expertise und die Fachexpertise zusammenbringen.
00:13:37
Speaker
Und der Grund, warum wir heutzutage einfach so viele VR-Games haben und so wenig sinnvolle VR-Anwendungen, liegt daran, dass die VR-Entwickler größtenteils sich mit Spielen auskennen, aber nicht im Bereich Medizin, Psychologie, Philosophie oder sonstige Sachen. Und das war halt so die Idee, wo wir gedacht haben, hey, wenn wir sagen, wir sollten hier mehr Mehrwertstiften, müssen wir das schaffen, dass die Fachexperten, die nicht programmieren können, sich stärker involvieren können in den Erstellungsprozess.

VR Builder als einzige Low-Code-Plattform im VR-Bereich

00:14:05
Speaker
Das war einfach der kleine Gedanke, der dahinter steht. Ja, spannend. Also vor allem, wenn du halt sagst, das ist echt schon 20 Jahre her, und echt so ein Erkenntnis, wo man halt heute noch sagen würde, boah, faszinierend, warum setzt sich nicht jeder irgendwo bei einer OP oder einem Arzt irgendwie ein Headset auf und kann dann vielleicht Narkose minimieren oder so was. Aber ja, wenn es ja wirklich so ist, dass, wie du schon sagst, die Expertise einfach in einem anderen Bereich liegt, kommen die meisten gar nicht aus auf die Idee, dass man das irgendwie nutzen könnte.
00:14:34
Speaker
Genau, und wenn der Zugang dazu fehlt. Und deshalb VR Builder an dieser Stelle. Genau, VR Builder ist, hast du auch schon gesagt, eine No- beziehungsweise eine Low-Code-Lösung, hast du auch zu mir gesagt, um eben VR selber zu bauen. Wie unterscheidet sich das von existierenden Anwendungsfällen, um VR-Anwendungen zu bauen? Und warum ist das aber vor allem eher eine Low-Code als eine Low-Code-Lösung?
00:15:06
Speaker
Genau, also ich glaube, wir sind sogar die einzige Locode-Nocode-VR-Plattform in dem Sinne mit diesen Kriterien.
00:15:15
Speaker
Es gibt halt einiges an SDKs, davon gibt es auch ein paar, die Open Source sind. Zum Thema Stellung von Via-Anwendungen, da gibt es halt sehr viele proprietäre Plattformen. Das heißt, man kann seine Anwendungen auf diesen Webseiten oder diesen Plattformen erzeugen, aber dann auch nur auf diesen Plattformen konsumieren und ausspielen. Das heißt, man ist sehr stark gebunden an die Plattform und man ist auch eingeschränkt an das, was möglich ist auf der Plattform.
00:15:40
Speaker
Und gerade wenn man halt ein großes Unternehmen ist, mit sehr spezifischen Anforderungen, ist das halt doch zu limitiert meistens. Und die SDKs, die helfen halt den VR-Entwicklern, aber die erreichen den Zugang nicht für Nicht-Entwickler. Das ist halt das, wo wir uns noch ganz kaum unterscheiden. Und warum ich immer sage, dass es Low-Code, nicht No-Code ist,
00:15:59
Speaker
Wir möchten halt nach wie vor es ermöglichen, dass die VR-Entwickler genauso weiterarbeiten können, wie sie es gewohnt sind. Das heißt, wir möchten jetzt nicht die Entwickler zwingen, dass die irgendwie jetzt mit Visual Scripting arbeiten oder auf dieses No-Code eingeschlossen werden, sondern die können genauso wie bisher ganz normal in Unity arbeiten, ihre C-Sharp-Skripte schreiben und dann implementieren die einfach unsere Interfaces. Dadurch wird dann halt deren neue Funktionalität in dem grafischen Interface für die Nicht-Entwickler zugänglich und dadurch können die halt extrem gut miteinander arbeiten.
00:16:30
Speaker
Das stellt ihr vor. Ein Fachexperte hat jetzt seinen Prozess abgebildet.
00:16:35
Speaker
zeigt dann seine Anwendung dem Entwickler und sagt, guck mal hier, in dem Schritt drei, da habe ich jetzt eine ganz normale Grab-Bedingung verwendet, aber ich möchte hier ganz speziell greifen, eine spezielle Interaktion machen oder so. Und das ist natürlich was, was der Via-Entwickler total gut versteht. Und dann kann er sagen, klar, kein Problem, baue ich hier, ich arbeite das, ich baue dir was Neues, neue Komponente, füge das hinzu und mach das dann zugänglich. Und dadurch ist es halt super wartbar, super weiterer, super skalierbar. Ja. Okay, also
00:17:06
Speaker
Wenn man das jetzt vergleichen würde mit klassischem Coding, dass das klassische Software Development Kit verfügbar machen, wäre sozusagen, als wüsste man jetzt, okay, da kann ich mir einen Code für eine App runterladen. Als No-Coder-Challenge, kann ich mir runterladen, aber dann habe ich halt Code, mit dem ich nichts anfangen kann. Und das andere Extrem wäre, etwas zu nehmen wie jetzt zum Beispiel Software oder Glide, was halt extrem No-Code ist, super leicht damit zu bedienen. Aber ein klassischer Entwickler,
00:17:36
Speaker
würde sich hinsetzen und sagen, ja toll, jetzt will ich diese Ecke aber ändern, geht aber halt nicht, weil ich kann das halt nicht bearbeiten, das ist fixiert. Und demnach ist es bei euch Low-Code, damit sozusagen die beiden Seiten damit was anfangen können und sich in der Mitte zu treffen. Genau. Das klingt sehr logisch, macht total Sinn, ist ja bei meisten Low-Code-Anwendungen so. Gerade so was wie jetzt das, was ich erwähnt habe, Glide und Software ist halt für absolute
00:18:03
Speaker
Loke oder damit man eben schnell mal was, was auf die Beine stellt. Aber die klassischen und starken Loke Apps wie dann irgendwie Outsystems Mendix Retool, die sind viel mehr auf Developer in gewünscht, damit die halt
00:18:20
Speaker
zwar schnell arbeiten, aber wenn es halt sein muss, trotzdem noch ihren Custom Code irgendwie einfügen können. Weil wenn man schon die Skills hat zu coden, dann will man sich ja nicht einschränken lassen. Und damit ist es glaube ich sehr gut, sehr gut gelöst. Du meintest gerade, VR Builder ist auch erweiterbar. Wie kann man sich das vorstellen? Kann man da nochmal eigene Plugins bauen oder meinst du das Leben des Custom Codes?
00:18:45
Speaker
Genau, also eigene Add-ons bauen ist eine Möglichkeit. Wir haben jetzt zum Beispiel einen Partner, die haben sowohl Code Contributions gegeben für uns, also zum Beispiel das Mehrsparigkeitsmodul, also Localization, war eine komplette Code Contribution. Die haben gesagt, hey, das finden die cool, das haben die gebaut. Da macht es aber keinen Sinn, das irgendwie zu verraten zu stellen, deswegen war es einfach eine Contribution. Jetzt haben die aber auch ein UI-System entwickelt, was wir jetzt neben unseren eigenen Add-ons ebenfalls auf dem Asset zu anbieten wollen.
00:19:14
Speaker
Das heißt, man kann ja auch sogar selbst Geld damit verdienen, wenn man eine Erweiterung baut. Insgesamt ist sowohl unsere Architektur sehr flexibel und erweiterbar, aber wir haben auch einen Open-Source-Kern. Das heißt, diese Quad-Contributions sind natürlich dadurch möglich.
00:19:28
Speaker
Und wir sind manchmal überrascht, was Leute damit machen. Es ist so flexibel, dass sogar ein paar von unseren Nutzern damit Augmented Reality oder Desktop-Anwendungen gebaut haben und gesagt haben, hey, die Struktur ist so hilfreich und passend. Wir checken das jetzt total, ändern einfach das Interaction-Framework aus und haben damit jetzt plötzlich eigentlich ein Low-Code für unsere Desktop-Anwendungen damit entwickelt. Ist das der Open-Source-Teil vom Ganzen?
00:19:58
Speaker
Also das ganze Kernprodukt ist Open Source. Mit dem Open Source Produkt kannst du wirklich schon alles machen. Das ist extrem wichtig. Die Zusatz-Addons, das ist wirklich eine Zusatzfunktion. Wenn du sagst, ja, du kommst hier an eine Stelle, möchte es mehr funktioniert halt haben. Statt dass du die einfach selber brauchst, kannst du dann hier für ein paar Euro dann so ein Addon dazu kaufen. Das heißt zum Beispiel, wir haben Basis-Interaktion oder Basis-Animation in dem Kernprodukt.
00:20:30
Speaker
ein bisschen komplexere Animationen haben möchtest. Dafür gibt es dann einen Animation-Setup zum Beispiel. Okay. Und die sind über den Assets Store von Unity verfügbar, oder? Richtig, ja. Okay, und die kann man dann zusammenbinden, sozusagen? Genau, die lädt man einfach rein und dann werden die halt automatisch erkannt, weil es halt die Schnittstelle implementiert. Das heißt, dann gehst du halt in deinem visuellen Editor drauf, sagst hier neue Behaviour hinzufügen und deine Liste an verfügbaren Behaviours wird dadurch länger.
00:20:59
Speaker
Okay. Ja, Open Source und No Code, Low Code passt ja logischerweise sehr gut zu eurem Vision Statement, nämlich Democatizing Immersive Experiences. Also klingt natürlich super logisch. Man macht es zugänglich, aber man macht es einfacher. Man macht es für diejenigen, die das irgendwie vielleicht kannten und schon mal machen wollten, aber nicht konnten, irgendwie möglich. Und für manche, die es überhaupt nicht wussten, dass es damit geht, überhaupt sichtbar.
00:21:29
Speaker
Wie ist das so bei euren Nutzern? Wie ist das bei euch, bei den Kunden?

Einsatz von VR Builder im Unternehmens- und akademischen Umfeld

00:21:35
Speaker
Hast du da ein paar Cases, wie wird VR Build genutzt, zum Beispiel an Produktbeispielen oder Industriebeispielen? Genau, das stärkste Anwendungsfall ist im Bereich Mitarbeiterausbildung, also Virtuality Training. Und wenn man sich überlegt,
00:21:54
Speaker
Dass die meisten Unternehmen bereits digitale Zwillinge haben und die ganzen Sachen ja in einer 3D-Welt simulieren können, ist jetzt ziemlich naheliegend, wenn man halt mit einer Virtuality-Brille oder anderer XR-Hardware in diese virtuelle Welt noch selbst eintreten kann. Dann kann man natürlich durch diese Immersion, die damit erzeugt wird, sehr viel Mehrwert stiften. Und genau, Mitarbeiterausbildung ist halt ein sehr stärker und naheliegender Fall.
00:22:16
Speaker
Stell dir vor, du möchtest deine Mitarbeiter für sehr gefährliche Sachen ausbilden. Ja, die möchtest du super vorbereiten. Video-based Training. Gucken sie das vielleicht an, aber das hat natürlich nicht den Effekt, wenn man es in der immersiven Welt wirklich durchspielt und praktiziert, weil ist man viel besser vorbereitet auf den Fall. Und das ohne sich selbst gefährden zu müssen.
00:22:37
Speaker
Oder andere Anwendungsfall, sehr teure Geschichten. Das heißt, wenn deine Maschinen sehr teuer sind, dann möchtest du natürlich, dass diese Maschinen rund um die Uhr positiv tätig sind und nicht für Trainings eingesetzt werden. So eine Maschine kann man schnell so ein paar Millionen Euro kosten. Dann kann man stattdessen Geld reinstecken und dann hat eine Virtuality-App gebaut.
00:22:55
Speaker
hat man halt den Vorteil, dass du erstens sehr viel Geld gespart hast, zweitens kannst du halt sehr viel mehr Leute gleichzeitig trainieren. Du hast eine Anwendung, die sehr gut wahrbeißt. Das heißt, du kannst halt, wenn du einfach mal ein neues Modell hast, kannst du halt einfach das Modell austauschen und wieder gleichzeitig trainieren, statt dass du halt deine ganze Trainingshalle umbringst.
00:23:18
Speaker
Meine Frage wäre nämlich genau das gewesen. Was sind dann so Beispiele von so einem Training? Das klingt natürlich unfassbar logisch, wenn du da irgendwelche Beginner noch hast, die bisher keine Produktion lahmlegen, damit die an der Maschine rumspielen können und dann läuft was schief und das kann halt teuer werden. Was ist vielleicht ein konkretes Beispiel von einer gefährlichen Situation, die man dann so üben kann? Also das ist auch eher so Industriegewerbe,
00:23:47
Speaker
Zum Beispiel Brand. Wenn irgendwo ein Feuer ausbricht, darauf muss man gut vorbereitet sein. Mein Lieblingsbeispiel ist ein Brand auf einer Bohrinsel. Ich möchte nicht, dass die Leute vor Panik ins Meer springen. Ich möchte auch nicht, dass sie da rumstehen und verbrennen. Deswegen gut reagieren zu können, gut vorbereitet sein, ist extrem wichtig.
00:24:06
Speaker
Ein anderes Beispiel ist die Ausbildung von Leuten, die auf dem Flugfeld arbeiten, an den Flughafen. Weil wenn wir jetzt zum ersten Mal plötzlich auf die Flugbahn gehen, und den Flughafen kannst du natürlich nicht dicht machen für Trainingstrecke, und plötzlich kriegt dann die Boeing 747 auch einen zu, da kann man schon weiche Knie kriegen. Und statt dass man dann wegrennt in Panik, muss man stehen bleiben und mit einem bunten Stäbchen winden.
00:24:28
Speaker
Und wenn man das in der virtuellen Welt trainiert und erst mal kleine Flugzeuge auf einen zufliegen lässt, vielleicht auch welche, die visuell erst mal nicht so realistisch wirken und halt immer realistischer wird, immer größere Flugzeuge hat, dann kann man Leute schon extrem gut darauf vorbereiten. Und ein ähnlicher Anwendungsfall von Virtuality ist natürlich auch in der Psychologie. Man kann Phobien damit auch sehr gut lindern und bekämpfen.
00:24:54
Speaker
Vielleicht haben das schon mal viele Leute gesehen, im Fall von Spinnenphobie. Das heißt, man lässt Leute einfach mit den Spinnen interagieren. Die Spinnen sind erst mal klein, erst mal mit Abstand, dann werden die immer größer, kommen immer näher, werden immer realistischer. Damit kann man halt immer näher rangehen. Und in der virtuellen Welt kann man sich halt auch irgendwie schon ein bisschen sicher fühlen. Aber die Erfahrungen, die man sammelt, sind halt echt, das ist ja was, was den Welt bringt.
00:25:21
Speaker
Ja, das ist extrem spannend, dieses psychologische Halt dahinter. Weil in dem Moment weißt du ja, das ist alles nicht echt. Setz mich das jetzt halt auf. Aber obwohl dein Gehirn weiß, dass es nicht echt ist, wird dein Gehirn trotzdem dahingehend ausgetrickst, zu glauben, dass es echt ist. Und das ist so, das hört sich gegensätzlich an, aber funktioniert ja. Die Frage ist eigentlich dann, was ist echt? Ich meine, das, was du erlebst, ist echt. Das ist halt eine Simulation.
00:25:47
Speaker
Ja, klar. Aber die Erfahrungen, die du sammelst und die Fähigkeiten, die du erwirbst, die sind halt echt und sind auch in der echten Realität auch noch anwendbar. Und das ist halt, wo dann diese Macht der Immersion für mich herkommt. Ja, und das ist auch, es gibt ja, man sagt ja auch oft kurz vor dem Schlafengehen, soll man zum Beispiel irgendwelche Sachen im Kopf durchgehen seines Vokabeln oder
00:26:12
Speaker
wenn man jetzt irgendwie einen Song lernen muss oder sogar wirklich komplette Bewegungsabläufe und auch Studien, wo die irgendwie zwei Gruppen verglichen haben, die Klavierspielen gelernt haben. Die einen sind nachts nochmal ihre Sachen durchgegangen vom Schlafen, die anderen nicht. Und die haben es halt dadurch gelernt. Und da ist man so, okay, spannend, das Gehirn, man muss manche Sachen gar nicht tun, es reicht darüber nachzudenken. Und Visual Reality bringt natürlich jetzt eine neue Komponente da rein, wo du nicht nur darüber nachdenkst, sondern das halt wirklich komplett siehst.
00:26:42
Speaker
Ja, also wie das halt auf einmal ist. Und du auch erlebst, weil du als Letzter hier bist. Richtig, wie du das sagst. Was ist dann nicht mehr echt, weil wenn du da sitzt und da kommt halt wirklich irgendwie ein Elefant auf dich zu gerannt, kannst du ja nicht sagen, ich hab das nicht erlebt, weil irgendwie hast du es ja schon erlebt. Aber klar, da kommt in dem Moment halt kein echter Elefant auf dich zu gerannt, hoffentlich. Aber ja, also viele, viele Anwendungsfälle, ich glaube, die allermeisten, von denen man es wahrscheinlich gar nicht erwarten würde,
00:27:11
Speaker
weil man eben nicht so diesen Zugang zu VR hat. Ich glaube, das, was die meisten kennen oder sich vorstellen können, ist eben Gaming, weil es einfach so verbreitet ist. Und persönlich für mich war diese Verbindung zu einem VR-Headset mit Joysticks immer nur verbunden mit Gaming. Oder eben, dass diese ganzen Videos, die wahrscheinlich jeder kennt, Leute, die irgendwas versuchen auf einer Messe
00:27:41
Speaker
voll hinlegen, weil die dann voll das Gleichgewicht verlieren oder das Gefühl haben, ich muss jetzt springen und so. Das zeigt ja auch erst, wie immersiert man auf einmal ist in dem Ganzen. Was sind sonst noch Bereiche, in denen das angewendet wird und wo das vielleicht gerade erst so am Kommen ist und vor allem wo du oder ihr vor allem im Zuge von VR-Bilder
00:28:08
Speaker
verbesserten Zugang zur Entwicklung davon hofft, dass das mehr und besser wird. Also eine Sache, wo wir auch gar nicht mit gerechnet haben, wo aber wahrscheinlich auch unser Angebot sehr passend ist, ist der Einsatz in Universitäten. Also das sowohl für Studienzwecke als auch für Lehrzwecke.
00:28:30
Speaker
Das heißt, einerseits können Forschende und Studierende mit unserer Lösung, weil es free and open source ist, sehr gut, schnell Forschungsergebnisse erzeugen. Sie leisten einfach viel schneller damit, wenn sie sagen, sie möchten irgendwie was ausprobieren, zum Beispiel einen psychologischen Effekt oder eine VR User Experience verbessern. Man hat einen sehr schnellen Einstieg, kann deswegen sehr schnell zu diesen Forschungsergebnissen kommen.
00:28:55
Speaker
Aber es wird auch in der Lehre eingesetzt. Wenn man sich überlegt, man möchte halt Wissen übermitteln, dann ist natürlich da eine 3D-immersive Welt zu erzeugen. Sehr viel wertvoller als ein Frontalvortrag. Und deswegen wird es dann auch da eingesetzt. Das heißt, VR-Bilder wird in solchen Bereichen auch schon genutzt? Genau. Spannend. Du meinest gerade, ihr habt das nicht so kommen sehen oder erwartet. Habt ihr dann gemerkt,
00:29:22
Speaker
Wie sich plötzlich irgendwie Unis und Studierende dazu anmelden und dann so, okay, spannend, klasse. Also das Beste ist natürlich auch, dadurch, dass es halt free and open source ist und wir nichts tracken und gar nichts machen, kriegen wir gar nicht so genau mit, was unsere Nutzer damit tun. Wir kriegen es halt immer dann mit, wenn in unserer Builder Community Fragen gestellt werden und Leute halt ihre Projekte zeigen.
00:29:45
Speaker
Und dann merkt man halt, ach, dafür ist das da. Und dann kriegt man hier eine Frage, da eine Frage. Und fragt sich, was machen die eigentlich damit? Und irgendwann kriegt man halt damit, sie haben das und das damit gebaut. Viel davon ist dann halt auch studieren oder Forschung gewesen. Wie wird sowas dann veröffentlicht? Also die Anwendung, läuft die dann in Unity? Wie kann man sich das vorstellen? Wenn man das dann zum Beispiel, ich habe irgendwas gebaut für eine Studie,
00:30:14
Speaker
und möchte das dann an die Studienteilnehmenden geben? Genau, also wenn du halt das editierbare Unity-Projekt haben möchtest, ist das halt ein Unity-Projekt. Wenn du da für die Applikation nimmst, dann gibt es zwei Möglichkeiten. Je nachdem, was für eine App du hast, entweder du baust halt eine Windows-Executable und lässt die halt dann auf dem PC laufen, wo ein VR-Headset, ein Kabelgeboden oder wireless angeschlossen ist. Eine andere Alternative ist, du baust eine APK, also ein Android-Bild und überträgst sie dann auf die
00:30:44
Speaker
Und das kannst du entweder händisch machen, indem du halt deinen VR-Headsets auf Developer Mode steckst und einfach diese Sachen rüberkopierst. Oder aber mit, ja, Deployments-Lösungen. Da gibt es halt sehr viele verschiedene Anbieter. Das heißt, du registrierst deine Brille auf deren Plattform. Und dann kannst du halt einfach eine beliebige App, die du gebaut hast, mit VR-Bilder oder ohne VR-Bilder, mit Unity oder Unreal, halt immer da hochladen und dann halt auch diese Brille dann auch, ja, darauf abspielen lassen. Wie funktioniert so die
00:31:15
Speaker
die ganze Geschichte mit den Brillen, wenn ihr sagt, ich bin da überhaupt nicht drin und kümmer mich da nicht aus, gibt es da bestimmte, also gibt es so eine Einigung sozusagen über die ganzen neuen Brillen hinweg, wie die gemacht sein müssen, damit Sachen drauflaufen können oder müsst ihr das immer in so bestimmten Dateiformaten dann zur Verfügung stellen, damit es dann irgendwie bei Oculus läuft und müsst ihr dann darauf achten, dass es verschiedene Formate gibt,
00:31:41
Speaker
Es gibt eine Tendenz zur Standardisierung. Wir haben vor sechs Jahren angefangen, oder ich zumindest. Da war es dann durchaus schwieriger. Da waren die Controllers unterschiedlich. Die von HTC hatten ein Riesen-Touchpad, aber keine Joysticks. Inzwischen hat man bei den Controllers einen gewissen Standard.
00:32:01
Speaker
Jetzt gibt es Handtracking. Da ist das nicht implementiert. Deswegen ist Handtracking noch mal ein bisschen schwieriger. Es gibt Obstraktionslevel. OpenXR ist ein Standard. Jeder versucht, das zu vereinheitlichen. Der wird auch vom Excel Interact Stücke verwendet. Und die ganzen neuen Bullen, das sind ja größte Standalone-Geräte. Das heißt, die man technisch hintersteckt, ist ein Smartphone. Das heißt, das ist ein Android-Gerät.
00:32:30
Speaker
Du baust halt eine Android-Applikation und da hat man einen so guten Standard, dass man da nicht viel beachten muss, abgesehen von den Interaction-Profilen. Und die kann man halt hinzufügen und das klappt relativ gut. Einzige Ausnahme ist halt leider mal wieder Apple. Die haben ihren eigenen Standard. Das heißt, du baust eine Anwendung, die entweder auf allen anderen Geräten läuft, also Oculus und Vivo und HTC und Gott weiß was.
00:33:00
Speaker
oder du baust für Apple. Das musst du einmal entscheiden. Wir bauen halt für alles außer Apple grad. Okay, aber du sagst, man muss das entscheiden, also ist das nicht wie zum Beispiel mit einer App, wo du sagst, hey, ist jetzt available Google Play Store und Apple Store? Da musst du es ja auch zweimal ausspielen. Einmal für alle Android-Geräte oder Apple. Das heißt, hier kannst du das Gleiche machen. Und dieses Übertragen halt auf andere
00:33:28
Speaker
Plattform, sage ich mal, das weiter unterstützt. Das heißt, du kannst das Interaction-Framework ja auswechseln und du kannst auch so eine App bauen, die sowohl halt für Virtuality funktioniert als auch Augmented Reality als auch für Desktop-Anwendungen.
00:33:41
Speaker
Das ist auch sehr wichtig für Unternehmen, weil die sagen, sie möchten niemanden zwingen, so eine Brille aufzusetzen. Das heißt, wenn die so eine VR-Training App bauen, möchten die, dass auch jemand an einem Bildschirm, einfach durch den Mausklicks, durch diese Applikation durchklicken kann. Auch zum Thema Zugänglichkeit. Ja, stimmt. Guter Punkt. Wie funktioniert das denn zum Beispiel mit Brillen tragenden und ähnlichen, also
00:34:10
Speaker
Kann man die VR-Brillen darauf irgendwie anpassen? Ist das meistens kein Problem, wenn man irgendwie eine Brille trägt? Wie ist das mit der Zugänglichkeit da? Also Brillenträger ist, glaube ich, weniger ein Problem. Die meisten sind so aufgebaut, dass halt normal große Brillen reinpassen. Es gibt natürlich auch mal Ausnahmen. Ja, ich glaube, da ist es eher zu beachten, was wäre denn, wenn jemand zum Beispiel blind ist oder taub oder keine Arme hat. Ja, was macht man dann?
00:34:38
Speaker
Aber aus meiner Sicht ist das sogar eine Riesenchance. Weil man damit alles digital hat, muss man es halt nicht mehr in eine digitale Form bringen, um es auf anderen Kamelen auszuspielen.
00:34:52
Speaker
Wenn man zum Beispiel überlegt, wie agieren blinde Leute mit dem Internet, dann haben die jetzt zum Beispiel einen Screenreader. Das heißt, der Screenreader guckt sich dann die Webseite auf technischer Basis an, guckt sich genau anders als das HTML und sagt dann dem Blinden, guck mal, hier, das sind die Überschriften. Wo möchtest du denn jetzt gerne reingucken? Oder hier, das sind die Links, die du hast und das sind die Wattens, die du klicken kannst. Und dann kann halt der Blinde über eine Braille-Tastatur
00:35:20
Speaker
sagen oder auch lesen und damit halt auch die Eingaben machen. Und wenn man jetzt sagt, wir haben jetzt hier eine dreidimensionale Welt, kann man natürlich auch statt halt zu sagen, ja, wir übertragen jetzt da, dadurch, dass es digital ist, kannst du direkt dem Blinden sagen, so und so ist gerade die Welt. Und sie können zum Beispiel akustische Signale benutzen für die Sterne. Das heißt, der Blinde kann halt durch das Gehör
00:35:47
Speaker
die Umgebung wahrnehmen und du brauchst gar nicht mehr den visuellen Kanal. Also hat man da, glaube ich, eine sehr gute Möglichkeit, um die Zugänglichkeit zu erhöhen, im Allgemeinen. Das muss halt gemacht werden und hat jetzt oft jetzt leider nicht die höchste Priorität. Ja, ja, auch auch sehr spannende Sachen, die man halt absolut gar nicht bedenkt, wenn man wahrscheinlich nicht stark in dem Bereich unterwegs ist. Aber genau betrifft ja betrifft irgendwie alles. Okay.
00:36:14
Speaker
Kurz nochmal zum Produkt, also zurückspulen. Angenommen ich, der sich eben absolut gar nicht irgendwie damit auskennt, muss jetzt für Arbeit oder Uni ein VR-Projekt bauen. Wie wäre denn da nicht herangehensweise? Und was sind Sachen, die vielleicht trotz der Tatsache, dass es eine Low-Code-Lösung ist, irgendwie erlernt werden müssen und trotzdem vielleicht ein bisschen schwieriger sind? Und was sind vielleicht Sachen, die mir dann komplett erspart werden dadurch, dass es eine Low-Code-Lösung ist?
00:36:45
Speaker
Ja, also meine Empfehlung wäre natürlich, via Builder zu benutzen. Das heißt, man lädt Unity runter, dann via Builder. Also Unity ist eine Desktop-App in dem Fall, oder? Genau, richtig, ja. Dann kann man sich eine Demo-Szene runterladen, die ist auch so ausgelegt, dass man als via Builder-User so die Interaktion kennenlernt, nach und nach. Dass man auch sieht, hey, so kann man Kapitel stochlorieren, so kann man auch Schritte kopieren und so weiter. Und dann kann man schon mal viel auswährenden Erfahrungen sammeln.
00:37:12
Speaker
Das zweite, was man hat, ist sehr gute Tutorials. Da kann man dann lernen, wie macht man dann verschiedene Sachen. Wir haben auch eine FAQ-Section, wir haben Dokumentation, wir haben die Community, wo man Fragen stellen kann. Und dann, wenn man es halt dann schafft, quasi die technischen Hürden zu bewinden und VE-Anwendungen zu erzeugen, spätestens dann sollte man sich überlegen, was ist denn eine gute Virtuality User Experience.
00:37:37
Speaker
Das ist etwas, was sehr viele Leute vergessen. Deswegen sagen auch so viele Leute, in VR wird ihnen schlecht. Ist eigentlich leider falsch, weil nämlich VR macht einen gar nicht mehr übel, sondern ist eine schlechte VR-Anwendung. Dann gibt es zum Beispiel ganz klassische Motion-Signal-Trigger. Das heißt, wenn du in der Realität
00:37:59
Speaker
an einer Position bist, aber visuell siehst du die Vorwärtsbewegung. Das ist das Gleiche wie in einem Auto, wenn dir da schlecht wird. Den Effekt kannst du individuell auch erzeugen und wie man dann die Emotionsignis vermeidet ist, einfach das nicht zu tun, sondern stattdessen zum Beispiel Teleportationen zu benutzen, um weitere Distanzen zu gebrücken.
00:38:19
Speaker
weil du nicht mehr dieses continuous movement hast, sondern einfach am anderen Punkt bist, hast du die Risikopanz zwischen Gleichgewichtssinn und Visuellensinn nicht mehr, der diese Übelkeit hervorruft. Das ist einer von den Sachen, die viele Leute nicht betrachten, wenn die zum ersten Mal Virtuality bauen. Ein anderes Beispiel ist, wie verwendet man Text? Man ist es ja gewohnt, auf Desktop-Anwendungen mit sehr viel Text zu arbeiten, um Informationen zu ertragen.
00:38:48
Speaker
Wenn man jetzt einfach Text in VR darstellt, muss man darauf achten, erstens, du musst halt trotzdem den Text sehen, also wie scharfst du es, dass der im Sichtbereich ist. Du musst halt auch die richtige in Abstand haben, weil wenn es zu nah ist, dann irritiert es dich. Wenn es zu weit weg ist, kannst du es nicht lesen. Deswegen ist halt Information übertragen oft in einem anderen Kontext viel besser. Also indem man zum Beispiel mit visuellen oder akustischen Hinweisen arbeitet, statt mit einfach Textanländen. Ah, okay. Ja, auch das wieder ein Beispiel dafür, etwas, dass man halt
00:39:17
Speaker
absolut nicht bedenken würde, wie relevant das halt irgendwie aber auch logischerweise ist. Weil egal, was du heute für Mobile oder Desktop baust, ist halt UI, UX extrem wichtig. Findet man, was man finden soll? Verstehen die Leute das? Findet man sich zu Recht? Ist das irgendwie zu viel? Ist das zu wenig? Und das Spannende natürlich bei VR ist, das ist so ein bisschen eine Mischung aus dem digitalen UI, UX, aber gleichzeitig
00:39:47
Speaker
dem Einbinden von der echten Realität, in der man sonst ja sowas irgendwie nicht, also so you are, you exist in der echten Realität, ist dann vielleicht okay, ich organisiere ein Event, wie soll die Erfahrung sein? Wofür finden die Leute sich zurecht?
00:40:02
Speaker
Du würdest ja niemals, wenn ich das jetzt baue, dann wird den Leuten schlecht. Aber das muss man natürlich dann beachten, weil du bist irgendwie an der Stelle. Gibt es da auch wirklich so Studiengänge und Ausbildungen zu VR-Entwicklern?
00:40:20
Speaker
Ich würde es vermuten, ich weiß es in der Tat gar nicht, ob es da medizine Studien gegen gibt, aber ich weiß, dass es da sehr viel Forschung und auch sehr viel Material gibt. Also gerade diese großen führenden Unternehmen haben da auch schon seit vielen Jahren halt Studien zu gemacht und dann auch diese Sachen veröffentlicht. Und da gibt es dann auch sehr gute Experten, die ihr Wissen teilen. Wenn man danach sucht, dann findet man da viel. Ja, ich glaube nämlich auch, weil das wird ja
00:40:47
Speaker
Tendenziell eher mehr als weniger. Das hofft ihr natürlich auch und da seid ihr wahrscheinlich auch genauso sicher, weil einmal die Verbreitung davon ist einmal die Knowledge und der verbesserte Zugang geben durch so was wie VR-Bilder, aber auch hardware-mäßig. Das Ganze wird irgendwie immer besser, günstiger und demnach zugänglicher. Klar, dann kommt sowas wie Apple um die Ecke und macht das noch mal teurer.
00:41:13
Speaker
Aber irgendwie wird es das wahrscheinlich dann halt auch mal komplett verändern, wenn die Vision Pro rauskommt. Wie siehst du die nahe und vielleicht noch mal die ferne Zukunft bei dem ganzen Thema? Wie wird sich das verbreiten? Wird das in der allgemeinen Gesellschaft irgendwie ankommen? Auch zum Beispiel für den privaten Gebrauch? Werden die Leute wirklich zu Hause sitzen und mehr als Gaming damit machen?
00:41:38
Speaker
Davon gehe ich mal aus. Also, wenn man sie in naher Zukunft sehen möchte, kann man eigentlich nach Amerika gucken. Die sind ungefähr so zwei Jahre weiter als wir. Und da besitzen zwischen 23 Prozent aller Haushalte ein VR-Headset. Und ich glaube, seit der letzten Black Week, da wurden ja richtig viele Oculus-Geräte verkauft. In überraschender Weise mehr Oculus 2 als Oculus 3, weil die halt den Preis reduziert haben. Also, da wird es nochmal einen richtigen Sprung gegeben haben, wenn man sich überlegt.
00:42:08
Speaker
Vor ein paar Jahren hatten wir ein ähnliches Thema. Da gab es dann plötzlich Smartphones und dann mussten alle Webseiten mobilfähig gemacht werden. Im Prinzip ist halt diese ganze Metaverse gedürnt. Aus meiner Sicht eigentlich nur die Tatsache, das Internet wird eine Dimension mehr bekommen. Das heißt, Leute wollen in Zukunft nicht mehr auf einen 2D-Bildschirm gucken, wenn sie eine Webseite besuchen, sondern erwarten ein 3D-User-Erlebnis.
00:42:34
Speaker
Und das heißt, dann werden wir halt in Zukunft, ich sag's mal, XR-First haben. Das heißt, man möchte, ja, einfach mit seinen XR-Geräten, ob's jetzt via oder AR oder MR ist, einfach halt was erleben können. Na, und es gibt schon viele Anwendungsfälle, wo das halt in die Richtung geht, ja. Also, Autokonfigurator zum Beispiel ist ein super Beispiel, ja. Statt dass du's halt nur zusammenklickst, du möchtest dich halt reinsetzen können. In der Ikea hat das schon sehr gute Anwendung mit ihren AR-Sachen. Das heißt, du kannst die Möbel direkt in dein Haus stellen.
00:43:04
Speaker
Oder wenn man sich jetzt das Beispiel anguckt von Google Maps, statt dass man halt von oben auf eine 2D-Karte guckt, kriegt man die Navigation in die echte Welt eingeblendet. Und das sind so die Transformationen, wo man sagt, hey, statt dass wir jetzt weiter zweidimensional denken, müsste man sich überlegen, wie können wir das Erlebnis oder das, was der Nutzer halt machen möchte, wie können wir daraus eine interaktive, erlebbare Welt generieren?
00:43:31
Speaker
Bevor ich bei Interactive angefangen habe, habe ich bei der Allianz gearbeitet und die Allianz, sie denkt halt oft immer noch, sie würde Versicherung verkaufen, aber eigentlich bietet sie halt das Versprechen von Sicherheit. Und ja, als die Allianz gegründet wurde vor langer, langer Zeit, da war es halt nur möglich, diese Versprechen in einen Vertrag zu packen. Heutzutage gibt es auf der Webseite Antragsstrecken und Konfiguratoren und Rechner.
00:43:58
Speaker
dieses Versprechen von Sicherheit erlebbar zu machen. Wenn man mal sagt, Haushaltversicherung, wie ist es mit, wie ist es ohne, was ist denn, wenn was passiert? Ich glaube, da kannst du halt einen viel besseren Zugang schaffen und halt auch solche komischen oder abstrakten Sachen wie Versicherungen plötzlich erleben und abgreifbar machen. Das heißt, das wird, glaube ich, den ganzen Markt wirklich beeinflussen.
00:44:19
Speaker
Und vor kurzem hat ja auch Amazon angekündigt, sie wollen weg von den 2D-Bildern, sondern sie möchten in Zukunft 3D-Objekte halt auf ihrem Marktplatz haben. Dann ist ja total klar, sobald es halt dreidimensional existiert, die Leute wollen es halt angucken, ausprobieren und halt immer aktiver auch nutzen können, bevor sie nur auf kaufen flicken. Ja, genau. Und dann fangen die ersten an und dann müssen die anderen halt mitziehen, wenn die sehen, diejenigen, die ein 3D-Modell haben, verkaufen besser.
00:44:47
Speaker
weil du es nicht anfassen kannst, aber du sagst, okay, ich habe hier irgendwie dieses Mikrofon, das will ich mir kaufen, 3D, zack, gucke es dir von allen Seiten an. Okay, doch keine AUX. Ja, dann kauze ich mir halt nicht. Oder hat irgendwie doch, keine Ahnung, den richtigen Anschluss. Aber ja, das sind genau auch das Sachen, über die denken wir noch nicht so nach. Und wenn es dann wahrscheinlich soweit ist, ist es halt das Normalste der Welt, dass man dann sagt, okay,
00:45:15
Speaker
bei bestimmten Sachen, bei denen es sich nicht nur anbietet, sondern halt, dass vor allem erst, also das eine wäre ja, es bietet sich an und macht es irgendwie cooler, wie zum Beispiel Ikea, die haben ja jetzt schon so 3D-Konfiguratoren, wenn du dann noch die Hardware zu Hause hast, zack, stehst du in deinem Zimmer und guckst, ja doch, das Bett sieht ja ziemlich cool aus, lass dich stehen, aber dann, wie du schon sagst, es gibt da wahrscheinlich Sachen, die fallen uns noch gar nicht ein, die dadurch überhaupt erst machbar

Die Zukunft der VR-Integration im täglichen Leben

00:45:41
Speaker
sind. Richtig. Und jetzt noch gar nicht darstellbar sind auf einem normalen
00:45:46
Speaker
2D-Bildschirm. Und dann, ich glaube, dann wird die Nachfrage nach UI, UX Experten in dem Bereich halt riesig sein, weil genau, dann müssen halt alle mitziehen. Ja, das wird, ich glaube, vor allem sehr spannend wird die Entwicklung hinsichtlich der Hardware und vor allem auch so ein bisschen dann der Effekt. Ich meine, Meta hat ja jetzt hier mit Rabin so eine Mischung sozusagen getroppt, ist ja so ein bisschen so eine Augmented Reality.
00:46:16
Speaker
Geschichte Division Pro ja auch. Aber ich glaube, was für mich noch zwei verschiedene Dinge sind, aber wahrscheinlich trotzdem eins sind, ist halt einmal hast du eine AR-Geschichte, wo du zum Beispiel mit einer Brille halt einfach nur, du hast zwar Augmented Reality, aber es sind halt einfach nur 2D-Bildschirme. Auf einmal habe ich nicht nur mein Laptop, sondern vier Bildschirme vor mir, die sind aber alle trotzdem noch 2D. Ich kann mich dann halt drehen, wie ich will und habe dann im Café vier Bildschirme.
00:46:45
Speaker
Und das andere wären ja wirklich diese 3D Geschichten, wo ich dann irgendwie mit Joysticks mich hin und her bewegen kann. Glaubst du, das wird auf jeden Fall eine Sache am Ende zusammen sein? Oder wird das irgendwie aus welchem Grund auch immer zwei getrennte Sachen bleiben? Also ich denke, das wird ineinander konvergieren.
00:47:07
Speaker
Also ich sehe gerade erstmal einen starken Unterschied zwischen Augmented und Virtuality von der Hardware. Also die VR-Geräte, das ist halt wirklich, du setzt die Bolle auf und das ist halt in der virtuellen Welt. Und diese haben, also alle den neuen Geräte in dieser Typklasse, die haben inzwischen halt Kameras außen und können mit Paththrough die Realität in der Virtualität einblenden.
00:47:28
Speaker
Und dann gibt es diese echten Augmented Reality-Brillen. Das heißt, ihr habt Gläser, wo du durchgucken kannst, siehst die echte Welt. Und da können Sie dann virtuelle Elemente hinzufügen. Aber die können auch so abdunkeln, dass du im Prinzip die echte Realität immer weniger wahrnimmst. Auch da gibt es dieses Continuum. Und das heißt,
00:47:49
Speaker
Aus meiner Sicht sind Cypher-T verschiedene technische Ansätze, was aber beides in Richtung Mixed Reality geht. Das heißt, du hast halt ein Continuum und kannst sagen, beliebe ich viel Virtualität und beliebe ich viel echte Realität. Und dazwischen ist es halt ein Schieberegler. Und ob man dann halt die virtuellen Elemente zwei- oder dreidimensional einwendet. Ich denke, da wir halt durchaus sehr gewohnt sind, als Menschen in einer dreidimensionalen Welt zu interagieren und zu leben,
00:48:16
Speaker
wird es auch in Zukunft sehr viel Stärke in 3D-Elemente hinübergehen. Und wenn du halt einfach sagst, du hast einen flachen Bildschirm, dann ist es halt ein sehr flaches 3D-Objekt, aber trotzdem eigentlich kein 2D-Overlay. Also deswegen, ich denke, das wird doch eher in Richtung 3D gehen. Ja, das stimmt. Und genau, also am Ende kommt es wahrscheinlich wieder auf den Case an. Wenn ich einen zweiten Bildschirm brauche, dann setze ich halt die Brille auf und zoome mir sozusagen dahin. Aber wenn ich mir mein Zimmer in 3D einrichten will,
00:48:46
Speaker
dann wäre es ja sozusagen ein bisschen witzlos, mir eine Brille aufzusetzen, nur um einen 2D-Bildschirm durch das Editor zu benutzen. Dann wirst du ja da rein. Und wenn das dann möglich ist, mit noch besserer Auflösung, mit einem besseren Rendering und allem, dann, ja, ich glaube, das wird auf jeden Fall Teil der Gesellschaft. Die Frage ist dann, in wie vielen Jahren wir dann diesen Podcast hier hinten mit 3D-Brillen machen.
00:49:12
Speaker
Geht vielleicht schon als Nächstes. Ja, ich glaube auch, also das mit AI war ja auch noch, vor zwei Jahren habe ich in der Uni noch so ein paar, ja, das wäre so cool, wenn man das machen könnte, aber dauert noch. Und drei, vier Jahre später habe ich mithilfe von JetJPT meine Masterarbeit geschrieben. So schnell geht's. Okay, abschließend würde mich interessieren, das fragen wir natürlich immer die Gäste und vor allem spannend, aber von der Perspektive von eben denjenigen, die Logo2 oder Logo2 selber bauen.
00:49:40
Speaker
Was macht für dich ein gutes No- oder Low-Code-Tool aus? Also, wir sind eigentlich nicht gestartet mit der Idee, dass wir eine No-Code oder Low-Code-Lösung bauen, das halt rauszukommen. Was wir halt versucht haben, ist, die Zugänglichkeit zu erhöhen. Und ich denke halt, das ist aber auch typisch für No-Code, dass man sagt, man möchte halt auch nicht Programmierern die Technik oder das Potenzial der Technik zugänglich machen. Und wenn man das schafft, dann würde ich sagen, hat man dann
00:50:09
Speaker
Dann ist man erfolgreich und wenn man das nicht schafft, dann hat man, glaube ich, irgendwas falsch gemacht. Okay, sehr schön. Das sind auch gute abschließende Worte. David, vielen Dank, dass du da warst. Alle wichtigen Links und Informationen finden die Zuhörenden auf jeden Fall in den Show Notes, Link zur Website, zum Unity-Plugin. Wir haben VR Builder auch auf unserer Tool-Seite seit Kurzem, also kamen wir auch sozusagen ins Gespräch.
00:50:34
Speaker
Ja, und ich bin extrem gespannt, was die Zukunft von VR und No-Code bringt und was für coole Applikationen in Zukunft noch mit VR-Bilder gebaut werden. Ja, ich bin auch gespannt. Sehr schön. Und genau, den Kontakt zu David für jeden und jeder, der bei uns in der Community ist. David ist in der Slack-Community und ansonsten natürlich auch über LinkedIn. Schön, dass du da warst, David. Und dann hoffentlich bis bald mit ein paar Updates von VR-Bilder. Ja, vielen Dank.