Wie aus Fotos und Videos ganz einfach digitale 3D-Zwillinge werden
Shownotes
Virtuelle Experiences und XR-Welten brauchen Inhalte – zum Beispiel realistische, detailgetreue 3D-Objekte, die reale Gegenstände widerspiegeln. Doch die zu erstellen, war bislang teuer und aufwendig. Das Münchner Start-up OVRLAY hat mit der Obsphera ein Tool entwickelt, das aus Smartphone-Videos und Fotos 3D-Zwillinge entstehen lässt – schnell, günstig und ganz ohne Spezialwissen. Im Gespräch erklärt Albert Brenner, welche Vorteile das für die XR-Branche hat, warum das die Art verändern könnte, wie wir digitale Inhalte erleben – und wie daraus das „3D-Web“ entstehen könnte, das Internet der nächsten Generation.
Albert Brenner ist Unternehmer, Investor und Experte für digitale Innovation mit mehr als 25 Jahren Erfahrung im Aufbau und in der Skalierung von Technologieunternehmen. Er war Mitinitiator von Plattformen wie Check24.de und Roarington.com sowie Mitgründer und Gesellschafter von PepperGlobal (heute Teil von Iris Worldwide), thaltegos (heute Plan.Net), der Digital Transformation Group und diva-e, einer der führenden Digitalagenturen in Deutschland. Als Mitglied der Geschäftsleitung von Xerox verantwortete er Marketing- und Vertriebsorganisationen in D/A/CH und BeNeLux.
Heute ist er Mitgründer und CEO von OVRLAY, einem Deep-Tech-Unternehmen, das mit der Obsphera Suite die 3D-Rekonstruktion und KI für Versicherungen, E-Commerce, Automotive und Industrie neu definiert. Darüber hinaus ist er Initiator des Digital Executives Circle, einem Netzwerk für Führungskräfte, die die digitale Zukunft gestalten.
Mehr zu Obsphera.ai erfahrt ihr hier: https://www.obsphera.ai/
Transkript anzeigen
00:00:02: Virtuelle Experiences, dreidimensionale digitale Welten, die sind schön, damit sie auf uns, also auf die Userinnen und User auch wirken, wissen sie gefüllt werden, mit digitalen Objekten in drei D. Die entstehen aber nicht von selbst, vor allem nicht, wenn sie reale Vorbilder widerspiegeln sollen.
00:00:17: Dafür braucht es teure Technik zum Beispiel leider, bisher jedenfalls.
00:00:20: Doch ein Start-up aus München, das hat eine neue Technologie entwickelt, die eigentlich nur ein Smartphone und ein paar Minuten Zeit braucht.
00:00:26: Wenn ich schaffe, sehr kostengünstig, sehr einfach und sehr schnell viele drei-D-Inhalte zu generieren, dann habe ich eine starke Basis für XR-Anwendungen erzeugt.
00:00:39: Das können für private Bereiche sein, für das Gaming-Bereich sein, aber eben auch im industriellen Bereich.
00:01:07: In diesem Podcast wollen wir euch neue Realite hätten vorstellen, also Projekte, Ideen, Konzepte und Produkte in Virtual Augmentary Mixed Reality, kurz gesagt, in Extended Reality.
00:01:16: Ich heiß Wolfgang Kerler, ich bin Chefredakteur von underlying und diesmal spreche ich mit Albert Brenner, einem erfahrenen Unternehmer, der bereits seit twenty-fünf Jahren digitale Innovation vorantreibt und auch in Westeros.
00:01:27: Plattform wie checkvierundzwanzig oder roaring.com hat er aufgebaut, genauso wie digitale Agenturen und die Geschäftsführung in großen Unternehmen hat er auch schon übernommen.
00:01:36: Heute ist er Mitgründer und CEO von Overlay, einem DeepTech-Unternehmen, das mit der Obsphere R-Suite genau die Software entwickelt hat, über die wir in dieser Folge sprechen.
00:01:46: Sie macht aus Fotos und Videos schnell und einfach fotorealistische digitale Zwillinge in drei D. Von kleinen Gegenständen über Autos bis zu ganzen Straßenzügen.
00:01:55: Da steckt natürlich viel Potenzial für XA drin und auch für das Internet der Zukunft, das räumlich werden könnte.
00:02:01: Viel Spaß beim Podcast mit Albert.
00:02:03: Herzlich willkommen im New Reality Podcast.
00:02:05: Schön, dass du da bist.
00:02:06: Hallo, öfter.
00:02:06: Vielen Dank.
00:02:07: Schön, dass ich da sein darf.
00:02:09: Aber wir haben ja schon ein Vorgespräch geführt, das kein Geheimnis.
00:02:11: Und da hast du gesagt, gleich am Anfang, du machst Digitalisierung seit adhesive.
00:02:15: Das ist eine ganze Weile.
00:02:16: Vielleicht zum Start kannst du uns im Schnelldurchgang einmal vom Beginn deiner Digitalisierung dahin mitnehmen.
00:02:22: Bist du im Punkt, wo du sagst, okay, da hat dein jetziges Projekt Obscura AI angefangen?
00:02:26: Gerne.
00:02:26: Alter, es wird sich immer ganz schlimm an eigentlich, wenn man das so sagt.
00:02:30: Ich war einmal bei einer Uni, habe eine Vorlesung gehalten und dann hatte ich gesagt, da bin ich geboren.
00:02:35: Das ist schlimm.
00:02:36: Ja, Alter, macht digital.
00:02:38: Die Personalisierung ist schon wirklich sehr lange von Web one null, Web two null, Web three null.
00:02:43: Und jetzt kann man diskutieren, ob wir uns gerade mit Genetic AI und Web three D im Web four null bewegen.
00:02:50: Wir haben angefangen mit Webseiten zu bauen.
00:02:53: Wir haben dann im Prinzip einen kleinen Team Web one null Geschäftsmodelle gebaut selbst und für Kunden.
00:03:02: Ich habe immer so die Mischung zwischen Berater für Unternehmen, aber auch eben selber Unternehmer.
00:03:10: Und im Web Einz Null ging es um Webseiten, E-Commerce und und Vergleichs oder Service-Plattform, Check-Vierundzwanzig habe ich mit aufbauen dürfen, für die Kirchgruppe Maxtome und ein paar andere Projekte.
00:03:22: Im Web zwei Null ging es um ... Social und Interaktion.
00:03:27: und im Web.de habe ich mich mit Metaverse und Blockchain beschäftigt.
00:03:32: Und genau, daraus ist im Prinzip so ein bisschen aus diesen Projekten heraus dann das Thema Dreideh entstanden, was im Prinzip die Initialzündung dann für Obsphera war.
00:03:48: Nicht nur, zu dem Dreidee kam auch noch Oldtimer dazu.
00:03:51: Und das Stichwort Meterburst, das ist schon genannt, das du hast ja erzählt.
00:03:54: Vorläufer des jetzigen Startups ist ein Projekt, das... durch den Kontakt mit einem Oldtimer-Sammler zustande kam.
00:04:02: Das musst du uns noch erklären, dieser Zusammenhang zwischen eurem jetzigen Software-Produkt und Oldtimern.
00:04:08: Ja,
00:04:08: also das berühmte Bild der Jungfrau und mit zum Kind.
00:04:11: Ja, wir haben tatsächlich mit einem sozusagen Oldtimer-Sammler gesprochen und der sagte, hey, baut mir ein Metaverse für Oldtimer.
00:04:19: Und da hatten wir dann das Glück, über eine längere Zeit, Rohringen.com mit an den Start zu bringen.
00:04:28: vom Geschäftsmodell über die digitale Plattform bis hin zum Kern des Projektes.
00:04:34: Im Kern geht es darum, klassische Automobile Oldtimer zu digitalisieren, digitale Zwillinge zu bauen.
00:04:43: und die aber nicht nur in virtuellen Showrooms auszustellen, die dann der Öffentlichkeit sozusagen geöffnet werden, sondern eben diesen Fahrzeugen auch die Fahrfüße mitzugeben, sodass der Sammler, die Sammlerin oder der Museumsbesucher dann diese automobilen Schätze auch wirklich authentisch fahren können in Simulatoren.
00:05:07: Und ja, das war natürlich ein tolles Projekt, ästhetisch.
00:05:12: Ich mag Autos.
00:05:13: Und da ging es eben sehr viel um... Digital-Dreidee-Technologien, wie schaffe ich es, hochauflösende, sehr detailgedreue, dreidee Zwillinge von Fahrzeugen im Prinzip zu entwickeln und die eben auch virtuell auszustellen.
00:05:32: Weniger jetzt über Brillen, sondern tatsächlich Desktop basiert oder über Smartphones eigentlich über ein Stream primär zu nutzen.
00:05:43: Es ging aber nicht darum, einfach nur diese Automote irgendwie drei D nachzubauen, sondern es ging wirklich, wenn ich das richtig waschern hab, schon um diese, auch um die konkreten Oldtimer, also wirklich um das einzelne Fahrzeug an sich.
00:05:54: und nicht einfach nur ich baue ein digitales Modell dieses Typen nach, sondern wirklich es geht um dieses Fahrzeug, das bei diesem Sammler steht.
00:06:02: Ganz
00:06:03: genau, der Porsche der Nürburgring das erste Rennen gewonnen hat, ein ganz ikonisches Fahrzeug, von dem ein... digitalen Zwilling zu erstellen, mit den ganz spezifischen Strukturen im Leder, im Lack usw.
00:06:25: Delivery, also sozusagen die Außenschicht des Fahrzeugs und dann eben aber auch die ganz authentische Fahrfelsik dem Fahrzeug mitzugeben.
00:06:35: Es geht immer um digitale Zwillinge, um eins zu eins Abbildungen, möglichst detailliert und möglichst photorealistisch sozusagen.
00:06:45: Nun haben natürlich diese tollen Sammelobjekte wahrscheinlich keine Kratze, aber hätten sie Kratze, würde die auch die Kratze dann mit abbilden.
00:06:52: Ja, absolut.
00:06:53: Gerade in dem Leder beispielsweise, in Leder aus den fünftiger, sechziger Jahren, das viel benutzt wurde, da siehst du Strukturen, da siehst du leicht aufgeplatzte Strukturen, die ganz sozusagen einmalig für dieses Fahrzeug letztendlich sind.
00:07:10: Und das bilden wir eins zu eins ab.
00:07:11: Es geht nicht um Ich kann ja heute über KI im Prinzip ein drei-D-Modell bauen lassen von einem Porsche Spyder.
00:07:21: Das ist aber nicht eine Eins-zu-Eins-Abbildung eines spezifischen Fahrzeugs, sondern eine mehr oder weniger reale Darstellung von irgendeinem Porsche.
00:07:34: Wie habt ihr das gemacht?
00:07:36: Und vor allem ohne eine genaue Haustür, sondern wie teuer, weil mit genug Geld?
00:07:41: Ging das ja auch schon ein paar Jahre, schon vor ein paar Jahren, so einen digitalen Zwilling zu erstellen, war halt dann nicht ohne.
00:07:46: Also wie habt ihr es gemacht?
00:07:48: In der Szene ist Geld immer der limitierende Faktor, aber zumindest war genug da, um von einem Museum, von einem Autohersteller, von einem Sammler einen authentischen Zwilling über klassische Methoden entwickeln zu lassen.
00:08:05: Wir haben dort Leiderscanning-Verfahren genutzt, industrieller Leiderscanner, haben.
00:08:11: dann dauert vier, fünf Stunden, um so ein Fahrzeug dann zu digitalisieren.
00:08:16: Aber der Leiderscanner oder kein Leiderscanner bildet dann dieses Fahrzeug schon vollständig ab.
00:08:22: Da gibt es Lücken, da gibt es Fragmente.
00:08:25: Dann hat eigentlich eine Nachbearbeitungsphase gedauert, die vier bis sechs Wochen teilweise gedauert hat.
00:08:33: Um wirklich jedes Merkmal... eins zu eins authentisch abzubilden.
00:08:38: Es ist ein riesenaufwendiger Prozess, kann man sich vorstellen.
00:08:41: Eine Person vier bis sechs Wochen plus ein teures Gerät für dreißigvierzigtausend Euro und leider, das kennen wir, eher vier, fünf Stunden von einem Experten genutzt wird.
00:08:52: Da sprechen wir über einen hohen vierstelligen Betrag letztendlich, was so ein Digital Twin dann am Ende kostet.
00:09:00: Und genau das war auch dann sozusagen die Herausforderung.
00:09:04: Wir haben mehr und mehr Anforderungen Fragen von Arteien bekommen, von Unternehmen bekommen, die eine sehr große Anzahl von digitalen Zwillingen wollten, beziehungsweise eben auch aus anderen Branchen, wo es nicht um ein Fahrzeug ging, sondern um andere Objekte.
00:09:19: Und da konnten wir mit diesen klassischen Methoden gescannte Modelle eben nicht weiter fortfahren.
00:09:25: Und wie habt ihr das dann gemacht?
00:09:27: Und wie ist daraus dann ein Start-up geworden?
00:09:29: Das ist die alles entscheidende Frage.
00:09:30: ja jetzt.
00:09:31: Ach, gute Frage.
00:09:34: Dann im Prinzip uns sozusagen auf die R&D-Suche gemacht.
00:09:39: Wir haben ganz viele Methoden versucht, Radiance-Field-Verfahren, Fotogrammetrie-Verfahren.
00:09:48: Wir haben mit KI experimentiert und sind eigentlich dann auf Gorschen Splating als Kerntechnologie gekommen, die es schafft aus zwei D-Bildern oder Videos.
00:10:03: authentische, photorealistische, drei-D-Modelle zu schaffen.
00:10:07: Sehr schnell, skalierfähig, in einer sehr authentischen Art und Weise, sicherlich noch mit ein paar technischen Herausforderungen, die es dann durch die Zuhilfenahme anderer Algorithmen und auch unter Zuhelfennahme von verschiedenen KI-Methoden zu lösen gab, die Qualität stabiler zu machen, auch für glänzende, für reflektierende, für durchsichtige Strukturen in Objekten.
00:10:38: Und das war eine spannende Phase, wo wir letztendlich nie so richtig wussten, wären wir jetzt im Prinzip ein Set an Technologien finden, mit der wir unsere Vision letztendlich realisieren können.
00:10:52: Bevor du erzählst, wie und dass ihr es geschafft habt, so viel kann man ja verraten.
00:10:57: Wer ist eigentlich, wie ja immer in dem Kontext, jetzt würdest du mal Zeit deine Mitstreiter einzuführen?
00:11:01: Ja,
00:11:01: gute Frage, ja, das stimmt.
00:11:03: Das ist der Florian, ganz langjähriger Wegbegleiter von mir.
00:11:08: Wir kennen uns seit vielerneinzig, haben schon verschiedene Projekte gemacht und wir sind sozusagen die Initiatoren, die Gründer und wir haben noch ein Team, Entwicklerteam von sechs Leuten.
00:11:22: mit denen wir alles fest angestellte, mit denen wir arbeiten und dann noch ein erweitertes Team an Freelancern.
00:11:28: Und in dieser Gruppe haben wir letztendlich diese ganzen Projekte und dann letztendlich auch das Produkt entwickelt.
00:11:36: Genau, funktioniert.
00:11:37: euer Produkt ist, das ihr jetzt auch mit dem eigenen Start-up, das ihr im November, zwanzig, tzeinundzwanzig gegründet habt, auch auf den Markt gebracht.
00:11:42: Das heißt Obsphere AI.
00:11:44: Obsphere AI.
00:11:46: Wie funktioniert es jetzt?
00:11:47: Was ist sozusagen die Technologie da drin?
00:11:50: Und wie habt ihr auch das, was es an Methoden da draußen schon gab, dann in ein fertiges, auch einfach zu nutzen, das Produkt gekostet?
00:11:57: Ja, ich glaube, gute Stichwerte.
00:11:59: Uns ging es um eine einfache Nutzung.
00:12:01: Uns ging es nicht darum, ein weiteres Expertentool zu schaffen, da gibt es schon vieler Markt, sondern uns ging es darum, dass ein Unternehmen, ein Mitarbeiter im Marketing und Mitarbeiter in den Operations ohne spezifische Fachkenntnisse, ohne spezifische Software, ohne spezifische Hardware, drei D-Modelle aus Fotos und Videos erstellen kann.
00:12:26: Das war sozusagen unser... Unsere Anspruch ist unsere Vision und das Ganze photorealistisch in einer hohen Qualität, stabil und kostengünstig.
00:12:37: Und letztendlich haben wir dann Gorschen Splating, NERV, KI-Verfahren in einer besonderen Kombination zusammengefügt in einer Pipeline, wo wir Inzwischen mit Obsvera AI.
00:12:55: Soweit sind, dass wir sehr zuverlässig, gute Qualität aus Fotos und Videos in ein D-Modell.
00:13:04: innerhalb von Minuten oder Stunden transformieren können.
00:13:08: Und das ist schon mal sehr nah an unsere Vision.
00:13:12: Da gibt es sicherlich noch weitere Schritte.
00:13:14: Aber nur, damit wir uns ganz genau vorstellen können, ist es eine App, ist es eine Website.
00:13:19: Wie wenn ich jetzt dieser Marketing-Mitarbeiter wäre, ich will jetzt von, weiß ich nicht, unserem Produkt.
00:13:24: unserem Toaster einen digitalen Zählen.
00:13:26: Wie konkret wird das jetzt ablaufen, wenn ich eure Software nutze?
00:13:29: Das ist eine Software as a Service-Plattform.
00:13:32: Du könntest dort entweder einen kostenlosen Test oder eine Lizenz online abschließen.
00:13:38: Gibt es unterschiedliche Lizenzmodelle.
00:13:40: Dann machst du ein Video mit deiner Handykamera oder mit einer professionellen Kamera.
00:13:47: Aktuell noch... Ganz normal mit deiner Handy-App oder mit deiner Kamera-App auf dem Handy.
00:13:54: in einigen Monaten dann mit unserer eigenen App, die wir dann releasen werden.
00:14:00: Und dieses Video vom Toaster, das dauert dann vermutlich... Ich weiß nicht, vielleicht vierzig, fünfzig, sechszig Sekunden.
00:14:07: Dieses Video lädst du dann bei uns in der Software hoch, in den Obsphera AI.
00:14:13: Und dann bekommst du eine Information, was es ist, also die KI erfasst.
00:14:18: Aha, das ist ein Toaster von der und der Marke, schaut so und so aus.
00:14:23: Du wirst dann auch informiert, wie viel dieses drei-D-Modell jetzt kostet im kostenpflichtigen Lizenzmodell.
00:14:31: Letztendlich ist abhängig davon, wie groß das Objekt ist.
00:14:34: ist, also wenn du ein Flugzeug oder ein Auto als drei-D-Modell erstellen möchtest, ist das kostenintensiver als beispielsweise ein Toaster.
00:14:45: Ein Toaster kostet vielleicht zwei, drei Euro oder sowas als drei-D-Modell, also überscharbare Preis.
00:14:52: So und nach... ... und dann kannst du dir das erstmal in unsere Software anschauen ... ... kannst die Datei herunterladen ... ... und in einem geeigneten Führer ... ... bei dir auf der Website beispielsweise einbetten ... ... oder du bettest bei dir einen Link ein ... ... und dann hast du sozusagen unseren Führer automatisch ... ... mit integriert und ... die User deiner Webseite können deinen Toaster dann dort als Dreidehobjekt interaktiv betrachten.
00:15:30: Das heißt drehen Wänden von allen Seiten anschauen.
00:15:32: Genau, ja.
00:15:34: Und kann ich mit dem Dreidehobjekt auch noch andere Dinge machen?
00:15:37: Also kann ich das nur zum Anschauen auf eine Webseite packen oder kann ich das auch in ein Game integrieren oder?
00:15:44: Und dann nähern wir uns ja dem Hauptthema dieses Podcasts auch in eine Virtual Reality Umgebung.
00:15:49: Genau, also da kommt es jetzt darauf an, in welchen sozusagen Technologieplattformen du unterwegs bist.
00:15:55: Beispielsweise, was wir verschiedentlich in unterschiedlichen Anwendungen machen, wir integrieren dann das drei D-Modell in Unreal oder Unity in a Game Engine und dort kannst du dann das Objekt betrachten und damit letztendlich als Teil eines Raumes beispielsweise das nutzen.
00:16:17: was du heute nur nicht kannst, ist mit dem... Objekt dann tatsächlich zu interagieren.
00:16:23: Das ist in unserer Entwicklungs-Pipeline.
00:16:25: Dafür müssen wir dem Objekt physische und geometrische Eigenschaften mitgeben.
00:16:30: Das sind wir gerade dran.
00:16:32: Und die Zielsetzung ist, dass du dann, ähnlich wie mit einem Mesh-Objekt in einer virtuellen Welt, dann tatsächlich mit dem Objekt interagieren kannst.
00:16:42: Also ein Auto kannst du Türen eröffnen, kannst dich hineinsetzen oder ein Toaster kannst du natürlich dann die... den Schalter runter drücken oder das Toast hüpft dann aus dem Toast heraus.
00:16:53: Genau, das Toastbrot müssen wir natürlich vorher auch noch eindigitalisieren.
00:16:57: Wir bleiben nochmal ganz kurz beim Auto.
00:17:00: Nur um das mal klarzumachen, du hast vorhin gesagt, auf dem klassischen Methode, wenn ihr den digitalen Zwilling hoch auflösen wollte, vom Auto war es ein hoher vierstelliger Betrag.
00:17:07: Der Toaster hat zwei bis drei Euro, so nur P mal Daumen, wo würde der digitale Zwilling eines Autos preislich bei eurer Plattform liegen?
00:17:14: Kommt das Lizenzmodell drauf an, irgendwo zwischen fünf und zwanzig und fünf und dreißig Euro.
00:17:19: Als
00:17:19: es schon eine deutliche preisersparen ist in Vergleich.
00:17:22: Ja, signifikant, ja.
00:17:24: Warum?
00:17:24: Also wir haben es ja gerade schon ein bisschen praktisch erörtert, aber wenn du jetzt sozusagen zur XR Community sprichst, warum glaubst du, ist für XR Creator eure Technologie möglicherweise interessant?
00:17:33: Letztendlich lebt XR von den Inhalten, die ich virtueller leben kann.
00:17:42: Objekte und Räume zu erstellen ist aufwendig.
00:17:46: Ich durfte heute früh bei den Medientagen sein und dort mich ein bisschen auf den Mars herumtreiben.
00:17:54: Diese ganze Umgebung des Mars, die ganzen Objekte, die dort letztendlich auf dem Mars dann ausgestellt wurden, müssen erstellt werden.
00:18:01: Das ist ein relativ aufwendiger Prozess.
00:18:05: Unsere These ist, dass das ein stark limitierender Faktor ist, neben wahrscheinlich auch der Verbreitung von der Hardware, wie Abrill beispielsweise, aber die Inhalte, die werden der enabler sein.
00:18:21: Das heißt, wenn ich schaffe, sehr kostengünstig, sehr einfach und sehr schnell viele Drei-D-Inhalte zu generieren, dann habe ich eine starke Basis für XR-Anwendungen erzeugt.
00:18:35: Das können für private Bereiche sein, für das Gaming-Bereich sein, aber eben auch im industriellen Bereich.
00:18:41: Wenn ich Animationen habe, dann wenn ich Ersatzteile habe, Maschinen mit Tausenden von Einzelteilen, die muss ich in irgendeiner Weise als Drei-D-Objekt erstellen.
00:18:54: In vielen Anwendungen kann ich das aus dem CAD.
00:18:57: System direkt generieren mit gewissen Limitationen, was letztendlich beispielsweise die Oberflächenstrukturen und so weiter anbelangt, aber gerade mit Objekten.
00:19:08: die älteren bekommen zu den Oldtimers wieder.
00:19:11: Die ganzen Elemente, die ganzen Schräubchen und Riemen und so weiter im Oldtimer, davon gibt es keine drei D-Objekte.
00:19:21: Und die muss sich einfach schnell und kostengünstig erstellen können.
00:19:25: Und das ist letztendlich unser Anspruch mit Obsphera.
00:19:29: Gehen über traditionellen Methoden, haben wir neunzig Prozent geringere Kosten bei der drei D-Erstellung.
00:19:37: Wir reduzieren die Zeit von der Erstellung eines drei D-Objekts von Wochen auf... Minuten oder Stunden.
00:19:46: Das heißt, ich habe letztendlich ganz andere Skalierfähigkeit an der Content-Erstellung für XR.
00:19:53: Und letztendlich wollen wir mit Obsfera der Community in Tool an die Hand geben, mit einer A-III-D Content Engine, mit der sehr einfach letztendlich diese XR-Anwendung erstellt werden können.
00:20:07: Was wären denn so konkrete Anwendungen, wo man sich sowas vorstellen könnte, gerade im industriellen Kontext?
00:20:12: Wo es ja jetzt mal aus dem Bauch heraus, wahrscheinlich stimmt es dann statistisch nicht ganz, aber realistische Objekte noch wichtiger sind als vielleicht in dem Gaming-Kontext oder in dem künstlerischen Kontext.
00:20:24: In der industriellen Bereich sind Simulationen natürlich spannend.
00:20:28: In Trainingssituationen beispielsweise oder im Servicebereich, dass der Service-Techniker im Prinzip im Vorfeld, bevor an die Maschine geht, eine ausführliche dreidimensionale Erlebnis hat.
00:20:44: Wie schaut die Maschine aus, wenn ich die öffne?
00:20:48: Was sehe ich dann dort genau?
00:20:50: Welche Fehlermeldungen, Referenzien?
00:20:53: auf welches Objekt innerhalb der Maschine.
00:20:56: Das ist die Herausforderung, die wir haben, besprechen viel über Fachkräftemangel.
00:21:01: Wir haben dort eigentlich eine auseinandergehende Schere.
00:21:04: Die Technologie wird immer komplizierter, also auch die Maschinen letztendlich, die in Fabriken stehen oder die... beim Konsumenten so ausser teilweise sind.
00:21:16: Die Maschinen und die Technologie wird komplexer, aber uns fehlen eigentlich die Fachkräfte für Service-Einsätze beispielsweise.
00:21:25: So, und jetzt muss ich es schaffen über virtuelle, über XR-Anwendungen, die Leute, die vielleicht eben nur nicht so weit qualifiziert sind, so weit zu bringen, dass sie diese komplexen Technologien warten und auch reparieren können.
00:21:41: Das ist ein Riesenpotenzial.
00:21:43: Aber neben der Industrie sehen wir einen Ganspender Anwendungsbereich auch im Versicherungsgewerbe.
00:21:50: Letztendlich der Versicherer versichert Objekte, Räume, Maschinen, Fahrzeuge und muss sich immer einen Eindruck verschaffen.
00:21:59: Was versichere ich denn?
00:22:00: Oder wenn ein Schaden da ist, wie schaut der Schaden denn tatsächlich aus, wenn ich einen Wasserschaden in der Wohnung habe, wenn ich einen Brandschaden in der Wohnung habe?
00:22:09: wenn die Maschine explodiert.
00:22:10: Dafür gibt es heute Fotodokumentationen, die sind dann meistens unvollständig.
00:22:17: Dann muss dann der Versicherer nachfragen, machen nochmal Fotos von der Perspektive, machen nochmal Fotos von der Perspektive.
00:22:23: Das dauert.
00:22:24: Das ist wenig befriedigend für den Kunden, weil die Regulierung des Schadens dauert länger.
00:22:29: Der Mitarbeiter verbringt mehr Zeit mit der Schadensregulierung.
00:22:32: Also sind Kosten und Zeit-Fragestellungen.
00:22:35: Letztendlich muss sich vielleicht ein guter Achter vor Ort schicken.
00:22:39: Thema Fachkräfte, Thema Kosten und Zeit wiederum.
00:22:43: Wenn der Kunde im Prinzip mit seinem Smartphone von der explodierten Maschine, von dem Brandschaden in der Wohnung eine Videoaufnahme macht und dort dann automatisiert ein drei D Modell entsteht und der Sachbearbeiter im Büro dieses drei D Modell interaktiv begehen kann in alle Ecken.
00:23:07: letztendlich des Raumes sich begeben kann.
00:23:10: Die einzelnen sozusagen Schwachstellen in der Maschine vielleicht betrachten kann.
00:23:15: Den Feuer sozusagen den Ausbruchsort, Rußpartikel an der Wand betrachten kann.
00:23:21: Dann muss sich niemand mehr vor Ort schicken.
00:23:24: Ich habe keine Fragestellungen, schick mir nochmal Fotos.
00:23:27: Ich habe durch ein ganz einfaches Medium für den Kunden ein Video.
00:23:32: eine exzellente Möglichkeit für den Versicherer geschaffen, den Schaden zu regulieren.
00:23:38: Zusätzlich kann natürlich die KI dann aus dem drei-D-Modell Zusatzinformationen ableiten, beispielsweise wie viele Quadratmeter sind dort betroffen.
00:23:47: Das ist ein anderer spannender Anwendungsbereich.
00:23:50: Ich habe natürlich im Marketing ganz viele Möglichkeiten, statt Messebesuche virtuelle Messen zu machen, virtuelle Showrooms, Produkte virtuell auszustellen.
00:24:00: Ich habe die Möglichkeit, Immobilien oder Sehenswürdigkeiten virtuell begehbar zu machen.
00:24:07: Die Bandbreite der Möglichkeiten für etwas wie Obsphera ist so groß wie die reale Welt, weil letztendlich bilden wir die reale Welt digital in drei D ab.
00:24:21: Ich schließe daraus, man kann auch ganze Räume digitalisieren und nicht nur Objekte.
00:24:24: Ja,
00:24:24: absolut, genau.
00:24:26: Oder sogar noch größere Gebäude, Straßenzüge, ganze Szenen letztendlich.
00:24:32: Was ist mit Menschen?
00:24:34: Gute Frage.
00:24:35: Menschen haben die ungute Gewohnheit, sich zu bewegen und mit Bewegung kann unsere Technologie nicht optimal umgehen.
00:24:46: Natürlich kann ich einen Freeze machen, aber ich sag jetzt mal letztendlich möglich, wenn jemand sehr sozusagen ruhig ist, aber ist kein sozusagen primärer Anwendungsbereich für uns aktuell.
00:25:03: Wir haben über XA schon gesprochen und die Möglichkeit ist, in virtuelle Welten einzubauen Objekte, die mit eurer Technologie entstanden sind, aber auch in Desktop-Anwendungen, wie zum Beispiel der Versicherungs-Case, weil dafür braucht man jetzt nur nicht zwingend eine VR-Brille, kann man auch am Desktop machen.
00:25:18: Du hast aber generell, wieso hast du aber noch größer gefasst in unserem Vorgespräch, zu welcher Entwicklung das eigentlich beiträgt, auch eure Technologie, und zwar, dass das Internet zunehmend zu einem D-Web wird, also zu einem dreidimensionalen Web.
00:25:31: das nicht nur aus zweidimensionalen Webseiten besteht.
00:25:35: Wie stellst du dir das vor und wie verändert sich dann auch für uns die User Experience im Internet?
00:25:40: Ja,
00:25:41: also sozusagen die unterliegende Vision ist, dass wir glauben, dass alles was digital ist, mehr und mehr oder nicht alles, aber vieles, das heute digital ist und morgen auch digital ist, dass wir das von der zwei D in der drei D Experience überführen.
00:25:59: Es ist ja eigentlich gar nicht einzusehen, warum ich in einem E-Commerce Shop Produkte, die ja dreidimensional sind, als zweidimensionales Bild mir anschaue.
00:26:08: Es ist auch unklar, warum ich eine Museums-Website letztendlich als flache Bilder mir anschauen muss.
00:26:15: Warum kann ich mich nicht virtuell in dieses Museum hineinbegeben?
00:26:19: Viele Dinge, die ich digital erlebe... Und wo es nicht darum geht, eine Information zu suchen.
00:26:27: Also es geht jetzt nicht um Recherche-Information.
00:26:31: Da können wir diskutieren, inwiefern da Webseiten in Zukunft überhaupt noch relevant sind, weil die KI letztendlich mir die Information direkt liefert, ohne dass ich auf die Ursprungs-Webseiten letztendlich gehe mit allen Implikationen und mit allen Diskussionen, die damit zusammenhängen mit Urheberrecht und Medien und so weiter.
00:26:53: Aber das ist ja nicht unser Thema jetzt hier.
00:26:55: Das Spannende wird ja dann sein oder andersrum.
00:26:59: Der User geht auf die Ursprungs-Website, wenn er dort was erleben kann, das ihm die KI nicht zusammenfassen kann.
00:27:05: Und erleben heißt eben mehr als Information zu verbreiten.
00:27:09: Das heißt, dort kann ich Dinge haptisch oder quasi haptisch digital erleben.
00:27:16: Und ich glaube fest daran, dass Webseiten mehr und mehr zu digitalen Räumen werden, dass ich mich dreidimensional in diesen digitalen Räumen bewegen kann, dass ich die Objekte, Produkte dort dreidimensional mehr anschauen kann, interaktiv und dass ich dort auch mit Avatarn, die KI trainiert sind, mich unterhalten kann.
00:27:39: Im Prinzip das, was ich heute in der realen Welt habe.
00:27:43: Ich gehe in Räume.
00:27:45: Schauen wir Objekte in drei Diaren.
00:27:46: Ich unterhalte mich mit Menschen.
00:27:48: Das kann ich jetzt eigentlich heute schon digital abbilden.
00:27:53: Und ich glaube, dass in dieser Transition sind wir gerade.
00:27:58: Und ich habe die Entwicklung von Web One Null, Web Two Null, Web Three Null eingangs besprochen.
00:28:04: Das ist das, was ich sagen würde.
00:28:06: Das ist für mich das Web Four Null.
00:28:09: Und das Web Four Null ist ein Three D Web und ein Agentic Web.
00:28:15: Und da, glaube ich, sind wir auf einem sehr, sehr guten Weg.
00:28:18: Und wenn das begleitet wird, wird durch immer besser XA Hardware, wer die Experience wahrscheinlich sogar noch besser, weil du dann nicht natürlich noch natürlicher bewegen kannst.
00:28:26: Auch Brillen haben ja auch Motion, Tracking, haben Mikrofone, auch wenn du durch diese Austausche mit Agenten, denen du möglicherweise in dem virtuellen Räumen begegnest, ist ja dann auch natürlich jetzt.
00:28:38: Das könnte gleichzeitig auch die Adaption von XA Hardware vielleicht auch hochtreiben, wenn man auch wirklich im Web einfach Angebote hat, die man damit auch noch besser nutzen kann als nur im Screen, oder?
00:28:49: Absolut.
00:28:49: Heute ist ja XR eigentlich so ein Spezialthema.
00:28:55: Ich schaue mir ganz spezielle Experiences an auf einer ganz speziellen Hardware.
00:29:01: Und solange es ein Spezialthema ist, wird es wahrscheinlich eher schwer aus der Nische herauskommen.
00:29:08: Der Durchbruch ist dann, wenn es ein generellistische ... Experiences.
00:29:12: Wenn es ganz normal ist, ich bin Brillenträger, wir sind ja nicht weiter von entfernt, dass ich mit meiner ganz normalen Brille auch Virtual Reality Experiences haben kann.
00:29:23: Und das ist, glaube ich, der Riesenhebel.
00:29:27: Und dann möchte ich aber eben nicht nur Spezialentwendungen mehr anschauen in drei D, sondern ich möchte alles, was ich digital anschaue, in drei D erleben.
00:29:39: Und das wird dann letztendlich auch der Treiber für das drei D Web.
00:29:44: Schauen wir zum Schluss noch mal darauf, wie es mit eurem Startup weitergeht, eure Firma.
00:29:48: Was glaubst du, könnt ihr technisch noch drauflegen in den nächsten ein, zwei, drei Jahren?
00:29:52: Und was ist so die Ambition, wo ihr auch als Unternehmen auch wirtschaftlich hinkommen wollt?
00:29:57: Technisch wollen wir auf jeden Fall die Interaktivität der Objekte erzeugen.
00:30:04: Dafür brauchen wir geometrische... und physikalische Eigenschaften, so dass Licht, so das Schwerkraft, so das Bewegung auf das Objekt, das wir aufnehmen oder das wir bereitstellen, letztendlich wirkt.
00:30:20: Das sind wir auf einem guten Weg.
00:30:21: Wir wissen, wie es geht.
00:30:23: Das ist jetzt keine sozusagen ein Tun.
00:30:27: Das ist nicht eine Frage, ob wir das machen können, sondern es ist nur ein Anführungszeichen.
00:30:34: Ich sag immer so nett, das ist ein Implementation Issue.
00:30:37: Ich weiß schon, das ist alles nicht trivial, aber als Nicht-Techniker sagt man das manchmal so ganz gern.
00:30:44: Insofern, das wird der nächste große Schritt werden.
00:30:47: Ökonomisch oder unternehmerisch möchten wir die führende Content Engine für drei D werden, für Unternehmen, für kommerzielle Anbieter.
00:31:01: Das, was Content-Management-Systeme für Webseiten, für Videos, Fotos und Texte sind, da wollen wir im Prinzip mit Obsfera die drei D-Engine werden, um drei D-Web-Erlebnisse letztendlich erzeugen zu können.
00:31:21: Kostengünstig, schnell und vor allem einfach aus Fotos oder Videos.
00:31:27: Wichtig!
00:31:28: Uns geht es immer um authentische Eins-zu-Eins-Abbildungen.
00:31:31: Ich kann, wie gesagt, heute einer KI sagen, hier hast du ein Foto und mach daraus ein D-Modell.
00:31:38: Und das funktioniert auch, aber das ist keine authentische Abbildung.
00:31:43: Da werden immer aus dem Weltwissen der KI Halluzinationen, Interpretationen mit integriert werden.
00:31:53: Uns geht es immer um eine Eins-zu-Eins, eine fotorealistische Abbildung.
00:31:57: realer Objekte und Räume.
00:32:00: Das schade im KI-Zeitalter, wo wir mit synthetischem Content überflutet werden, sicherlich nicht.
00:32:06: Albert, herzlichen Dank für diese Einblicke.
00:32:08: Ja, vielen, vielen Dank.
00:32:09: Spannendes Gespräch.
00:32:10: Danke für die Fragen.
00:32:19: Und jetzt auch der Abspann.
00:32:58: Dieser Podcast ist möglich durch die Förderung des bayerischen Staatsministeriums für Digitales.
00:33:02: Vielen Dank dafür und bis zum nächsten Mal.
Neuer Kommentar