VR-Experte Frank Vitz

"In fünf Jahren sehen wir echte Hologramme"

   Artikel anhören
Frank Vitz
© Crytek
Frank Vitz
Visuelle Effekte sind sein Metier: Frank Vitz arbeitet seit den 80er Jahren in der Unterhaltungsbranche und hat unter anderem bei den digitalen Effekten des Filmklassikers "Tron" (1982) mitgewirkt. Heute beschäftigt er sich als Creative Director der Cryengine verstärkt mit Virtual Reality. t3n hat mit ihm über die wichtigsten Aspekte der VR-Entwicklung und die Zukunft virtueller Welten gesprochen.

Frank Vitz ist ein Veteran der Unterhaltungsbranche. Neben "Tron" hat er in seiner Karriere unter anderem an den visuellen Effekten bei Filmen wie X-Men und Stargate sowie an Videospielen wie der beliebten Battlefield-Reihe mitgewirkt. In seiner Laufbahn hat er sich immer auch mit Virtual Reality beschäftigt, unter anderem hat er etwa für Universal Studios die stereoskopische 3D-Attraktionen "Adventures of Spiderman" kreiert. Seit 2015 ist er als Creative Director der Cryengine beim hochdekorierten Entwicklerstudio Crytek tätig. Die Frankfurter, die vor allem durch das PC-Spiel "Crysis" (2006) bekannt wurden, haben sich früh mit der Entwicklung von Virtual-Reality-Games beschäftigt. Im Sommer haben sie das Kletterspiel "The Climb" für die Oculus Rift veröffentlicht, im November folgte der Titel "Robinson: The Journey" für Playstation VR. t3n traf Frank auf der VR-Konferenz "Digility" in Köln.


Frank, du hast beim ersten Tron-Film 1982 bereits an den Special Effects mitgewirkt. Hast du geglaubt, dass es über 30 Jahre dauern würde, bis wir den heutigen Stand der VR-Technologie erreichen? Nein, ehrlich gesagt habe ich geglaubt, dass es deutlich schneller passieren würde – schließlich hat "Tron" uns eine von Computer generierte Welt, in die Menschen eintauchen können, schon vor Augen geführt. Das Lustige ist, dass wir bereits damals wussten, dass die Effekte noch recht primitiv waren. Es war uns klar, dass das alles nur der Anfang war, und wir haben uns damals vorgestellt, was wir tolles in fünf Jahren machen könnten. Es hat nun deutlicher länger gedauert, um ausgereifte VR-Technologie zu erreichen, aber diese digital erzeugten visuellen Effekte von damals waren quasi der erste Schritt, die uns dann zu Real-Time-Engines für Videospiele führten und schließlich zu VR, wie wir sie heute kennen.

Was ist denn in den 90ern passiert, als der Virtual-Reality-Hype so groß war? Warum hat sich VR damals nicht durchgesetzt? Mit den digital erzeugten visuellen Effekten, haben wir damals zwar die Aufmerksamkeit des Publikums erlangt. Und es gab auch spannende Technologien, die allerdings sehr teuer waren. Die beste Hardware hatte damals das Militär – und die war unerschwinglich. Und dann kam der Virtual Boy von Nintendo und Systeme für Arcadehallen. Ich selbst habe mit der vorhandenen Technologie – kleine Headsets mit einer Auflösung von 640 mal 480 Pixel, die 15 Bilder pro Sekunde erreichten – an Test-Visualisierungen gearbeitet. Dafür funktionierte die Technologie, aber sie konnte bei weitem nicht das abbilden, was in den Köpfen der Menschen an Vorstellungskraft schlummerte. Das waren die Hauptgründe: zu teuer, zu sperrig und technisch zu schwach. Erst die aufkommenden Durchbrüche im Bereich mobiler Technologien in den 2000ern sorgte für einen erneuten Aufschwung. Der Aufstieg von Mobile war also der Schlüsselfaktor in der Entwicklung der heutigen VR-Technologie? Absolut. Es ist interessant, weil ich Anfang der 90er und Anfang der 2000er ein wenig verächtlich auf mobile Technologie geschaut habe. Ich dachte, dass Mobile einfach nicht genug Rechenkraft zur Verfügung stellen könnte, um technisch qualitativ hochwertigen Content darzustellen. Ich wollte an digitalen Effekten mit Wow-Effekt auf großen Bildschirmen arbeiten und war schon immer Fan von Fotorealismus – auch heute übrigens noch. Erst als die Auflösung der Displays stetig anstieg, wurde ich langsam aufmerksam. Es wurde mit Smartphones nicht nur möglich, auch technisch höherwertigen Content darzustellen – es war vor allem auch möglich, VR-Headsets zu entwickeln, die für die breite Masse bezahlbar sind.

Sprechen wir über Virtual-Reality-Entwicklung. Was sind die wichtigsten Faktoren, die Entwickler berücksichtigen sollten, wenn sie VR-Inhalte produzieren? Das sind unzählig viele. Die Bildwiederholungsrate sollte möglichst bei 90 Hertz liegen, geringe Latenz, möglichst exaktes Head-Tracking und eine hohe Auflösung. Das ist die Basis. Und im zweiten Schritt geht es dann darum, wie du dich in den virtuell erzeugten Welten bewegst. Denn wenn der Körper des Nutzers etwas anderes vermittelt als das, was du siehst, dann wird die Immersion zerstört und es ist sehr wahrscheinlich, dass Übelkeit auftritt – Stichwort Simulatorkrankheit. Wir haben bei Crytek an ein paar Lösungen für dieses Problem gearbeitet.

Kannst du Beispiele nennen? Ja, unsere beiden Eigenentwicklungen "The Climb" und "Robinson: The Journey" profitieren beide von Entwicklung- und Forschungsarbeiten bei Crytek. In "The Climb" beispielsweise, klettert der Spieler direkt am Felsen und wir nutzen die Felswand als eine Art "Cockpit" oder Referenzrahmen – etwas, das auch viele andere VR-Titel tun, um den Träger des Headsets einen festen Bezugspunkt zu geben. Der Körper des Spielers ist dann Teil dieses Referenzrahmens und die virtuelle Welt, die sich dort draußen bewegt, ist dann gewisserweise von dem Spieler abgetrennt. In "The Climb" sieht der Spieler deshalb immer die Felswand. Aber wie sieht es mit Bewegungen ohne einen solchen Referenzrahmen aus? Was gibt es da für Möglichkeiten? In Robinson: The Journey bewegt sich der Spieler langsam durch die Spielwelt. Es ist kein Firstperson-Shooter. Du erkundest und löst Puzzles. Zudem nutzen wir sogenannte „jump turns“, das heißt, wenn der Spieler die Kameraausrichtung mit dem linken Analogstick ändern will, springt die Kamera 45 Grad weiter, denn das Umsehen soll ja primär über das Head-Tracking ablaufen. Wir gestalten die virtuelle Welt dann eben so, dass die Fortbewegung in ihr nicht viele dieser "jump turns" nötig macht. Was wir nicht einsetzen, sind Bewegungen per Teleport.

Das heißt, dass der Nutzer sich nicht per Pointer irgendwo im virtuellen Raum hin teleportieren kann – was sich bis heute aber quasi zum Standard der Fortbewegung in VR entwickelt hat. Glaubt ihr nicht an die Zukunft des Teleportieren in Virtual Reality? Als Entwickler kann man Teleportation schon einsetzen, wenn es in der virtuellen Welt Sinn ergibt. Wenn er eine VR-Erfahrung entwickelt, in der der Nutzer beispielsweise ein Raumfahrer ist, dann ergibt das durchaus Sinn, dass dieser sich von Ort zu Ort teleportiert. Aber ich glaube nicht, dass Teleportation die generelle Lösung für Fortbewegung in Virtual Reality ist. Wir sollten einen anderen Weg finden.

Hast du konkrete Ideen, wie man diesen anderen Weg beschreiten kann? Ich habe interessante Ansätze auf der HTC Vive gesehen. Das Gehirn lässt sich in Sachen Bewegungswahrnehmung selbst in kleineren Räumen ja durchaus reinlegen. So ist es etwa möglich, ganz ohne "jump turns", nur mit der natürlichen Bewegung des Körpers, durch eine graduelle Biegung der Wegstrecke den Nutzer eines VR-Headsets im begrenzten Raum zu halten. So glaubt er, dass er immer geradeaus geht, aber in Wirklichkeit läuft er eine leichte Kurve und bleibt so innerhalb des realen Raums. Das fällt dem Träger des VR-Headsets in der virtuellen Realität aber nicht auf.

Wie wichtig ist die Interaktion mit der virtuellen Welt für die Immersion in VR? Sehr wichtig – wobei man die Art der VR-Erfahrung berücksichtigen muss. Es gibt ja ein ganzes Spektrum: 360 Grad, stereoskopisches 360 Grad, Storys, die linear ablaufen, Storys, die von den Reaktionen des Nutzers beeinflusst werden, bis hin zu einer super immersiven Open-World-VR. In jede dieser "Stufen" steigt der Interaktionsgrad mit der virtuellen Welt. Generell ist Interaktion also eine Design-Entscheidung des Entwicklers.

Kannst du das anhand eines Beispiels ein wenig genauer erklären? In Sky Harbour – ein kurzer VR-Film, der Teil unseres VR-Benchmarks für PCs ist – ist es beispielsweise so, dass wenn der Betrachter sich in einer Szene zu bestimmten Robotern umdreht, sehen diese ihn an und winken ihm zu. Das ändert nicht den Ablauf der Story, aber die Reaktion auf etwas, das der Betrachter tut, ist eine minimale Form der Interaktion, die den Grad der Immersion erhöht. Für die ultimative Immersion in VR ist dann ein hoher Interaktionsgrad nötig – davon bin ich überzeugt. Du wirst dich frei bewegen können, du kannst Dinge anfassen, die Welt um dich herum spüren. Wenn du etwas kaputt machst, liegen Trümmer auf dem Boden und du kannst komplett mit ihnen interagieren.

Fünf Jahre in die Zukunft geschaut: Was werden wir im Bereich Virtual Reality an technischer Entwicklung erleben? In fünf Jahren wird die grafische Rechenkraft vermutlich drei bis viermal so hoch sein wie heute. Wir werden Displays mit höherer Auflösung, höheren Framerates, vielleicht gebogene Displays in den Headsets sehen – und echte Hologramme. Was wir momentan in VR ja erleben, ist stereoskopisches 3D. Es sind keine Hologramme im ursprünglichen Sinne. Hologramme bestehen ja aus echten Lichtfeldern, haben eine Tiefendimension und sind räumlich generell nochmal auf einem anderen Level.

Ist denn Virtual Reality nur eine Brückentechnologie zu Augmented Reality? Nein, das glaube ich nicht. Es wird sowohl für VR als auch für AR in Zukunft unterschiedliche Einsatzszenarien geben. Virtual Reality, so wie wir sie heute definieren, funktioniert per Headset, das dich als Nutzer von der Außenwelt abschottet. Die Menschen wollen das auch in Zukunft immer noch haben wollen. Und wenn man die aus VR bekannten Technologien mit Augmented Reality verknüpft und es möglich wird, digitale Erweiterungen in die reale Welt zu platzieren und eine Story zu erzählen, die in deiner räumlichen Umgebung spielt, dann ergeben sich nochmal weitere Möglichkeiten. Und im AR-Bereich wird auch viel Geld verdient werden. Für soziale Netzwerke ist das besonders interessant, weil sich hier neue Kommunikationswege abseits des Smartphones auftun, die natürlicher ablaufen – anstatt per Videochat-App auf dem Smartphone mit Freunden oder Familien zu kommunizieren, kann das in Zukunft direkt in der AR-Brille passieren.

Dieser Beitrag erschien zuerst bei t3n.de
© t3n

stats