In diesem kurzen Video zeige ich euch die optischen Einstellungsfunktionen. Man kann den Augenabstand, den Bildabstand und die Linsenstellung während der Übertragung auf die eigenen Bedürfnisse anpassen. Mein kleiner Plüsch Tux durfte Modell stehen.
Moved Reality Systeme zeichnen Sinnesreize auf und übertragen diese, in Echtzeit, zum Benutzer. Die Reize sollten auf natürliche Weise wiedergegeben werden. Das einfachste Beispiel ist ein Tonstream auf Kopfhöhren. Hier wird ein System vorgestellt das einen Kamera Livestream auf eine Oculus Rift überträgt und das Kamerasystem mit Head-Tracking-Daten synchron hält.
Dienstag, 29. Juli 2014
Dank ein paar queueing und multithreading Tricks läuft der Stream jetzt mit 15-17 fps. Der Unterschied ist vor allem bei Bewegungen des Kamerasystems deutlich zu sehen, da auch die Latenzzeit der Übertragung selbst noch etwas abgenommen hat. Leider hat sich jetzt ein Fehler eingeschlichen der das Bild ab und zu flackern lässt. Diesen Bug werde ich jetzt noch suchen müssen.
In diesem kurzen Video zeige ich euch die optischen Einstellungsfunktionen. Man kann den Augenabstand, den Bildabstand und die Linsenstellung während der Übertragung auf die eigenen Bedürfnisse anpassen. Mein kleiner Plüsch Tux durfte Modell stehen.
In diesem kurzen Video zeige ich euch die optischen Einstellungsfunktionen. Man kann den Augenabstand, den Bildabstand und die Linsenstellung während der Übertragung auf die eigenen Bedürfnisse anpassen. Mein kleiner Plüsch Tux durfte Modell stehen.
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen