Mittwoch, 2. Juli 2014

In diesem Blog geht es um Moved Reality. Damit werden Systeme beschrieben, die Sinnesreize aufzeichnen und auf einen Menschen übertragen können. Unser erster Prototyp wurde von mir und einem Studienkollegen, als Bachelorarbeit, an der HTWG Konstanz entwickelt.

Die Moved Reality ist eine Mischung aus Virtual Reality Technologie, Bildverarbeitung, Augmented Reality und einiges an Kreativität. Der Bereich ist in sechs Stufen eingeteilt, die den menschlichen Wahrnehmungsmöglichkeiten entsprechen (Sehen, Hören, Riechen, Schmecken, Fühlen/Tasten, Gleichgewicht).

Der erste Prototyp, Codename: Nummer 5, erreicht Stufe Zwei. Das bedeutet, dass er zwei dieser Möglichkeiten erfüllt hat (Sehen, Hören). Das System besteht aus einem Kamerasystem mit drei Freiheitsgraden, das durch die Kopfbewegungen des Anwenders synchronisiert wird. Der Anwender kann sozusagen seinen Sehsinn temporär auf die Maschine auslagern. Dazu kam ein Oculus Rift (Development Kit 1) zum Einsatz. Das Motorsystem besteht aus drei Dynamixel Motoren.



 Die Software ist als Client/Server-Architektur aufgebaut. Ein leistungsstarker PC fungiert als Server. Hier werden die zwei Webcam Streams entgegengenommen, für die Darstellung auf dem Oculus Rift bearbeitet und zusammen mit dem Audio Frames per WLAN zum Client geschickt. Der Client empfängt die Daten, stellt sie am Oculus Rift dar und sendet seinerseits die Head-Tracking-Daten zurück, mit denen die Position der Kameras, entsprechend zur Kopfbewegung des Anwenders, angepasst werden. Falls Augmented-Reality-Algorithmen eingesetzt werden, sollten diese ebenfalls direkt am Server ausgeführt werden. Der Client wird also nur minimal belastet. Es kann sich um ein Laptop oder ein Tablet handeln, falls eine HDMI Schnittstelle vorhanden ist, oder gar ein Embedded Board.

Keine Kommentare:

Kommentar veröffentlichen