Weihnachtsverkäufe! Jeder kann 30 % RABATT auf Mocap-Anzüge und Mocap-Handschuhe sowie KOSTENLOSEN Versand weltweit genießen.

Was Sie über Virtual Reality im Jahr 2023 wissen müssen

Neue Technologien sind in VR-Headsets eingezogen und die Terminologie hat sich verbreitet, als ob jeder bereits wüsste, was es ist. Hier sind die meisten Begriffe, die Sie hören, und ihre Bedeutung.
Gerüchten zufolge verfügt Apple VR über ein 4K-Display für jedes Auge, leistungsstarke Prozessoren der M-Serie und umfangreiche Benutzerverfolgung. Die erste Version kann bis zu 2.000 US-Dollar kosten.
Die folgenden Begriffe werden üblicherweise auf dem Kopfhörermarkt verwendet und werden zumindest teilweise verwendet, um zukünftige Apple-Kopfhörerfunktionen zu beschreiben. Diese Begriffe sind recht primitiv, sprechen aber auf den ersten Blick nicht für sich.
Augmented Reality oder AR bezieht sich auf Software-Overlays, die von der realen Welt getrennt sind. Mit Produkten wie Nintendo 3DS, PS Vita und Google Glass erleben Verbraucher erstmals Augmented Reality.
Apple arbeitet hart daran, Augmented Reality zu einem integralen Bestandteil seines Betriebssystems zu machen. Meistens geht es jedoch nicht über ein lustiges Party-Gimmick hinaus.
Heute können Benutzer Augmented-Reality-Technologie auf ihrem iPhone oder iPad verwenden, um verschiedene Spiele oder Kunstinstallationen zu erleben. Apple hat sogar einen AR-Routenmodus zu Apple Maps hinzugefügt, aber er ist begrenzt und erfordert, dass Benutzer ihr iPhone in die Luft halten, um Informationen anzuzeigen.
Augmented Reality unterscheidet sich von Mixed Reality, die Informationen aus der realen Welt verwendet, um ein 3D-Overlay zu erstellen. AR ist passiver, was bedeutet, dass es eher wie ein Heads-up-Spiel als wie ein vollständig gerendertes Videospiel aussieht.
Beispielsweise verwendet Pokemon Go LiDAR-Geräte, um eine flache Oberfläche zu finden und Pokemon darauf zu platzieren, um damit zu interagieren. Dies ändert nichts an der Art der Umgebung, die durch den Monitor gesehen wird – das Programm fügt einfach die Kreatur hinzu, unabhängig davon, was sie umgibt.
Apple wird Augmented Reality voraussichtlich in begrenztem Umfang in seinem ersten Virtual-Reality-Headset einsetzen. Dies kann dazu führen, dass einige reale Bilder übersprungen werden, um den Benutzer durch die Anpassung zu führen, anstatt ein vollständiges AR-Erlebnis zu bieten.
Eye Tracking nutzt die präzise Augenbewegung des Benutzers, um einen Avatar zu animieren oder Aktionen zu steuern. Dies unterscheidet sich vom narbigen Rendern oder Sichtfeld.
Beispielsweise kann ein VR-Headset mit Eye-Tracking-Funktion verwendet werden, um die Augen eines Avatars in einem virtuellen Konferenzraum zu animieren. Es kann die Emotionen oder die Blickrichtung des Benutzers realistischer anzeigen.
Es ist auch nützlich, um zu wissen, wann der Benutzer versucht, aus seiner Sichtlinie zu spähen, ohne den Kopf zu drehen. Das VR-Erlebnis kann angepasst werden, um mit minimaler Benutzerinteraktion einen Bereich anzuzeigen oder durch Menüs zu navigieren.
Das Sichtfeld ist der Bereich, der aufgrund des verfügbaren Platzes auf dem Bildschirm für die Augen des Benutzers sichtbar ist. VR-Headsets haben in der Regel ein sehr weites Sichtfeld, sodass der Benutzer das Gefühl hat, „innerhalb“ der Umgebung zu sein, anstatt auf den Bildschirm zu schauen.
Da sich VR-Bildschirme so nah an den Augen des Benutzers befinden, nehmen sie das gesamte Sichtfeld ein. Sie sind jedoch immer noch physische Objekte, die sich nicht bewegen, sodass Benutzer die Ränder des VR-Bildschirms sehen können, wenn sie nach ihnen suchen.
Normalerweise verwenden Benutzer nur einen kleinen Bereich des Bildschirms vor sich und zeichnen weniger Details an den Rändern.
Foveated Rendering ermöglicht es VR-Headsets, den gerenderten Inhalt basierend auf dem Blick des Benutzers zu steuern. Dies unterscheidet sich vom Eye-Tracking, da die Informationen verwendet werden, um das Rendern der Umgebung und nicht das Rendern des Avatars zu steuern.
Anstatt die Szene über den gesamten VR-Bildschirm pixelgenau zu rendern, sorgt das foveale Rendering dafür, dass nur der Bereich vor den Augen vollständig gerendert wird, um Rechenleistung zu sparen.
Fortgeschrittene Algorithmen bestimmen, wo der Benutzer am wahrscheinlichsten als nächstes suchen wird, um ein fortgeschritteneres Rendering für andere Bereiche vorzubereiten. Dies sollte ein reibungsloses Erlebnis gewährleisten, obwohl dies stark von der Rechenleistung des Headsets abhängt.
Die Hand- und Körperverfolgung ist selbsterklärend, obwohl die Implementierung je nach Headset unterschiedlich ist. Frühe VR-Headsets stützten sich auf farbige LEDs oder mehrere Kameras im Raum, um die Bewegungen des Benutzers zu verfolgen. Dies hat jedoch dazu geführt, dass Sensoren direkt in den Kopfhörern platziert wurden.
Es wird erwartet, dass das Apple VR-Headset unabhängig von anderen Produkten funktioniert, sodass es in der Lage sein wird, die Bewegungen des Benutzers zu verfolgen, ohne dass eine fortschrittliche externe Kamera erforderlich ist. Stattdessen kann das Headset den Benutzer durch eine Kamera oder andere Sensoren wie LiDAR sehen.
Gyroskope können auch verwendet werden, um die Position des Kopfes des Benutzers zu verfolgen, und nach außen gerichtetes LiDAR kann den unmittelbaren Bereich eines Raums abbilden, um Kollisionen mit Objekten zu vermeiden.
Controller sind auch nützlich, um die Hände des Benutzers im Auge zu behalten. Gerüchte darüber, ob Apple VR-Controller entwickeln wird, sind unklar. Das Unternehmen ist wahrscheinlich zuversichtlich, dass sein Headset Hände ohne sie verfolgen kann.
Haptisches Feedback bezieht sich auf die Fähigkeit eines Geräts, durch physische Reaktionen auf Softwareinteraktionen zu reagieren. Denken Sie im Grunde an einen Vibrationsmotor in einem Controller, der Ihnen mitteilt, wenn Ihr spielbarer Charakter beschädigt ist.
Apple verwendet haptisches Feedback im iPhone, um Tastendrücke oder andere Funktionen zu simulieren. Bei korrekter Implementierung nehmen Benutzer haptisches Feedback als Teil der Interaktion wahr, assoziieren es jedoch nicht mit dem Vibrationsmotor.
VR-Headsets können haptisches Feedback verwenden, um Benutzer auf bevorstehende Objektkollisionen aufmerksam zu machen, oder Software kann es verwenden, um Teile eines Spiels zu simulieren. Beispielsweise kann haptisches Feedback den Benutzer wissen lassen, dass sich etwas hinter ihm befindet.
Haptik ist auch in Virtual-Reality-Controllern nützlich. Der Controller kann vibrieren, um anzuzeigen, dass sein Spielschwert mit einem Objekt kollidiert ist, oder er kann einen Menüpunkt unter Verwendung eines virtuellen Zeigers hervorheben.
LiDAR (Light Direction and Ranging) ist ein Sensor, der verwendet wird, um eine 3D-Darstellung der physischen Umgebung für Software zu erstellen. Auf einem iPhone oder iPad Pro wird der LiDAR-Sensor häufig verwendet, um schnell flache Oberflächen für Augmented Reality zu finden.
In einem Virtual-Reality-Headset kann LiDAR verwendet werden, um einen Raum abzubilden, damit die Software weiß, wo sich Objekte befinden. Diese Informationen können verwendet werden, um Benutzern dabei zu helfen, Kollisionen bei der Verwendung des Headsets zu vermeiden.
Fortgeschrittenere LiDAR-Anwendungen können Echtzeitinformationen bereitstellen und ermöglichen daher Mixed-Reality-Fähigkeiten. Alternativ können Sensoren verwendet werden, um die Hände oder den Körper des Benutzers zu verfolgen, während sie sich bewegen.
Mixed Reality ist eine fortschrittlichere Technologie, die die reale Welt mit Software in einem Virtual-Reality-Headset kombiniert. Die Benutzer befinden sich immer noch in einer vollständig geschlossenen virtuellen Welt, aber Objekte der realen Welt werden in Echtzeit durch virtuelle Objekte dargestellt.
Wenn Augmented Reality nur Software ist, die die reale Welt überlagert, dann ist Mixed Reality Software, die die reale Welt wahrnimmt. Mixed Reality sieht beispielsweise das Motorrad, das Sie reparieren, und bestimmt in Echtzeit genau, welches Teil Sie anpassen, während Augmented Reality einfach eine Reihe von Schritten überlagert.
Dies unterscheidet sich auch von Virtual Reality, da das VR-Erlebnis absolut keine Kenntnis von der Außenwelt hat. Sie befinden sich in einer vorgerenderten VR-Welt und können beim Spielen die Welt um sich herum nicht sehen.
Mixed Reality benötigt mehr Rechenleistung als Augmented oder Virtual Reality, da beide Technologien in Echtzeit genutzt werden. Stellen Sie sich vor, Sie verwandeln Ihr Haus in der virtuellen Realität in einen Dschungel, aber jedes Möbelstück in der Simulation wird durch einen Baum oder einen Busch repräsentiert. Die Spitze der AR- und VR-Technologien.
Spatial Audio ist eine Apple-Markenimplementierung von direktionalem Audio, das die Schallquelle, Entfernung und Richtung im 3D-Raum berücksichtigt. Auf diese Weise klingen Musik oder Medien, die Spatial Audio verwenden, so, als kämen sie von überall her, nicht nur vor Ihnen.
Apple verwendet vorhandene Dolby-Audioformate, um Sound in 3D nachzubilden. Spatial Audio unterscheidet sich von Standard-Dolby-Atmos-Soundtracks, zum Beispiel weil Apple anders mit Dateien umgeht. Es kann das Gyroskop des Geräts verwenden, um es dem Benutzer zu ermöglichen, mit Head-Tracking im 3D-Klangraum zu „wandern“.
Räumliches Audio kann in der virtuellen Realität eine Schlüsselrolle spielen. Aktuelle Apple-Kopfhörer wie die AirPods Pro 2 und AirPods Max können dieses Format nutzen, aber es ist nicht klar, wie Apple mit VR-Audio umgehen wird, wenn Benutzer keine AirPods haben.
Virtual Reality oder VR ist ein vollständig gekapseltes Softwareerlebnis, das die reale Welt nicht berücksichtigt und verwendet wird, ohne sie zu sehen. Das Headset blockiert die Sicht des Benutzers vollständig, während die Software auf einem Monitor wenige Zentimeter von den Augen des Benutzers entfernt angezeigt wird.
Die Software erscheint in einem vorgerenderten Zustand mit nur einer vagen Vorstellung vom Standort des Benutzers. Die Sensoren am Headset können helfen, den Benutzer auf mögliche Kollisionen mit Objekten in der realen Welt aufmerksam zu machen, aber dies beeinträchtigt das VR-Erlebnis nicht.
Die virtuelle Realität unterscheidet sich von der erweiterten Realität dadurch, dass sie die Sicht des Benutzers vollständig übernimmt und keine Informationen der realen Welt überlagert. Wenn das Headset unter Berücksichtigung der umgebenden Objekte ein Software-Rendering der realen Welt erstellen kann, wird Virtual Reality zur Mixed Reality.
Gerüchten zufolge arbeitet Apple an einem Betriebssystem für Augmented und Virtual Reality. Es wird in seinem ersten VR-Headset verwendet und heißt RealityOS oder xrOS.
Das Betriebssystem kann Aspekte anderer Apple-Software übernehmen, sodass Benutzer sofort wissen, wie sie mit der Software und den Menüs interagieren. Apple drängt Entwickler dazu, Augmented Reality zu entwickeln, sodass die Schritte in Richtung Virtual Reality möglicherweise klein sind.
Während es in Apples iOS immer noch Hinweise auf RealityOS gibt, wird der endgültige Name voraussichtlich xrOS sein, was für Augmented Reality Operating System steht. Ein einziges Betriebssystem für AR und VR könnte die Lücke zwischen Apple VR-Headsets und künftigen AR-Brillen namens „Apple Glass“ schließen.
Die Dateikomprimierung auf dem Mac gibt es schon fast so lange wie die Produktlinie selbst. Hier sind unsere besten Optionen zum Komprimieren von Dateien auf die kleinstmögliche Größe unter macOS und iOS.
Sie bevorzugen also Apple Maps, aber alle anderen verwenden Google Maps. Es gibt jedoch Möglichkeiten, Google Maps-Links in Apple Maps zu öffnen – so geht's.
Ihr MacBook Pro ist ein Arbeitstier für den täglichen Gebrauch, daher ist es sinnvoll, es in einer Schutztasche zu verpacken, die zu Ihrem Lebensstil passt. Hier sind die besten Laptoptaschen, auf die Sie achten sollten, egal ob Sie in einer überfüllten U-Bahn sind oder draußen spazieren gehen.
Der Mac Pro kann weiterhin wie ein Mac auf Apple Silicon umgestellt werden. Der leistungsstarke M2 Pro Mac mini ist da und kann es mit Towern aufnehmen.
Apple hat dem 14″ MacBook Pro leistungsstarke neue M2 Pro und M2 Max Chips hinzugefügt. So vergleicht es sich mit dem 13-Zoll MacBook Pro 2022 mit M2.
Apple hat dem 14-Zoll- und 16-Zoll-MacBook Pro leistungsstarke neue M2 Pro- und M2 Max-Chips hinzugefügt. So vergleichen sie sich mit den Modellen M1 Max und M1 Pro.
Der M2 Pro Mac mini schließt die Lücke zwischen Einsteiger- und High-End-Modellen. So vergleicht es sich mit dem Referenz-Mac Studio.
Am 17. Januar hat Apple den Mac mini mit dem M2 Apple Silicon Prozessor und anderen Funktionen aktualisiert. So schneiden die neuen Modelle M2 und M2 Pro im Vergleich zum 2020 M1 Mac mini ab.


Postzeit: 30. Januar 2023