Car-tech

Blick in die Science-Fiction-Zukunft von PC-Displays

Wie sieht die Zukunft des digitalen Lernens aus?

Wie sieht die Zukunft des digitalen Lernens aus?

Inhaltsverzeichnis:

Anonim

Moores Gesetz kann uns mit Octa-Core-Smartphone-Prozessoren und PCs mit Millionen von Transistoren beliefern, aber nicht alle Technologiebereiche bleiben auf der Strecke zum sprichwörtlichen Metall so begeistert wie die Chip-Technologie. Insbesondere Desktop-Displays - die Portale, durch die wir die Leistung dieser riesigen CPUs erahnen können - bleiben im Leerlauf, während die Technologie im Rest Ihres PCs mit halsbrecherischer Geschwindigkeit vorauseilt.

Sicher, Retina-Level-Displays sehen großartig aus, aber komm schon. Dies ist das 21. Jahrhundert, nicht das Jahr 1. Glücklicherweise verzichten einige zukunftsorientierte Unternehmen auf herkömmliche PC-Flachbildschirme zugunsten innovativer Designs, die eines Tages die Art und Weise, wie wir unsere Computer betrachten, neu definieren könnten. Diese, Leute, sind die PC-Displays der Zukunft - oder zumindest wollen sie das sein.

Oculus Rift

Jede Diskussion über PC-Displays der Zukunft wäre unvollständig, wenn sie Virtual Reality nicht erwähnt, und die Virtual-Reality-Kit, das in letzter Zeit am meisten Bekanntheit erlangte, ist der von Kickstarter unterstützte Oculus Rift. Dieses Headset hat die Aufmerksamkeit von Gaming-Enthusiasten in Massen geweckt. Angetrieben von einem Sensorpaket, das einen Gyrometer, einen Beschleunigungsmesser und ein Magnetometer enthält, nutzt das Oculus Rift die von diesen Komponenten generierten Daten, um Ihre Kopfbewegungen zu überwachen und sie in 3D-Spielwelten nahezu ohne Latenz zu übertragen Erfahrung.

Es ist wirklich großartig, und ein Software-Entwicklungs-Kit wird bald seinen Weg zu Entwicklern finden. Schauen Sie sich unseren eigenen Alex Wawro an und geben Sie dem Oculus Rift einen Wirbel im obigen Video.

Canon Mixed Reality

CanonCanons Mixed Reality Headset.

Ähnlich wie bei der Oculus Rift ist es ein großes, schwarzes Headset, das Sie transportiert In der virtuellen Umgebung zielt das kürzlich angekündigte Mixed-Reality-Gerät auf Industriedesigner und nicht auf Spieler.

Das Headset ist mit einer bulligen Workstation verbunden und verfügt über zwei nach vorn gerichtete Kameras. All diese Hardware ist so konzipiert, dass sie eine Augmented-Reality-Mischung aus Realem und Imaginärem darstellt. Das System kann einfache reale Requisiten in vollständig ausgearbeitete Repräsentationen einer Designer-Kreation verwandeln, wie im Bild unten gezeigt. Einmal eingetaucht, können Sie Objekte in Echtzeit in einem erweiterten Äquivalent von Realraum mit einem genauen Skalenwert manipulieren.

CanonEine einfache Kamera-Stütze (links) verwandelt sich in Canons Mixed Reality in eine ausgewachsene Kamera (rechts).

Cool, nicht wahr? Nun zum Nachteil: Die Mixed Reality von Canon kostet derzeit 125.000 Dollar und weitere 25.000 Dollar an Wartungsgebühren. Das Oculus Rift Dev-Kit für $ 300 wird hingegen aus Standardteilen hergestellt. Aber denken Sie daran, dass die hochpreisige Neuigkeit von heute das verbrauchsgünstige Produkt von morgen ist.

Autostereoskopisches 3D

Die meisten anderen Versuche, Displays nach vorne zu schieben, betreffen nicht nur 3D-Bilder, sondern auch keine möchte diese super-dorkigen Brillen tragen, von denen die aktuelle 3D-Technologie abhängt. Betreten autostereoskopische Technologie, ein Sammelbegriff für brillenfreie 3D.

The VergeThe Verge Joshua Topolsky starrt in autostereoskopische 3D-Display von Microsoft Research.

Es gibt viele Möglichkeiten, diese Technologie zu implementieren, aber die interessantesten autostereoskopischen Displays verwenden eine Technik namens Bewegungsparallaxe, die je nach Position des Kopfes die Ansicht des 3D-Objekts verändert und so ein echtes (wenn auch simuliertes) 3D-Erlebnis schafft.

Microsoft Research arbeitet gerade an einem solchen System Sie können in der Aktion an der 1:55 Markierung dieses Videos durch den Verge sehen. (Warnung: Da die Technologie darauf beruht, Signale direkt an die Augen von Personen zu senden, wird nicht gut gefilmt.) Microsofts Display verfolgt Ihre Augen mit einer Kinect-Kamera und verwendet die Informationen, um zwei separate Bilder gleichzeitig von hinten auf Sie zu projizieren ein LCD-Bildschirm - einer zu Ihrem linken Auge und der andere zu Ihrer Rechten. Die Dual-Bilder bringen Ihr Gehirn dazu, ein 3D-Bild auf dem Bildschirm zu sehen, dessen Tiefe und Position sich Ihrer Position anpasst (wie auch von der Kinect-Kamera verfolgt).

Bereit für etwas wirklich gruselig / genial? Zwei Leute, die auf den gleichen Bildschirm starren, könnten zwei völlig unterschiedliche Bilder anstarren, wenn Microsofts Technologie reift. Leider ist es heute noch in der Kinderphase.

SpaceTop

SpaceTop, ein weiteres Projekt von Microsoft Research, mischt traditionelles 2D-Desktop-Computing mit einer innovativen Schnittstelle, mit der Sie Objekte in drei Dimensionen manipulieren können.

Um dies zu erreichen SpaceTop basiert auf einem transparenten Bildschirm zwischen Ihnen und der Tastatur und dem Touchpad des Systems. Eine Kamera, die auf der Rückseite des Bildschirms eingebaut ist, behält Ihre Hände zur Bewegungssteuerung im Auge, während eine Kamera mit Blick auf den Benutzer die Position Ihres Kopfes verfolgt, um 3D-Bilder in der richtigen Größe und Perspektive auf dem Bildschirm anzuzeigen. Anstatt zu versuchen, mehr zu erklären, werde ich Sie nur auf das obige Video verweisen. Dieses Display muss verstanden werden.

Leonar3do

Wenn das etwas zu esoterisch klingt, überprüfen Sie aus Leonar3do, das seine Erbauer "das erste Desktop-VR-Kit der Welt" nennen. Die Software, gepaart mit einer entscheidenden 3D-Brille und einer einzigartigen 3D-Maus namens The Go Bird, ermöglicht das Betrachten und Manipulieren von Objekten in 3D.

Das obige Video zeigt, wie es ist, Leonard3do zu benutzen eine breite Palette von Märkten einschließlich 3D-Modellierung, Gaming und sogar Bildung. Wir haben einige Zeit mit der Technologie auf der CES verbracht und waren beeindruckt. Unsere Redakteure vor Ort sagten: "Aus unserer Zeit mit der virtuellen Arbeitsmaschine scheint es eine erstaunliche Möglichkeit zu sein, virtuelle 3D-Objekte im realen Raum zu erstellen, zu demonstrieren und zu visualisieren."

Thinking big

de. memory-alpha.orgLarge wird angezeigt. Machen Sie das, Microsoft.

Eine oft zitierte Vorstellung von der Zukunft bringt ein Übergewicht von riesigen Displays mit sich: wandgroße Bestien, die den Monitor, der gerade auf Ihrem Schreibtisch sitzt, in den Schatten stellen. Aber Bildschirme, die so groß sind, laden einzigartige Interface-Probleme ein - besonders, wenn sie mit Touchscreen ausgestattet sind. Wie reagiert ein Mammut-Monitor auf mehrere Benutzer? Was, wenn Sie nicht den oberen Teil des Displays erreichen können? Wird die Schleuder in Angry Birds überhaupt überschaubar? Und so weiter.

Microsoft Research arbeitet bereits hart daran, diese Probleme anzugehen, bevor sie zu weit verbreiteten Problemen werden. Das Projekt "Towards Large-Display Experiences", wie im folgenden Video dargestellt, hat eine solche mögliche Lösung entwickelt, bei der ein Stift für feine Arbeit und Touchscreen-Gesten für grundlegende Steuerelemente verwendet wird, gepaart mit Benutzererkennung, die an allgegenwärtige Smartphones gekoppelt ist. Es ist eine interessante Antwort auf ein potentiell großes (Wortspiel) Problem.

Das Schieben all dieser Pixel ist ein weiteres Problem, aber keine Angst: Microsoft Research arbeitet auch daran. Ein Projekt namens Foveated Rendering zielt darauf ab, die Verarbeitungsanforderungen zu reduzieren, indem die Tatsache ausgenutzt wird, dass das menschliche Auge an seiner Peripherie nicht so viele Details sieht. Grundsätzlich verfolgt das Display Ihre Augen und sorgt dafür, dass der Bereich, den Sie anstarren, in voller Pracht gerendert wird, während die Auflösung in den weiter entfernten Bereichen des Bildschirms angezeigt wird.

Während der Tests konnten Benutzer den Unterschied zwischen a vollwertiges Bild und eines mit fo- viertem Rendering - doch das weniger detaillierte Bild erforderte nur ein Sechstel der Rechenleistung.

Noch größer denken

Wandgroße Displays? Pfffft. Das sind kleine Kartoffeln für das Team hinter LightSpace, ein weiteres Microsoft Research-Projekt, das Monitore, wie wir sie kennen, ausschalten und jedes Objekt in Ihrem Büro in ein potentielles PC-Display verwandeln soll.

Microsoft Research

LightSpace basiert auf einer Serie von Kameras und Projektoren, um "einen hoch interaktiven Raum zu schaffen, in dem jede Oberfläche und sogar der Raum zwischen den Oberflächen vollständig interaktiv ist." Kurz gesagt, die Kameras verfolgen Ihre Bewegungen im Raum und beobachten Ihre Interaktionen mit den vom Setup projizierten Bildern, die auf jede Oberfläche geworfen werden können - Wände, Stühle, Tische, Sie nennen es. Auf einer grundlegenden Ebene ermöglicht die Kameraführung die Bearbeitung der Bilder mit bekannten Multitouch-Gesten, unterstützt aber auch exotischere Befehle wie das Ziehen des Bilds von einem Objekt auf ein anderes oder das "Aufnehmen" des Bildes und die Übergabe zu einer anderen Person.

Es ist schickes Zeug. Sie werden das Video oben unbedingt sehen wollen, wenn Sie nur zu den interessanten Teilen springen möchten. Es ist auch eine komplizierte Sache: LightSpace muss auf den Raum kalibriert werden, in dem es verwendet wird. Im Moment fällt es dem täglichen Gebrauch zum Opfer, aber billige Sensoren wie der Kinect werden leistungsfähiger und können vielleicht einen Raum in 3D kartieren im laufenden Betrieb könnte ein System wie LightSpace abheben.

Talking heads in 3D

Während andere damit beschäftigt sind, die Displays komplett zu revolutionieren, versucht das USC-Institut für Creative Technologies diese langweiligen Videokonferenzen ein wenig zu vereinfachen sein 3D Video Telekonferenzsystem.

Wenn Sie jemals die (Un) Freude daran gehabt haben, eine Videokonferenz zu durchleben, dann wissen Sie, dass diejenigen, die anrufen, die meiste Zeit ihres Meetings in ihren Laptopbildschirm und nicht in der Webcam verbringen selbst, die selbst die extrovertiertesten Alpha-Männer scheinen wie getrennte introvertiert.

USCICT

Nicht mehr! (Oder, genauer gesagt, vielleicht nicht mehr eines Tages!) Die Technologie von USCIC macht Videokonferenzen zu 3D-Sprechköpfen, indem sie ein Echtzeit-Hochgeschwindigkeitsvideo des Lautsprechers auf einen spießpolierten Aluminiumspiegel projiziert, der sich mehr als 15 Mal pro Sekunde dreht. "Effektiv reflektiert der Spiegel 144 einzigartige Ansichten der Szene über ein 180-Grad-Sichtfeld mit einer Winkelsichttrennung von 1,25 Grad", erklärt die Website der Forschungsgruppe.

Auf der Seite des Videokonferenzers wird das 3D-Video-Telekonferenzsystem angezeigt ein Futter der Leute am empfangenden Ende, das am holografischen sich hin- und herbewegenden Kopf klafft. Das System verfolgt die Kopfposition und Blickrichtung des Remote-Videokonferenzgeräts und ermöglicht es dem virtuellen 3D-Kopf, Blickkontakt herzustellen und während eines Meetings von Sprecher zu Sprecher zu wechseln. (Und Sie fanden die Autofokus-Funktion in Google+ Hangouts cool!)

Ist Ihnen das Chatten in Echtzeit nicht wichtig? Das USCICT-Team hat eine ähnliche Technologie verwendet, um 3D-Bilder zu erstellen, die um 360 Grad herumlaufen und beobachtet werden können. Bonuspunkte: Dieses 3D ist autostereoskopisch!

Kurzfristig

AMDDas sind viele Pixel!

Endlich mal ein futuristisches Display-Ziel, das zwar nicht ganz so ambitioniert ist wie der Rest der Einsendungen, aber vielleicht ein etwas realistischer. Ein süsses Multi-Monitor-Setup kann die Art und Weise, wie Sie Daten betrachten, nicht ändern, aber, hey, Pixeldichten sind nur gestiegen, während die Displaypreise im Laufe der Zeit (wenn auch langsam) gefallen sind. Das ist Wert. Und wenn Sie ein sechsköpfiges 5760-mal-2400-Pixel-Rig als Höhepunkt der Exzesse poppen, haben Sie offensichtlich nie einen verwendet.