Die Apple AR-Brille: Apple Glass - Bestätigt!

  • Übersetzt mit deepl.com


    https://www.macrumors.com/2020…-sony-oled-microdisplays/



    Anfang dieser Woche berichtete die japanische Publikation Nikkan Kogyo Shimbun, dass Sony Apple mit OLED-Mikrodisplays für seine weit verbreiteten AR/VR-Brillen beliefern wird, wie von Mac Otakara entdeckt wurde. Der Bericht wurde seither vom Analysten der Display-Industrie, Ross Young, bestätigt, der sagte, mehrere Quellen hätten ihn darüber informiert, dass Apple in der Tat plant, Sonys Mikrodisplay-Technologie für sein kopfmontiertes Zubehör zu verwenden.


    arglassesyay.jpg



    Laut FRAMOS, einem Anbieter von eingebetteten Vision-Technologien, handelt es sich bei den OLED-Mikrodisplays von Sony um kleine, hochmoderne Displays mit einer ultraschnellen Ansprechrate, ultrahohem Kontrast, einem breiten Farbraum für eine präzise Farbwiedergabe, hoher Luminanz, geringer Reflexion und anderen Vorteilen, die für die Brille von Apple ideal wären:

    OLED (Organische LED)-Mikrodisplays von SONY® Semiconductor Solutions sind hochmoderne kleine Videodisplays mit schneller Ansprechrate, kontrastreicher Bildtechnologie und präziser Farbwiedergabe. Die sehr dünnen Displays sorgen für eine größere visuelle Wirkung bei Anwendungen in den Bereichen AR/VR/MR, Rundfunk, elektronische Suchgeräte, industrielle Wartung und Medizin. Mit großer Blende und hoher Leuchtdichte, einem breiten Farbspektrum, weniger Reflexion und einem hohen Dynamikbereich arbeiten sie in extremer Geschwindigkeit, ohne Bewegungsunschärfe zu zeigen.

    Die Mikrodisplays von Sony verfügen außerdem über integrierte Treiber für ein dünnes und leichtes Design, und für eine längere Batterielebensdauer sind Energiesparmodi verfügbar.


    sony-oled-microdisplays.jpg


    Young sagte, dass die Brille einen 0,5-Zoll-Bildschirm mit einer Auflösung von 1.280x960 Pixeln verwenden wird, und diese Spezifikationen scheinen mit der ECX337A-Komponente von Sony übereinzustimmen. Laut Sonys Website hat insbesondere dieses Mikrodisplay eine maximale Helligkeit von 1.000 nits, einen ultrahohen Kontrast von 100.000:1 und eine ultraschnelle Reaktionszeit von 0,01 ms oder weniger.


    Der hohe Kontrast, den Sonys Mikrodisplays bieten, lässt eine zusätzliche Informationsebene nahtlos und nicht als Overlay erscheinen. "Diese Informationen werden einfach zum Hintergrund hinzugefügt, um ein 'echtes AR'-Erlebnis zu ermöglichen", so FRAMOS.


    sony-high-contrast-apple-glasses-article.jpg


    Laut Nikkan Kogyo Shimbun plant Apple, seine AR/VR-Brillen im Jahr 2021 auf den Markt zu bringen, doch Analyst Ming-Chi Kuo rechnet mit einer Veröffentlichung frühestens 2022. Young glaubt auch, dass die Brille in der ersten Hälfte des Jahres 2022 eingeführt wird. Eine Zusammenfassung aller bisherigen Gerüchte finden Sie in unserer detaillierten Zusammenfassung über die Apfelbrillen

  • Und vor allem endlich Videos drehen und Bilder knipsen ohne erst lästig das iPhone zu positionieren.

    Da sehe ich ein Datenschutz rechtliches Problem, ähnlich wie damals bei der Google Glass.


    Die Brille an und für sich ist schon eine tolle Idee, auch das die ein Lidar Sensor hat. Bei der Kamera wäre es wieder das Problem mit der Privatsphäre bzw. Recht am eigenen Bild in der Öffentlichkeit. Stell Dir vor Du sitzt im Zug, und der fremde der Dir gegenüber sitzt hat die Brille. Du weist nicht ob er Dich filmt oder ein Foto von Dir knipst. Es gibt Leute die da mit Recht empfindlich reagieren, genauso wie wenn jemand sein Handy so hält das die Kamera auf die Person zeigt auch wenn er nicht filmt.



    Was die Befehlseingabe betrifft, wäre mit Hilfe von Gedanken praktisch (über einen Sensor gemessene Gehirnströme). Es gibt das sogenannte Looxid Link wo man man mit Hilfe von Gedanken über das VR Headset spielen kann. Praktisch wäre doch wenn man der Brille auf die Weise Kommandos geben kann um die Eingabe zu steuern.

  • 'Apple Glass' kann Benutzern helfen, mit Radar und LiDAR bei schwachem Licht besser zu sehen


    https://appleinsider.com/artic…ght-using-radar-and-lidar


    38527-73252-000-lead-Low-Light-xl.jpg


    Mit einer Kombination aus Radar und dem LiDAR, das jetzt im iPad Pro und iPhone 12 Pro vorhanden ist, könnte "Apple Glass" die Umgebung um den Träger herum wahrnehmen, wenn das Licht zu schwach ist, um klar zu sehen.


    Wir haben langsam gelernt, was Apple für den LiDAR-Sensor in Geräten wie dem iPhone 12 Pro plant, der ihn zur Unterstützung des Autofokus verwendet. Diese Fokussierungshilfe ist jedoch besonders in lichtschwachen Umgebungen nützlich - und Apple hat Entwürfe zur Nutzung dieser Fähigkeit entwickelt, um "Apple Glass"-Trägern zu helfen.


    "Head-Mounted Display mit Schwachlichtbetrieb" ist eine neu vorgestellte Patentanmeldung, die mehrere Möglichkeiten beschreibt, die Umgebung um den Träger eines Head-Mounted Displays (HMD) zu erfassen.


    "Menschliche Augen haben bei unterschiedlichen Lichtverhältnissen eine unterschiedliche Empfindlichkeit", beginnt Apple. Anschließend werden viele verschiedene Formen des menschlichen Sehens von photopisch bis mesopisch beschrieben, wobei unterschiedliche Arten oder Mengen von Licht auf verschiedene "Zapfenzellen des Auges" angewiesen sind.


    Das photopische Sehen wird beschrieben als die Funktionsweise des Auges bei "hohen Umgebungslichtmengen ... wie z.B. Tageslicht". Dann weist Apple darauf hin, dass mesopisches oder andere Formen des Sehens im Vergleich schlecht abschneiden.


    "Im Vergleich zum photopischen Sehen können [diese] zu einem Verlust des Farbsehens, zu einer veränderten Empfindlichkeit gegenüber verschiedenen Lichtwellenlängen, zu einer verminderten Sehschärfe und zu mehr Bewegungsunschärfe führen", sagt Apple. "Daher ist eine Person unter schlecht beleuchteten Bedingungen, wie z.B. beim skotopischen Sehen, weniger in der Lage, die Umgebung zu sehen als unter gut beleuchteten Bedingungen.


    Die von Apple vorgeschlagene Lösung verwendet Sensoren in einem HMD, wie z.B. "Apple Glass", die die Umgebung registrieren. Die Ergebnisse werden dann in nicht spezifizierten "grafischen Inhalten" an den Träger zurückgesendet.


    Der Schlüssel zur Erfassung der Umgebung ist die Fähigkeit, Entfernungen zwischen Objekten zu erfassen, die Fähigkeit, die Tiefe zu erkennen. "Der Tiefensensor erfasst die Umgebung und erfasst insbesondere die Tiefe (z.B. den Abstand) zu Objekten der Umgebung", sagt Apple.


    "Der Tiefensensor besteht in der Regel aus einer Beleuchtung und einem Detektor", heißt es weiter. "Die Beleuchtungseinrichtung strahlt elektromagnetische Strahlung (z.B. Infrarotlicht)... in die Umgebung ab. Der Detektor beobachtet die von Objekten in der Umgebung reflektierte elektromagnetische Strahlung.


    Apple achtet darauf, die möglichen Detektoren oder Methoden, die in seiner Patentanmeldung beschrieben werden, nicht einzuschränken, bietet aber "spezifische Beispiele" an. Eines davon ist die Verwendung von Flugzeit und strukturiertem Licht - wobei ein bekanntes Muster in die Umgebung projiziert wird und die Zeit, die benötigt wird, um dieses Muster zu erkennen, Tiefenangaben liefert.


    "In anderen Beispielen kann der Tiefensensor ein Radar-Erfassungs- und Entfernungsmesser (RADAR) oder ein Licht-Erfassungs- und Entfernungsmesser (LIDAR) sein", sagt Apple. "Es ist zu beachten, dass ein oder mehrere Arten von Tiefensensoren verwendet werden können, z.B. mit einem oder mehreren strukturierten Lichtsensoren, einer Laufzeitkamera, einem RADAR-Sensor und/oder einem LIDAR-Sensor.


    Apples HMD könnte auch "Ultraschall-Schallwellen" verwenden, aber unabhängig davon, was vom Headset erzeugt wird, geht es bei der Patentanmeldung um die genaue Messung der Umgebung - und um die Weitergabe dieser Informationen an den Träger.


    "Der Controller des [HMDs] bestimmt den grafischen Inhalt entsprechend der Erfassung der Umgebung mit einem oder mehreren Infrarot- oder Tiefensensoren und mit dem Ultraschallsensor", sagt Apple, "und steuert das Display, um den grafischen Inhalt gleichzeitig mit der Erfassung der Umgebung anzuzeigen.


    Diese Patentanmeldung wird vier Erfindern gutgeschrieben, von denen jeder über frühere Arbeiten verfügt. Dazu gehört Trevor J. Ness, der sich mit AR- und VR-Tools für Face Mapping befasst.


    Dazu gehört auch Fletcher R. Rothkopf, der ein früheres Patent hat, das mit der Bereitstellung von AR- und VR-Headsets für "Apple Car"-Passagiere zu tun hat - ohne sie krank zu machen.


    Das ist ein Thema für alle kopfgetragenen Displays, und neben dieser Patentanmeldung für schwaches Licht hat Apple nun auch ein verwandtes Thema, das mit der Nutzung der Blickverfolgung zur Reduzierung möglicher Desorientierung und folglich der Reisekrankheit zu tun hat.


    Übersetzt mit http://www.DeepL.com/Translator (kostenlose Version)

    "Der Tiefensensor besteht in der Regel aus einer Beleuchtung und einem Detektor", heißt es weiter. "Die Beleuchtungseinrichtung strahlt elektromagnetische Strahlung (z.B. Infrarotlicht)... in die Umgebung ab. Der Detektor beobachtet die von Objekten in der Umgebung reflektierte elektromagnetische Strahlung.


    Apple achtet darauf, die möglichen Detektoren oder Methoden, die in seiner Patentanmeldung beschrieben werden, nicht einzuschränken, bietet aber "spezifische Beispiele" an. Eines davon ist die Verwendung von Flugzeit und strukturiertem Licht - wobei ein bekanntes Muster in die Umgebung projiziert wird und die Zeit, die benötigt wird, um dieses Muster zu erkennen, Tiefenangaben liefert.


    "In anderen Beispielen kann der Tiefensensor ein Radar-Erfassungs- und Entfernungsmesser (RADAR) oder ein Licht-Erfassungs- und Entfernungsmesser (LIDAR) sein", sagt Apple. "Es ist zu beachten, dass ein oder mehrere Arten von Tiefensensoren verwendet werden können, z.B. mit einem oder mehreren strukturierten Lichtsensoren, einer Laufzeitkamera, einem RADAR-Sensor und/oder einem LIDAR-Sensor.


    Apples HMD könnte auch "Ultraschall-Schallwellen" verwenden, aber unabhängig davon, was vom Headset erzeugt wird, geht es bei der Patentanmeldung um die genaue Messung der Umgebung - und um die Weitergabe dieser Informationen an den Träger.


    "Der Controller des [HMDs] bestimmt den grafischen Inhalt entsprechend der Erfassung der Umgebung mit einem oder mehreren Infrarot- oder Tiefensensoren und mit dem Ultraschallsensor", sagt Apple, "und steuert das Display, um den grafischen Inhalt gleichzeitig mit der Erfassung der Umgebung anzuzeigen.


    Diese Patentanmeldung wird vier Erfindern gutgeschrieben, von denen jeder über frühere Arbeiten verfügt. Dazu gehört Trevor J. Ness, der sich mit AR- und VR-Tools für Face Mapping befasst.


    Dazu gehört auch Fletcher R. Rothkopf, der ein früheres Patent hat, das mit der Bereitstellung von AR- und VR-Headsets für "Apple Car"-Passagiere zu tun hat - ohne sie krank zu machen.


    Das ist ein Thema für alle kopfgetragenen Displays, und neben dieser Patentanmeldung für schwaches Licht hat Apple nun auch ein verwandtes Thema, das mit der Nutzung der Blickverfolgung zur Reduzierung möglicher Desorientierung und folglich der Reisekrankheit zu tun hat.


    Übersetzt mit http://www.DeepL.com/Translator (kostenlose Version)

    38527-73254-001-HMD-xl.jpg

  • "Der Tiefensensor besteht in der Regel aus einer Beleuchtung und einem Detektor", heißt es weiter. "Die Beleuchtungseinrichtung strahlt elektromagnetische Strahlung (z.B. Infrarotlicht)... in die Umgebung ab. Der Detektor beobachtet die von Objekten in der Umgebung reflektierte elektromagnetische Strahlung.


    Apple achtet darauf, die möglichen Detektoren oder Methoden, die in seiner Patentanmeldung beschrieben werden, nicht einzuschränken, bietet aber "spezifische Beispiele" an. Eines davon ist die Verwendung von Flugzeit und strukturiertem Licht - wobei ein bekanntes Muster in die Umgebung projiziert wird und die Zeit, die benötigt wird, um dieses Muster zu erkennen, Tiefenangaben liefert.


    "In anderen Beispielen kann der Tiefensensor ein Radar-Erfassungs- und Entfernungsmesser (RADAR) oder ein Licht-Erfassungs- und Entfernungsmesser (LIDAR) sein", sagt Apple. "Es ist zu beachten, dass ein oder mehrere Arten von Tiefensensoren verwendet werden können, z.B. mit einem oder mehreren strukturierten Lichtsensoren, einer Laufzeitkamera, einem RADAR-Sensor und/oder einem LIDAR-Sensor.


    Apples HMD könnte auch "Ultraschall-Schallwellen" verwenden, aber unabhängig davon, was vom Headset erzeugt wird, geht es bei der Patentanmeldung um die genaue Messung der Umgebung - und um die Weitergabe dieser Informationen an den Träger.


    "Der Controller des [HMDs] bestimmt den grafischen Inhalt entsprechend der Erfassung der Umgebung mit einem oder mehreren Infrarot- oder Tiefensensoren und mit dem Ultraschallsensor", sagt Apple, "und steuert das Display, um den grafischen Inhalt gleichzeitig mit der Erfassung der Umgebung anzuzeigen.


    Diese Patentanmeldung wird vier Erfindern gutgeschrieben, von denen jeder über frühere Arbeiten verfügt. Dazu gehört Trevor J. Ness, der sich mit AR- und VR-Tools für Face Mapping befasst.


    Dazu gehört auch Fletcher R. Rothkopf, der ein früheres Patent hat, das mit der Bereitstellung von AR- und VR-Headsets für "Apple Car"-Passagiere zu tun hat - ohne sie krank zu machen.


    Das ist ein Thema für alle kopfgetragenen Displays, und neben dieser Patentanmeldung für schwaches Licht hat Apple nun auch ein verwandtes Thema, das mit der Nutzung der Blickverfolgung zur Reduzierung möglicher Desorientierung und folglich der Reisekrankheit zu tun hat.


    "Bildverbesserungsgeräte mit Blickverfolgung" ist eine weitere neu enthüllte Patentanmeldung, die sich diesmal auf die Darstellung von AR-Bildern konzentriert, wenn ein Benutzer den Kopf bewegt.


    "Es kann eine Herausforderung sein, einem Benutzer Mixed-Reality-Inhalte zu präsentieren", erklärt Apple. "Die Präsentation von Mixed-Reality-Bildern für einen Benutzer kann beispielsweise durch Kopf- und Augenbewegungen gestört werden", erklärt Apple.


    "Benutzer können unterschiedliche visuelle Fähigkeiten haben", heißt es weiter. "Wenn keine Vorsicht walten lässt, werden Bilder mit gemischter Realität präsentiert, die Desorientierung oder Reisekrankheit verursachen und die es dem Benutzer erschweren, interessante Objekte zu identifizieren.


    38527-73255-002-Gaze-Tracking-xl.jpg






    Die vorgeschlagene Lösung besteht zum Teil darin, eine Idee zu verwenden, die der LiDAR-Unterstützung in lichtschwachen Umgebungen sehr ähnlich klingt. Ein Headset oder ein anderes Gerät "kann auch Informationen über das reale Bild sammeln, wie z.B. Informationen über Inhalt, Bewegung und andere Bildattribute, indem es das reale Bild analysiert".


    Das ist gekoppelt an das, was das Gerät von den "Sehinformationen eines Benutzers weiß, wie z.B. Sehschärfe, Kontrastempfindlichkeit, Sichtfeld und geometrische Verzerrungen". Zusammen mit allen Präferenzen, die der Benutzer einstellen kann, kann das Mixed-Reality-Bild in einer Weise dargestellt werden, die die Desorientierung minimiert.


    "Ein Beispiel: Ein Teil eines Bildes aus der realen Welt kann für einen Benutzer mit Sehschwäche nur dann vergrößert werden, wenn der Blickpunkt des Benutzers relativ statisch ist, um Effekte der Reisekrankheit zu vermeiden", sagt Apple.


    Diese Patentanmeldung wird vier Erfindern zugeschrieben, darunter Christina G. Gambacorta. Sie war zuvor in einem verwandten Patent aufgeführt, das sich mit der Verwendung der Blickverfolgung in "Apple Glass" befasst, um die Bildqualität mit der Batterielebensdauer in Einklang zu bringen, indem die Auflösung dessen, was ein Träger betrachtet, verändert wird.

  • Ein interessantes Konzeptvideo zur neuen Brille:

    Wer Hilfe braucht, kann mich immer gern fragen. :) - Ich nutze Technik; sowohl von Apple, als auch von anderen Herstellern.

  • Apple Glass hat das Potenzial zu einem One more Thing😝


    nächstes Jahr zur WWDC?




  • Apple forscht an Präzisionssensoren für 'Apple Glass', um das Eintauchen zu verbessern und HomeKit zu steuern


    https://appleinsider.com/artic…immersion-control-homekit


    38856-74170-37644-70771-VR-Oculus-Rift-xl-xl.jpg



    Ein zukünftiges Apple-Mixed-Reality-Headset, wie das gerüchteweise "Apple Glass", könnte Präzisionssensoren nutzen, um ein hochgradig immersives Erlebnis zu bieten und es den Benutzern zu ermöglichen, elektronische Geräte in der Nähe zu steuern.


    Zwei Patente, die Apple am Dienstag erteilt wurden, decken verschiedene Aspekte eines Virtual- oder Mixed-Reality-Headsets oder einer Brille ab. Zusätzlich zu Apples existierender Arbeit an Plattformen wie ARKit, wird angenommen, dass Apple an mindestens einem kopfgetragenen Gerät irgendeiner Art arbeitet, das MR- oder VR-Erfahrungen bieten könnte.



    38856-74174-Apple-AR-Immersion-xl.jpg


    Wie Apple in dem Patent ausführt, besteht das "Ziel des Eintauchens in eine virtuelle Welt darin, den Verstand eines Benutzers davon zu überzeugen, eine nicht-physische Welt so wahrzunehmen, als wäre sie real. Der Begriff der Realität bezieht sich hier mehr auf den Begriff der wahrnehmbaren Plausibilität als auf die Darstellung einer realen Welt.


    Um diesen Grad der Immersion zu erreichen, ist nach dem Patent die Verfolgung verschiedener Elemente entscheidend. Dazu gehört die Verfolgung der Position des Kopfes, des Körpers und der Umgebung eines Benutzers.


    Die Reihe von Sensoren, die das Eintauchen ermöglichen, könnte ein Paar RGB-Kameras mit Infrarot-Sperrfiltern, ein weiteres Paar Monokamerasensoren mit Nahinfrarotfiltern, eine Trägheitsmesseinheit, einen Flugzeitsensor, einen Speckle-Muster-Projektor und andere zugehörige Komponenten umfassen.


    Nach diesem Patent würden diese Komponenten auf unterschiedliche Weise zusammenwirken. Die Kameras könnten z.B. eine Durchgangsansicht für die MR liefern, aber auch Bilddaten, die zur Analyse und zum Verständnis der Umgebung verarbeitet würden.


    Die Umgebungsanalyse ist für die realistische Platzierung von Objekten in Augmented Reality oder MR unerlässlich, aber das Patent legt auch Möglichkeiten dar, wie ein am Kopf montiertes Gerät einen Benutzer besser verstehen könnte. Dazu gehört die Echtzeitverfolgung des Körpers, des Kopfes und des Platzes eines Benutzers in einer Umgebung.


    All diese Datenerfassung und -analyse erfordert Rechenleistung und könnte über eine Verbindung zu hohen Latenzzeiten führen. Für Immersionszwecke stellt das Patent fest, dass ein Teil der Verarbeitung bei niedriger Latenz auf dem am Kopf befestigten Gerät selbst durchgeführt werden könnte, wobei ein externes Computergerät bei Bedarf zusätzliche Leistung zur Verfügung stellt.


    Simon Fortin-Desch nes; Vincent Chapdelaine-Couture; Yan Cote; und Anthony Ghannoum werden als Erfinder des Patents aufgeführt. Fortin-Desch nes und Chapdelaine-Couture haben beide in der Vergangenheit an einer Reihe von Patenten für den technischen Giganten Cupertino gearbeitet.


    In einem separaten Patent beschreibt Apple ein System, mit dem ein ähnliches am Kopf befestigtes Gerät Elektronik und Computer in der Nähe steuern könnte.


    38856-74178-Apple-AR-Controls-xl.jpg


    Ein elektronisches Gerät, wie z.B. ein kopfmontiertes, könnte auch Input-Output-Komponenten enthalten, die "dem Benutzer eine intuitive Möglichkeit bieten würden, externe elektronische Geräte zu steuern, Informationen über sie zu sammeln oder anderweitig mit ihnen zu kommunizieren".


    "Die Ein-/Ausgabegeräte können Sensoren zur Identifizierung externer elektronischer Geräte in der Umgebung des Benutzers, ein Anzeigesystem zur Anzeige von Informationen über die externen elektronischen Geräte und Benutzereingabekomponenten wie Berührungssensoren, Kraftsensoren und andere Sensoren zum Sammeln von Berührungseingaben und/oder Gesten von den Fingern eines Benutzers umfassen. Die elektronische Vorrichtung kann eine Kommunikationsschaltung zum Senden von Signalen an die externen elektronischen Vorrichtungen und/oder zum Empfangen von Signalen von den externen elektronischen Vorrichtungen auf der Grundlage der empfangenen Benutzereingabe enthalten", heißt es im Patent.


    Wie Apple anmerkt, kann es für Benutzer schwierig sein, "zu erkennen und zu kontrollieren, welche Geräte angeschlossen sind und wie die Geräte angeschlossen sind". Normalerweise muss ein Benutzer zu einem Einstellungsmenü auf jedem einzelnen Gerät navigieren, das dann eine Liste der externen Geräte bereitstellt, an die dieses Gerät angeschlossen ist".


    Um dies zu entschärfen, behauptet Apple, dass Geräte in einem Bild oder auf einem separaten Gerät angezeigt werden könnten. Von hier aus könnten Benutzer bestimmte Elektronik innerhalb einer Umgebung ansehen und antippen, um sie für Einstellungszwecke einfach auszuwählen.


    "Ein Fingerstreich von einem ersten externen elektronischen Gerät zu einem zweiten elektronischen Gerät auf der Anzeige oder in der Umgebung kann die Steuerschaltung veranlassen, drahtlose Signale an mindestens eines der ersten und zweiten externen elektronischen Geräte zu senden, um eine drahtlose Kommunikationsverbindung zwischen den ersten und zweiten externen elektronischen Geräten herzustellen", heißt es im Patent.


    Das System müsste nicht unbedingt ein AR- oder MR-bezogenes Patent sein. Beispielsweise könnte ein Benutzer ein iPad hochhalten und dessen Kamerablick nutzen, um verschiedene Geräte in einer Umgebung zu sehen und zu steuern. Das Patent legt jedoch fest, dass das Steuergerät ein "kopfmontiertes Display" enthalten könnte, bei dem Steuergesten in der Luft gemacht werden. Mit anderen Worten, es weist auf die HomeKit-Funktionalität für "Apple Glass" oder ein anderes HMD hin.


    In diesem Patent sind Colin M. Ely, Erik G. de Jong, Stephen Brian Lynch und Fletcher R. Rothkopf aufgeführt. Alle vier haben in der Vergangenheit an verschiedenen Patenten im Zusammenhang mit Apple gearbeitet, darunter auch an Patenten, die sich auf die Apple Watch sowie auf eingebettete Sensoren in OLED-Displays beziehen.


    Apple meldet wöchentlich zahlreiche Patente an, von denen viele erteilt werden. Aus diesem Grund gibt es keinen Hinweis darauf, wann - oder ob - die darin beschriebene Technologie es bis zu einem verbraucherorientierten Gerät schaffen wird.



  • Da hat es einer etwas eiliger: Oppo AR Glass 2021 offiziell vorgestellt ;)

    Mal schauen ob Herr LeaksApplePro mit seiner persönlichen Meinung Recht hat😉


    Einmal editiert, zuletzt von miherbie ()

  • Und so soll sie „angeblich“ aussehen


Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!