Smart Glasses: 5 neue Modelle ausprobiert

Die Zukunft der Brille ist da: Smart Glasses kombinieren Hightech mit praktischem Nutzen. Und im Gegensatz zu den früheren Versuchen, wie Google Glass, können jetzt die ersten Modelle gekauft und wirklich im Alltag benutzt werden. Weitere sollen in Kürze folgen. c’t 3003 hat sich die vielversprechendsten Smart Glasses aufgesetzt und zeigt, was aktuelle Modelle können und was nicht.

Anzeige


Transkript des Videos

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guckt mal hier, ich trage eine Brille. Aber seht ihr auch, dass mir diese Brille gerade Untertitel einblendet? Weil gerade jemand auf Chinesisch mit mir spricht? Ganz ehrlich: Man erkennt doch wirklich nicht auf den ersten Blick, dass das hier Smart Glasses sind, oder? Ich mein, erinnert ihr euch noch an die Google Glasses? Da hat Google vor über 10 Jahren mal versucht, smarte Brillen auf den Markt zu bringen. Wirklich erfolgreich waren die nicht. Aber es gab eine Riesen-Debatte über “Glassholes”, die einfach in der Gegend rumfilmen, ohne dass andere was davon mitbekommen.

Dann kam 2023 das Modell von Meta und Ray-Ban – kennt ihr ja vielleicht. Das war in Deutschland überraschend erfolgreich – und das, obwohl es kein Display gibt und vor allem in Deutschland die KI-Funktionen gar nicht verfügbar sind. Ja, und vermutlich ausgelöst durch diesen Erfolg gibt es auf einmal ganz viele solcher Brillen. Ich habe fünf davon ausprobiert, einige auf der CES in Las Vegas und eine auch in Deutschland: Die Even Realities könnt ihr sogar schon ganz normal beim Optiker kaufen.

Und jetzt, wo ich die alle so aufhatte: Das ist definitiv ‘ne interessante Produktkategorie und vor allem: Die Teile funktionieren und werden in den nächsten Monaten alle in den Verkauf gehen. Das heißt halt auch, dass da bald einige Menschen mit rumlaufen werden und deswegen schauen wir uns in dem Video nicht nur an, was diese Technik für die Smart-Glasses-Träger bedeutet, sondern auch für alle anderen drumherum. Also, was sieht jemand, der mir gegenüber mit so ‘ner Brille sitzt, und kann der mich damit jetzt die ganze Zeit filmen? Bleibt dran!

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei …

Also, wenn wir jetzt hier von Smart Glasses sprechen, dann ist das erst mal ein ziemlich konfuser Sammelbegriff, weil sich tatsächlich ALLE Brillen so nennen, die irgendeine Technik eingebaut haben. Also so ‘ne Meta Ray-Ban mit Zugriff auf Musik und KI, aber ohne Display; Brillen mit kleinem Display oder Brillen, die komplett einen riesigen Bildschirm vor dir aufziehen und richtig AR/VR-Content anzeigen können. Die Smart Glasses, um die es hier in dem Video geht, sind alle als Ersatz für normale Brillen, also normale Korrekturbrillen gedacht, also für weit- oder kurzsichtige Menschen – funktionieren aber natürlich auch mit Fensterglas. Aber die Form entspricht halt einer klassischen Brille. Welche Technik da genau verbaut wird in diesen Brillengehäusen, unterscheidet sich aber schon krass von Hersteller zu Hersteller. Das Einzige, was wirklich alle gemeinsam haben, sind Mikrofone.

Dann gibt es Brillen mit Lautsprechern, die als Kopfhörer-Ersatz dienen sollen und den Ton so ausgeben, dass nur der Brillenträger ihn hört. Also wie bei der Vision Pro oder Quest 3. Viele Smart Glasses haben Kameras verbaut, die zum einen Fotos und Videos aufnehmen können, aber auch für visuelle Intelligence verwendet werden. Also die Brille sieht, was du siehst, und beantwortet Fragen dazu. Einige Modelle haben aber auch ein kleines Display verbaut. Aber selbst die unterscheiden sich extrem.

Die Halliday AI Glasses hat über dem Brillenglas im Rahmen ein kleines rundes Head-up-Display verbaut. Das hat den Vorteil, dass normale Korrekturgläser eingesetzt werden können und das ganze Glas null technisch ist. Ich hatte die Brille jetzt nur einige Minuten lang auf, aber ich kann mir vorstellen, dass diese Augenbewegung nach rechts oben auf Dauer anstrengend sein könnte. Und auch wenn dein Gegenüber die verbaute Technik gar nicht sieht, diese Augenbewegung halt schon. (Kurzer Einschub: Die Firma hat sich offenbar nach James Halliday benannt, einem Charakter aus Kens Lieblingsbuch “Ready Player One” – und das ist ja eine Geschichte, die von VR handelt, und die Halliday AI Glasses haben nichts mit VR zu tun, naja, okay).

Die anderen Hersteller haben ihre Displays im Sichtfeld verbaut. Heißt, wenn sich das Display aktiviert, dann sehe ich das direkt vor mir. Beziehungsweise werden die Displays alle so dargestellt, dass sie etwa 2–3 Meter entfernt wirken. Bei Rokid und der Even Realities G1 sind die Displays grün – das spart unter anderem Akku und sorgt für bessere Lesbarkeit in hellen Umgebungen.

Bei der RayNeo X3 ist die Anzeige farbig. Und das Display soll auch bis zu 2.500 Nits hell werden, statt den 1.000 Nits, die die Mitbewerber angeben. Dafür ist die Brille aber auch ein gutes Stück klobiger als die anderen. Klar, allein für das Farbdisplay wird mehr Akkukapazität benötigt. Aber die RayNeo X3 hat hier auch noch ‘ne zweite Kamera für Umgebungserkennung eingebaut. Damit sollen etwa auch Handbewegungen erkannt werden. Hat bei der Demo aber noch nicht so wirklich zuverlässig funktioniert. Als Prozessor kommt bei fast allen Herstellern der Snapdragon AR1 zum Einsatz, der speziell für leichte Brillen entwickelt wurde.

Diese Displays im Brillenglas sind natürlich nicht unsichtbar – also auch von der anderen Seite wird mein Gegenüber bei richtigem Lichteinfall definitiv sehen, dass da was im Brillenglas ist. Aber ich konnte bei keiner der Brillen jetzt wirklich feststellen, dass ich da was sehen würde, wenn die jemand mir gegenüber aufhat. Also die Displays sind auf jeden Fall eher unauffällig. Gesteuert werden die Smart Glasses entweder per Stimme oder über kleine Touchpads auf den Brillenbügeln. Manche Hersteller haben auch noch so Zusatz-Hardware gezeigt. Bei den meisten sind das so Ringe wie hier bei Halliday oder RayNeo, die auch zum Steuern der Brille verwendet werden können. Aber allein die Bedienung über Brillenbügel hat schon recht gut funktioniert.

Alle Smart Glasses haben aber auf jeden Fall gemeinsam, dass sie den KI-Hype reiten. Ist auch sinnvoll, da KI einzubauen, gar keine Frage. Man kann damit einfach ständig auf seinen persönlichen KI-Assistenten zugreifen. Ich hab’s vorhin ja schon gesagt, die KI-Funktionen von Meta sind in weiten Teilen der EU inklusive Deutschland nicht verfügbar. Die meisten anderen Anbieter setzen deshalb auf OpenAIs GPT-Modelle. Bei den G1 kann ich sogar zusätzlich Perplexity auswählen. Bei den Rokid Glasses läuft das große Sprachmodell Qwen von Alibaba. Aber egal, welches Modell genau verwendet wird. Die angebotenen Funktionen sind ziemlich ähnlich. Die Smart Glasses haben alle einen KI-Assistenten, der Antworten entweder per Sprache ausgibt oder direkt auf dem Display in der Brille anzeigt.

Und über die verschiedenen KI-Modelle werden auch die Übersetzungsfunktionen auf den Smart Glasses betrieben. Und ich glaube, das ist auch meine Lieblingsfunktion. Instant das übersetzt bekommen, was gerade zu einem gesagt wird. Und das hat auch echt gut funktioniert. Rokid bietet die Übersetzungsfunktion sogar offline an, bei den anderen funktioniert das mit Internetverbindung. Aber bei allen Brillen mit Display hatte ich quasi in Echtzeit eine gute Übersetzung direkt in meinem Blickfeld. Und klar, ich weiß, dass sowas wie Google Translate ja schon seit Jahren gut funktioniert. Aber da kommt halt kein smoothes Gespräch zustande, weil man nach dem Sprechen immer abwarten muss, bis die Übersetzung da ist. Sehen zwei Menschen dagegen auf ihren Smart Glasses Untertitel, können sie sich ganz normal unterhalten, obwohl sie die jeweils andere Sprache nicht beherrschen, also zum Beispiel ich auf Deutsch und jemand anders auf Arabisch. Das könnte echt ein Gamechanger sein – sobald wir zwei Testgeräte haben, müssen wir das unbedingt mal ausprobieren. Problematisch wird es manchmal wohl, wenn viele Menschen durcheinanderreden. Klar, das ist schwer, da dann die richtigen Stimmen herauszufiltern. Aber bei meinen kurzen Tests auf der CES hat das immer relativ gut geklappt, wenn mein Gesprächspartner mir gegenüberstand – und das Messegelände ist jetzt nicht gerade ein ruhiger Ort.

Was auch noch im Rahmen von dieser Spracherkennung mit KI funktioniert, sind Voice Memos, die dann auch direkt transkribiert werden, und die Brille kann als Teleprompter benutzt werden. Da lädt man einfach einen Text ein und durch die Spracherkennung läuft der automatisch beim Reden mit. Hat auch bei den verschiedenen Brillen gut funktioniert.

Eine andere Funktion, die ich auch gerne im Alltag hätte: Navigation. Also einfach ein Ziel eingeben und dann direkt in der Brille sehen, wo ich lang muss. Bei den G1 klappt das schon einigermaßen gut. Also, ich kriege hier die wichtigsten Infos angezeigt und wenn ich meinen Kopf leicht nach oben neige, eine volle Karte. Das würde auch ausreichen, um sich zurechtzufinden. Aber es fehlt sowas wie ein Kompass, damit die Brille halt checkt, in welche Richtung du gerade läufst und das nicht erst nach einigen Metern auffällt, wenn du in die falsche Richtung läufst. Die anderen Smart Glasses auf der CES haben auch ‘ne optisch ordentliche Anzeige für Navigation. Vor allem die RayNeo mit dem Farbdisplay hat mir da noch mal ein Stückchen mehr gefallen. Aber das Problem mit dem fehlenden Kompass dürften die auch haben. Auch wenn ich die Navigation an sich leider nicht wirklich in der Messehalle ausprobieren konnte.

Wie schon gesagt: Kameras sind mittlerweile in vielen Smart Glasses verbaut. Ausnahmen in dem Video: Die G1 und die Halliday AI Glasses. Die haben zwar Displays und Mikrofone, aber sich bewusst gegen eine Kamera entschieden. Ein Grund dafür ist wohl der Wunsch, dass die Brille wirklich nach ‘ner Brille aussieht. Klar, Kameras, die werden schon allein für visuelle Intelligence benötigt – also erkennen, was da gerade vor mir ist, und Fragen dazu beantworten. Aber die machen auch Fotos und Videos. Ich habe jetzt leider keinen ausführlichen Test zu der Kamera-Qualität der einzelnen Brillen machen können. Aber hier mal ein paar Bilder von der Meta Ray-Ban. Für ‘ne kleine Kamera, die in ‘ne Brille integriert ist: Nicht schlecht. Und rein von der Kamera-Hardware sollen alle Modelle, die auf der CES gezeigt wurden, besser sein als die Meta Ray-Ban. Müssen wir uns dann aber natürlich noch mal in echt anschauen, wenn wir die in der Redaktion haben.

So, nervig im Vergleich zum Fotografieren mit Smartphone oder Kamera. Du kannst bei den Brillen halt nur auf Auslösen drücken. Auch die Modelle mit Display haben keine Möglichkeit, irgendwie die Belichtung oder sonst was anzupassen. Dafür hast du diese Kamera in der Brille halt wirklich immer dabei. ABER dein Smartphone ja eigentlich auch. Also, ich bin gespannt.

Genauso gespannt darauf, wie die Gesellschaft diesmal reagiert. Erinnert ihr euch an die Google Glass und den Begriff Glasshole, weil damals, also so vor 10 Jahren, ‘ne Massenpanik ausgebrochen ist, dass wir jetzt immer und überall gefilmt werden. Vielleicht ist das jetzt aber auch mehr akzeptiert, weil das ja mit Smartphones de facto auch schon so ist. Also, so richtig gut erkennen, dass dich da gerade jemand aufnimmt, tust du bei den Smart Glasses nicht unbedingt. Aber bei ‘nem Smartphone auch nicht immer. Was meint ihr? Sollten die Brillen in Deutschland so richtig krass rot leuchten müssen bei ‘ner Aufnahme oder ist das mittlerweile einfach so, dass überall Kameras sind, potenziell? Schreibt’s gerne mal in die Kommentare.

Die Even Realities G1 könnt ihr ja schon kaufen in Deutschland. Da zahlt ihr 699 Euro. Zum Vergleich: Die Meta Ray-Ban Smart Glasses (ohne Display) kosten 329 Euro. Die Loomos Smart Glasses – auch ohne Display, die ja direkt mit den Meta Glasses konkurrieren sollen, könnt ihr auf Kickstarter bis Mitte März backen, danach sollen die 299 Dollar kosten.

Die Halliday Glasses mit dem runden Display oben haben auch schon eine laufende Kickstarter-Kampagne. Bis zum 8. März könnt ihr für 400 Dollar backen, später sollen die Halliday Glasses 479 Dollar kosten.

Rokid hat sich noch nicht genau zum Preis geäußert, vor der CES standen wohl etwa 345 US-Dollar im Raum. Verkauft werden sollen die Rokid Glasses im 2. Quartal.

Die RayNeo X3 mit dem Farbdisplay hat noch keinen genauen Preis. Soll aber Mitte des Jahres für unter 1.500 US-Dollar auf den Markt kommen.

Langsam tut sich da was bei den Smart Glasses. Und es fühlt sich einfach richtig futuristisch an, so nebenbei Dinge in sein Sichtfeld eingeblendet zu bekommen. Ich habe mit jemandem gesprochen, der die G1 Smart Glasses schon seit mehreren Monaten täglich im Einsatz hat. Und der meinte, dass vor allem dieses beiläufige Benachrichtigungen erhalten, wenn man gerade die Hände nicht freihat noch mal deutlich angenehmer ist als auf der Smartwatch. Und die Möglichkeit, fixe Notizen ins Dashboard einzublenden, ist im Alltag wohl praktisch. Diese Notizen sieht man dann immer, wenn man den Kopf leicht hebt. Aber es fühlt sich auch ein bisschen so an wie die ersten Generationen der Apple Watch bzw. von frühen Android Wear Uhren. Die Brillen sind größtenteils noch sehr vom Smartphone für die Rechenleistung abhängig und dadurch natürlich langsamer und unflexibler wie so ‘ne LTE-Smartwatch. Aber genauso wie das bei Smartwatches dann von Jahr zu Jahr besser wurde, glaube ich, das wird jetzt auch bei Smart Glasses so. Das heißt, bis Smart Glasses von der Schwuppdizität her mit Smartphones oder Smartwatches mithalten können, wird noch ‘ne Zeit vergehen.

Aber die Geschwindigkeit der G1 hat mich tatsächlich gar nicht so gestört. Da hat alles ziemlich flüssig funktioniert, also Kopf anheben und im nächsten Moment ist das Dashboard sichtbar. Was mir bei der G1 aber schon fehlen würde im Alltag, wären Lautsprecher und Kamera. Klar, das macht die Brille dann wieder dicker und weniger “klassisch brillenmäßig”. Aber das ist ja irgendwie auch ein Unique Selling Point, dass die Brille alles aus deiner Perspektive sehen und aufnehmen kann. Also, ich kann mir gut vorstellen, dass das die echten Anwendungsfälle im Alltag deutlich erhöht, wenn ich jetzt ‘ne RayNeo X3 oder Rokid Glasses eben mit Kamera habe. Dafür hat mir das Display bei der G1 besser gefallen als bei allen Mitbewerbern auf der CES. Das ist natürlich immer etwas sehr Persönliches, wie die eigenen Augen etwas wahrnehmen. Aber bei den anderen Modellen hatte ich teilweise Probleme, weil meine Augen die Displays immer wieder doppelt gesehen haben und nicht als eine Anzeige. Aber bei der G1 hatte ich nach dem Ausprobieren auf jeden Fall ein besseres Gefühl, was das Display angeht, als bei den Mitbewerbern.

Aber auch ganz wichtig: Bis auf die G1 waren alle smarten Brillen Vorserienmodelle, auf denen auch nur Beta-Software lief. Also ‘ne finale Aussage: “Diese Brille ist gut”, kann ich jetzt ehrlich gesagt aufgrund von den paar Minuten tragen natürlich nicht treffen. ABER mal grundsätzlich: Die Brillen, die dieses Jahr auf der CES gezeigt wurden, waren deutlich weiter als letztes Jahr. Und spätestens, wenn die ersten Modelle wirklich auf den Markt kommen, werden wir die uns auch noch mal genauer anschauen.

Was meint ihr? Habt ihr Bock auf das Thema, sollen Keno und ich mal länger solche Smart Glasses im Alltag ausprobieren? Ich würde vor allem gerne mal sehen, wie gut das funktioniert, wenn zwei Menschen mit unterschiedlichen Sprachen beide so ‘ne Brille tragen und sich unterhalten. Und natürlich: Was müssten Smart Glasses können, damit ihr welche kauft? Schreibt’s gerne in die Kommentare und natürlich gerne abonnieren.


c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


(rum)

Leave a Reply

Your email address will not be published. Required fields are marked *