- Ray-Ban Meta-Brillen kombinieren schickes Design mit fortschrittlicher KI-Technologie. Die Brillen können Fragen beantworten und erkennen, worauf man schaut, dank integrierter Kameras. Neue KI-gesteuerte Sprachfunktionen und Erinnerungsfunktionen wurden angekündigt. Meta plant Live-Transkriptionsdienste und eine Funktion für sehbehinderte Menschen. Neue Rahmen- und Linsenfarben sowie Übergangslinsen werden hinzugefügt.
Die Ray-Ban Meta-Brillen sind die ersten tragbaren Geräte mit künstlicher Intelligenz, die wirklich erfolgreich sind. Sie haben das schicke Ray-Ban-Design und sehen nicht so albern aus wie einige der klobigen Mischrealität-Gesichtscomputer. Der integrierte KI-Agent kann Fragen beantworten und sogar erkennen, worauf Sie schauen, dank der eingebetteten Kameras. Menschen lieben es auch, Sprachbefehle zu verwenden, um Fotos und Videos zu machen, ohne ihr Telefon herauszuholen.
Bereitstellung neuer Funktionen
Bald bekommen Metas smarte Brillen noch mehr dieser KI-gesteuerten Sprachfunktionen. Meta-CEO Mark Zuckerberg kündigte auf dem Meta Connect-Event die neuesten Updates für die Software der Brille an. „Die Realität ist, dass die meisten Leute die smarte Funktionalität nicht die ganze Zeit nutzen, daher wollen sie etwas auf ihrem Gesicht haben, auf das sie stolz sind und das gut aussieht“, sagte Zuckerberg bei Connect. „Also, es sind großartige Brillen. Wir aktualisieren ständig die Software und erweitern das Ökosystem, und sie werden immer intelligenter und können mehr Dinge.“
Das Unternehmen nutzte Connect auch, um seine neue, kostengünstigere Version seiner Mixed-Reality-Headsets vorzustellen. Außerdem wurden eine Reihe weiterer KI-Fähigkeiten über verschiedene Plattformen hinweg angekündigt, mit neuen Funktionen für Meta AI und die großen Sprachmodelle von Llama.
Weiterentwicklung der Ray-Ban Meta-Brillen
Bei den Ray-Bans verändert Meta nicht zu viel an einem bereits guten Produkt. Die smarten Brillen haben eine Infusion von KI-Technologie erhalten und nun folgt eine weitere kleine Verbesserung. Sie können Meta AI schon fragen und seine Antworten direkt aus den Lautsprechern in den Bügeln hören. Jetzt gibt es ein paar neue Dinge, die man fragen oder befehlen kann.
Wahrscheinlich am beeindruckendsten ist die Fähigkeit, Erinnerungen zu setzen. Man kann etwas betrachten und sagen: „Hey, erinnere mich daran, dieses Buch nächste Woche zu kaufen“, und die Brille wird verstehen, was das Buch ist, und eine Erinnerung setzen. In einer Woche wird Meta AI Ihnen mitteilen, dass es Zeit ist, das Buch zu kaufen.
Blick in die Zukunft
Laut Meta kommen bald Live-Transkriptionsdienste für die Brillen, was bedeutet, dass Menschen, die in verschiedenen Sprachen sprechen, in der Lage sein könnten, transkribierte Sprache im Moment zu sehen – oder zumindest in einer einigermaßen zeitnahen Weise. Es ist jedoch unklar, wie gut das funktionieren wird, angesichts der bisherigen schriftlichen Funktionen der Meta-Brillen.
Zuckerberg sagt auch, dass Meta mit der dänischen mobilen App zusammenarbeitet, um eine Funktion zu den Ray-Ban Meta-Brillen zu bringen, die blinde und sehbehinderte Menschen mit Freiwilligen verbindet, die über Live-Video sehen und den Träger durch das, was vor ihm ist, führen können. „Ich denke, dass dies nicht nur heute ein ziemlich großartiges Erlebnis sein wird, sondern auch einen Einblick in die Art von Dingen gibt, die mit immer eingeschalteter KI möglich sein könnten.“
Es werden neue Rahmenfarben und Linsenfarben hinzugefügt, und Kunden haben nun die Möglichkeit, Übergangslinsen hinzuzufügen, die ihre Schattierung je nach aktuellem Sonnenlichtniveau erhöhen oder verringern. Meta hat noch nicht genau gesagt, wann diese zusätzlichen KI-Funktionen zu seinen Ray-Bans kommen werden, außer dass sie irgendwann dieses Jahr eintreffen werden. Da nur noch drei Monate im Jahr 2024 verbleiben, bedeutet das sehr bald.