Auf der Meta Connect 2024 hat das Unternehmen einige bahnbrechende Neuigkeiten rund um Künstliche Intelligenz (KI) und Augmented Reality (AR) vorgestellt. Die Zukunftsvision von Meta dreht sich um "Smart Glasses + AI = The Future". Dabei sollen intelligente Brillen mit leistungsstarker KI ausgestattet werden und den Nutzern als allgegenwärtiger, digitaler Assistent dienen.
Eine Reihe an Neuerungen für KI-Systeme
Meta hat auf der Entwicklerkonferenz eine ganze Reihe an Neuerungen für seine KI-Systeme präsentiert. Im Mittelpunkt stand die neue Version 3.2 des hauseigenen Sprachmodells Llama. Dieses quelloffene Large Language Model (LLM) treibt den KI-Assistenten Meta AI an, der in Facebook, WhatsApp, Messenger und Instagram integriert ist.
Llama 3.2 bringt multimodale Fähigkeiten mit sich. Die neuen Modelle mit 11 Milliarden und 90 Milliarden Parametern können nicht nur Text verarbeiten, sondern auch Bilder analysieren, Objekte erkennen und Diagramme auswerten. Laut Meta können sie sogar Handschriften lesen und kulturelle Feinheiten erfassen. Für Entwickler gibt es zudem neue kleinere Modelle mit 1 Milliarde und 3 Milliarden Parametern sowie einen Enterprise-Stack.
Die Fortschritte bei Llama unterstreichen Metas Fokus auf Open Source im KI-Bereich. Das Unternehmen bezeichnet Llama gar als "Linux der KI" und will das Modell zum Industriestandard machen. Allerdings ist Llama 3.2 aufgrund rechtlicher Hürden vorerst nicht in der EU verfügbar.
An dieser Stelle richten wir ein herzliches: "Dankeschön" an die EU Verwaltung.
Die smarten Ray-Ban-Brillen
Neben den Llama-Neuerungen hat Meta auch Upgrades für seine smarten Ray-Ban-Brillen angekündigt. Diese erhalten KI-gestützte Echtzeit-Videoanalyse, Sprachübersetzung, Erinnerungsfunktionen und mehr. Nutzer können die Brille beispielsweise fragen "Was für einen Smoothie kann ich mit diesen Zutaten machen?" und die KI antwortet dann multimodal auf Basis von Sprache und Bilderkennung.
"Orion"
Der größte Paukenschlag war jedoch die Enthüllung von "Orion" - einem ersten Prototypen für voll holografische AR-Brillen. Orion vereint Sprach-KI, Hand- und Augenverfolgung sowie eine bahnbrechende Schnittstelle zur Gehirnsteuerung am Handgelenk. Statt Displays projizieren die Brillen holografische Elemente direkt in die reale Umgebung mithilfe fortschrittlicher Optik, maßgefertigter Chips und kompakter Energielösungen.
Auch wenn Orion heute bereits funktionsfähig ist, wird es laut Meta noch einige Zeit dauern, bis die Technologie für Verbraucher marktreif ist. Aktuell kosten die Prototyp-Brillen rund 10.000 Dollar pro Stück, doch Meta peilt langfristig einen Preis von etwa 1.000 Dollar an. Design, Displayqualität und Fertigung müssen noch optimiert werden.
Die Fortschritte bei KI und AR zeigen, dass Meta große Ambitionen in diesen Bereichen hat. Das Unternehmen setzt auf die perfekte Symbiose von "Smart Glasses + AI" und will den Nutzern eine allgegenwärtige, intelligente Assistenz bieten, die ihre Umgebung erfasst, Informationen kontextuell bereitstellt und Aktionen ausführen kann.
Mit Orion und den KI-Updates für die Ray-Ban-Brillen strebt Meta nichts Geringeres als die nahtlose Verschmelzung von digitaler und physischer Welt an. Die Brillen sollen zu ständigen Begleitern werden, die das Sehen, Hören und Erinnern der Nutzer durch künstliche Intelligenz erweitern.
Auch wenn Metas Vision einer allgegenwärtigen KI-Assistenz in AR-Brillen für viele Science-Fiction klingen mag, zeigen die Ankündigungen auf der Connect 2024, dass das Unternehmen konsequent an dieser Zukunft arbeitet. Mit Orion, Llama 3.2 und den smarten Ray-Bans hat Meta vielversprechende Schritte in diese Richtung unternommen.
Allerdings bleiben noch viele Hürden zu überwinden - von technischen Herausforderungen bis hin zu Datenschutz- und ethischen Bedenken. Ob Metas "Smart Glasses + AI" wirklich die Zukunft sein werden, bleibt abzuwarten. Das Unternehmen hat jedoch eindrucksvoll unter Beweis gestellt, dass es über die nötigen Ressourcen und das Innovationspotenzial verfügt, um diese Vision Realität werden zu lassen.