1. Meta AI Chat mit Bildbearbeitungs- und Hintergrundentfernungsfunktionen für WhatsApp-Unterhaltungen.

Llama 3.2 bringt Funktionen wie lippensynchrone Videoübersetzung, Promi-Stimmen und mehr in Meta AI

Lucas Gomes-Avatar
Die künstliche Intelligenz von Meta ist jetzt multimodal und kann neben der natürlichen Kommunikation mit dem Benutzer auch sehen und sprechen, Bilder, Tabellen und Grafiken verstehen. Verstehen

Heute (25) ist das passiert Ziel Connect 2024, eine Veranstaltung des für Facebook, Instagram und WhatsApp verantwortlichen Unternehmens mit der Ankündigung seiner technologischen Neuigkeiten, die vom Unternehmen selbst präsentiert werden Mark Zuckerberg. Jenseits holografischer Brillen Orion, wir sahen immer noch Neuigkeiten darüber Lama 3.2 und Meta AI — die alle sozialen Netzwerke des Unternehmens integriert. Sehen Sie sich jetzt die Highlights zur künstlichen Intelligenz von Meta an

Neue Funktionen mit Llama 3.2

Leichter und multimodaler Prozessor mit den Modellen Llama 3b und 11b für fortschrittliche KI.
LLMs für kleine und mittlere Sehstärken (11B und 90B) und leichte Nur-Text-Modelle (1B und 3B), die sich an mobile Geräte anpassen. Bild: Meta

Die beiden größten neuen Modelle der Kollektion Lama 3.2mit 11B- und 90B-Parameter (11 bzw. 90 Milliarden)., zeichnen sich durch ihre Unterstützung bei Aufgaben des visuellen Denkens aus, wie z. B. dem Verstehen komplexer Dokumente, einschließlich Tabellen und Grafiken, sowie Bildunterschriften und der Identifizierung von Objekten in visuellen Szenen basierend auf Beschreibungen in natürlicher Sprache.

Ein praktisches Beispiel ist die Fähigkeit von Llama 3.2 Diagramme analysieren um schnell Fragen zur Vertriebsleistung eines Unternehmens in einem bestimmten Monat zu beantworten. In einem anderen Fall kann das Modell Karten interpretieren, um anzuzeigen, wann ein Weg steiler wird oder wie weit eine bestimmte Route entfernt ist. Diese fortschrittlichen Modelle verbinden sich auch Vision und Sprache, in der Lage zu sein, Details aus einem Bild zu extrahieren und Bildunterschriften zu erstellen, um die Szene zu beschreiben.

Meta kündigte auch leichtere Modelle an, 1B- und 3B-Parameter, für kleinere Geräte wie Smartphones und Datenbrillen. Diese wurden dazu gemacht mehrsprachige Textgenerierung und Ausführung automatisierter Befehle. Sie ermöglichen die Entwicklung anpassbarer Anwendungen, die direkt auf Geräten funktionieren und dabei vollständigen Datenschutz gewährleisten, da Daten nicht an die Cloud gesendet werden. Diese Apps können eingehende Nachrichten zusammenfassen und wichtige Elemente identifizieren, um Kalendereinladungen mithilfe der Tool-Aufruffunktion direkt zu versenden.

Die lokale Ausführung der Modelle hat zwei Hauptvorteile: fast sofortige Reaktionen, aufgrund der direkten Verarbeitung auf dem Gerät, und mehr Privatsphäre, indem das Senden sensibler Daten an die Cloud vermieden wird. Dadurch lässt sich übersichtlich und sicher kontrollieren, welche Anfragen auf dem Gerät verbleiben und welche von größeren Modellen in der Cloud verarbeitet werden können.

Diese Arbeit wurde von unseren Partnern in der gesamten KI-Community unterstützt. Wir möchten uns bedanken und anerkennen (in alphabetischer Reihenfolge): Accenture, AMD, Arm, AWS, Cloudflare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM watsonx, Infosys, Intel, Kaggle, Lenovo, LMSYS, MediaTek, Microsoft Azure, NVIDIA, OctoAI, Ollama, Oracle Cloud, PwC, Qualcomm, Sarvam AI, Scale AI, Snowflake, Together AI und UC Berkeley – Projekt vLLM.

Meta Vielen Dank für Ihre Website

Neue Meta-KI-Funktionen

Und die Nachrichten hören hier nicht auf! Meta AI wird von den folgenden neuen Funktionen profitieren:

Stimmen auf WhatsApp, Instagram, Facebook und Messenger

Benutzerdefinierte KI-Stimme in Meta AI mit verschiedenen weiblichen und männlichen Stimmen.
Meta lädt seine Nutzer ein, die neuen KI-Stimmen von Prominenten zu testen. Bild: Meta

Mark Zuckerberg kündigte ein neues Update für die KI-Assistenten von Meta an, das jetzt prominente Stimmen wie z Dame Judi Dench, John Cena, Awkwafina, Keegan Michael Key und Kristen Bell. Die Idee besteht darin, die Interaktion natürlicher und unterhaltsamer zu gestalten und ein personalisiertes Erlebnis auf Plattformen wie z. B. zu bieten Facebook, Messenger, WhatsApp e Instagram.

Eine der bedeutendsten Neuerungen ist neben neuen Stimmen die Fähigkeit von KI-Modellen dazu Fotos interpretieren und andere visuelle Informationen von Benutzern, erweitert die Interaktionsalternativen und bietet jedem Benutzer noch kontextbezogenere und relevantere Antworten.

Bilder ansehen, erklären und bearbeiten

Bunte Sonnenbrillen und Regenschirme hängen über den Straßen der Stadt vor einer lebhaften Kulisse.
Benutzer können Fotos senden und Bearbeitungen an die KI anfordern. Bild: Meta

Die Bearbeitungsfähigkeit von Meta AI wurde ebenfalls erweitert, sodass eine Verarbeitung möglich ist visuelle Informationen. Es wird nun möglich sein, beim Gehen ein Foto einer Blume zu machen und Meta AI darum zu bitten Identifizieren Sie es und/oder erklären Sie mehr darüber, oder tun Sie das ein Bild hochladen eines Gerichts und erhalten Sie das entsprechende Rezept.

Benutzer können dies auch tun Detaillierte Bearbeitungen Ihrer echten Fotos Verwenden von Befehlen in der Alltagssprache, z. B. das Hinzufügen oder Entfernen von Elementen. Bisher funktionierte diese Funktion nur bei Bildern, die von Meta AI generiert wurden, jetzt ist sie jedoch verfügbar Von Benutzern aufgenommene Fotos, was individuelle Anpassungen ermöglicht.

mit der Funktion Imagine Mithilfe von Meta AI können Sie sich in Geschichten, Feed-Beiträge und sogar Ihr Profilfoto einfügen Facebook und Instagram, Teilen KI-generierte Selfies auf interaktive Weise. Die KI kann auch Untertitel für Ihre Instagram- und Facebook-Geschichten vorschlagen. Wählen Sie einfach ein Bild aus und Meta AI schlägt mehrere Untertiteloptionen vor, sodass Sie leichter diejenige auswählen können, die am besten zu Ihrem Beitrag passt.

Lippensynchronisation auf Reels

Es kommuniziert mithilfe von KI mit sich selbst, um Menschen auf der ganzen Welt zu verbinden.
Das Synchronisieren ist vorerst noch eingeschränkt. Bild: Meta

Meta testet derzeit auch das automatische Videoüberspielung mit Lippensynchronisation auf Instagram und Facebook Reels, beginnend mit Sprachen Englisch und Spanisch. Diese Funktionalität ermöglicht es Benutzern, Inhalte in ihrer Muttersprache anzusehen, was das Verständnis und die Interaktion mit ihnen erleichtert.

Zunächst steht die Funktion einer kleinen Gruppe von Entwicklern zur Verfügung, es gibt jedoch Pläne, sie auf diese auszuweiten mehr Ersteller hinzufügen und andere Sprachen einbeziehen kurz. Dieser Fortschritt hat das Potenzial, die Reichweite von Content-Erstellern erheblich zu erhöhen und es ihren Produktionen zu ermöglichen, Sprachbarrieren zu überwinden und ein globales Publikum anzusprechen, unabhängig von der gesprochenen Sprache.

Verfügbarkeit

AI Voice in Australien, Kanada, Neuseeland und den USA nur auf Englisch. Bild: Meta
KI-Stimme in Australien, Kanada, Neuseeland und den USA nur auf Englisch. Bild: Meta

Das Unternehmen behauptet, dass die Lama 3.2 ist jetzt auf Meta-Plattformen verfügbar, mit Ausnahme von Meta AI-Sprachaktualisierungen. Diese sind in Australien, Kanada, Neuseeland und den USA nur auf Englisch verfügbar.

Und Sie, was halten Sie von den Nachrichten? Erzähl uns Kommentar!

Siehe auch:

Meta-Shows Holografische Orion-Brille, die Bilder auf dem Bildschirm anzeigen.

Mit Informationen von: Ziel [1] e [2]..

Text Korrektur gelesen von: Daniel Coutinho (25 / 09 / 24)


Erfahren Sie mehr über Showmetech

Melden Sie sich an, um unsere neuesten Nachrichten per E-Mail zu erhalten.

Related posts