Die künstliche Intelligenz GPT-4O hebt sich von einem Hintergrund aus lebendigen und sanften Farben ab.

OpenAI bringt GPT-4o auf den Markt, ein schnelleres, kostenloses Modell, das mit Ihrer Handykamera „sehen“ kann 

Victor Pacheco-Avatar
Update kommt mit neuen Apps für Mobiltelefone und Desktops und kann den Benutzer besser verstehen und mit ihm sprechen, als wäre er ein Mensch

In einer kurzen Veranstaltung auf Ihrem Kanal YouTube, wurden wir in das neue Sprachmodell von eingeführt OpenAI, namens GPT-4o. LLM verspricht doppelt so schnell und 50 % günstiger zu sein als GPT-4 Turbo, das bisher umfassendste Sprachmodell des Unternehmens. Sehen Sie sich jetzt alle Details an.

Vorteile von GPT-4o

Mira Murati. Openai-Technologiedirektor
Mira Murati, Technologiedirektorin bei OpenAI, stellte ein neues Sprachmodell vor (Screenshot: Glauco Vital/Showmetech)

Das „o“ von GPT-4o kommt vom lateinischen Wort „omni“, was „alles“ bedeutet. Während der Veranstaltung von OpenAI, Mira Murat, der Technologiedirektor des Unternehmens, betrat die Bühne, um das neue Sprachmodell vorzustellen. Sie betonte, dass die neue Funktion von jedem, der über ein OpenAI-Konto verfügt, kostenlos genutzt werden kann, jeder, der über ein ChatGPT Pro-Konto verfügt, jedoch über das Fünffache des Nachrichtenlimits verfügt.

Der große Vorteil des neuen Sprachmodells ist die Unterstützung von mehr als 97 Sprachen sowie die Möglichkeit, Texte und Bilder zu erstellen und eine bessere Leistung als bei GPT-4 Turbo zu erzielen. Die neue Funktion verfügt außerdem über eine Speicherfunktion, die frühere Gespräche aufzeichnet, um Chats in Zukunft besser verstehen zu können.

Das Unternehmen erwähnt auch, dass das neue Sprachmodell bald das Surfen im Internet ermöglichen wird, sagte jedoch nicht, ob dies für Benutzer mit kostenlosen Konten oder nur für diejenigen mit einem Pro-Konto verfügbar sein wird.

Schließlich kann das neue Sprachmodell von OpenAI die Stimmung einer Person verstehen, indem es zuhört, was der Benutzer sagt. In einem während der Präsentation gezeigten Beispiel stellte er fest, dass eine Person allein durch schweres Atmen nervös werden würde. GPT-4o kann die Stimmung auch allein anhand eines Fotos erkennen.

Künstliche Intelligenz GPT-4O Präsentationsinnovationstechnologie Showmetech.
Auf die neue Funktion kann ab heute zugegriffen werden (Bild: Glauco Vital/Showmetech)

Mira Murat teilte außerdem mit, dass derzeit mehr als 100 Millionen Menschen ChatGPT verwenden, um Bilder, Texte und weitere Inhalte zu erstellen. Die Führungskraft betonte das große Ziel von OpenAI, barrierefreie Technologien für alle zu schaffen, und die Einführung des neuen Sprachmodells sei eine weitere Möglichkeit, dieses Engagement in die Praxis umzusetzen.

Hauptmerkmale und Beispiele

Es ist nicht zu leugnen, dass die GPT-4o Es sieht eher aus wie ein großartiger persönlicher Assistent, wie Google Assistant und Amazon Alexa. Während der OpenAI-Nachrichtenveranstaltung wurde die Fähigkeit von LLM demonstriert, die Kamera des Smartphones zur Unterstützung seiner Aufgaben zu nutzen.

der Entwickler Markus Chan Er simulierte eine nervöse Situation und unmittelbar nachdem er das abnormale Verhalten erkannt hatte, zeigte ihm das Sprachmodell Übungen an, um ihn ruhiger zu machen. Schauen Sie sich das Video unten an:

Das interessanteste Feature ist die Fähigkeit des Sprachmodells, Gesichtsausdrücke, Umgebungen und mehr zu erkennen, indem es einfach die Kamera des Smartphones verwendet. Geben Sie dem einfach einen Befehl ChatGPT Öffnen Sie die Kamera und warten Sie, bis dies in wenigen Sekunden erledigt ist. Sehen Sie sich die Demo an:

https://twitter.com/chamavito/status/1790093050905051396

Wenn Sie eine Person sind, die Hilfe bei mathematischen Problemen benötigt, kann künstliche Intelligenz mithilfe der Unterstützungskamera ebenfalls bei der Lösung dieser Probleme helfen. Während der heutigen Veranstaltung entwarf ein Entwickler eine Gleichung ersten Grades (3X + 1 = 4) und konnte mit Unterstützung des neuen Sprachmodells in ChatGPT das Ergebnis erzielen. Sehen Sie sich eine weitere Demo an:

Mit Unterstützung für mehr als 97 Sprachen, künstlicher Intelligenz von AI OpenAI Sie haben auch die Möglichkeit, zwei Personen, die unterschiedliche Sprachen sprechen, in Echtzeit zu helfen (etwas, das bereits in Google Translate zu sehen ist). Geben Sie einfach den Befehl unter Angabe beider Sprachen ein, und schon kann ein Gespräch auf Basis des GPT-4o-Sprachmodells geführt werden. Kasse:

Das Unternehmen betont außerdem, dass alle von Benutzern getätigten Bestellungen geändert werden können, während die Stimme des GPT-4o sendet die Antworten. Auf diese Weise muss nicht mehr auf den Versand einer vollständigen Antwort gewartet werden, um eine neue Anfrage an die künstliche Intelligenz zu stellen. Sehen Sie sich die Demo an:

Während der Unterbrechung des Sendens von Antworten ist es möglich, den Tonfall, die Betonung der gesendeten Befehle und die Sprechgeschwindigkeit der Stimme der künstlichen Intelligenz zu ändern. Das alles in nur wenigen Sekunden. Dies sind nur einige Beispiele dafür, was das neue Sprachmodell leisten kann, aber die neue Funktion wird sicherlich neue Möglichkeiten erhalten, sobald sie für den allgemeinen Gebrauch freigegeben wird.

Neue Desktop-App

Screenshot von Python-Code zur Analyse meteorologischer Daten, der Temperaturdiagramme und Visualisierungen anzeigt und sich auf Trendanalyse und Datenvisualisierung konzentriert.
Zumindest im ersten Moment wird die Desktop-Anwendung für macOS gestartet (Foto: Glauco Vital/Showmetech)

Während der Veranstaltung wurde eine Anwendung gestartet und gezeigt, die den Einsatz künstlicher Intelligenz im Web simuliert OpenAI von heute. Die Anwendung, die bereits über das neue integrierte Sprachmodell verfügt, sendet nicht nur Antworten auf im Chat geschriebene Befehle, sondern kann auch sehen, was auf dem Bildschirm angezeigt wird, und sogar Zusammenfassungen erstellen. Die neue Funktion kann auch die Webcam des Mac nutzen, um Bilder zu „sehen“ und zu erkennen.

Derzeit ist die ChatGPT-Desktop-App ab heute nur für macOS für Pro-Benutzer und in den nächsten Wochen für andere Benutzer verfügbar. Es liegen keine Informationen zur Verfügbarkeit für Windows oder Linux vor, wir werden den Artikel jedoch aktualisieren, sobald die Informationen von OpenAI veröffentlicht werden.

Das Unternehmen nutzte den Start auch, um die KI-Weboberfläche zu erneuern, allerdings ohne einen Termin für die Umsetzung bekannt zu geben. Sehen:

Neue Chatgpt-Schnittstelle mit gpt-4o-Sprachmodell
Die Navigation wurde weniger verschmutzt (Foto: Reproduktion/MacRumors)

Zu den neuen Funktionen gehören die Neupositionierung von Schaltflächen und ein zentraleres Layout für KI-Antworten, alles um „freundlicher und gesprächiger“ zu sein, so das Unternehmen.

Verfügbarkeit

Der Start von GPT-4oObwohl es heute beginnt, wird es in Teilen durchgeführt. Laut Pressemitteilung erhält jeder, der über ein kostenloses oder ein Pro-Konto verfügt, kostenlosen Zugriff auf die GPT-4o-Kapazität, Abonnenten erhalten jedoch ein Sprachmodell mit einem fünfmal höheren Nachrichtenlimit. Sehen Sie sich die neue Schnittstelle für OpenAI-Abonnenten an:

gpt-4o-Sprachmodell
Das Sprachmodell wird ab heute veröffentlicht (Foto: Bruno Martinez/Showmetech)

Was den Sprachmodus betrifft, der ChatGPT eine Stimme verleiht, muss man noch etwas warten: Das Unternehmen kündigte an, dass diese Funktion später mit voller Kapazität „in den kommenden Wochen“ eingeführt wird.

Die API GPT-4o Es wurde ebenfalls veröffentlicht und ist 2x schneller als der GPT-4 Turbo, außerdem 50 % günstiger und verfügt über 5x höhere Ratenlimits im Vergleich zum Vorgängermodell.

Kann ChatGPT ein persönlicher Assistent werden?

Die Nachricht kommt und verändert die Art und Weise, wie wir die KI nutzen, die seit Ende 2023 berühmt geworden ist. Und es lässt sich nicht leugnen, dass OpenAI sein großartiges Tool als interessante Option gegen Google Assistant und Amazon Alexa präsentiert, zumal es jetzt „ sprechen" .

Es bleibt abzuwarten, ob es auf Geräten verfügbar sein wird, die im weiteren Verlauf des Jahres 2024 auf den Markt kommen, aber wir sehen den Beginn einer neuen Ära für die Nutzung ChatGPT. Sagen Sie es uns in der Zwischenzeit Kommentar Wie sehen Sie diese Änderung und welches ist Ihr Lieblingsfeature, das heute eingeführt wurde?

Siehe auch

https://www.showmetech.com.br/openai-e-moderna-anunciam-parceria-para-melhorar-vacinas

ChatGPT-4 übertrifft Psychologen im sozialen Intelligenztest, heißt es in einer Studie

OpenAI und Moderna geben Partnerschaft zur Verbesserung von Impfstoffen und Behandlungen bekannt

Mit Informationen: OpenAI

Rezensiert von Glaukon Vital in 13 / 5 / 24.


Erfahren Sie mehr über Showmetech

Melden Sie sich an, um unsere neuesten Nachrichten per E-Mail zu erhalten.

Related posts