GPT-4o traite divers types de données pour des réponses rapides

GPT-4o traite divers types de données pour des réponses rapides

GPT-4o aide à résoudre une équation algébrique écrite à la main dans le cadre de la démonstration d’aujourd’hui OpenAI


La plateforme ChatGPT d’OpenAI a franchi une étape significative avec l’introduction de GPT-4o. Ce modèle de pointe peut analyser des entrées audio, visuelles et textuelles, fournissant des réponses dans le cadre d’une conversation en temps réel avec un agent IA qui semble remarquablement humain.

Dévoilé lors d’un événement de lancement en ligne le lundi 13 mai par Mira Murati, CTO d’OpenAI, GPT-4o est salué comme un pas vers une interaction homme-machine considérablement plus fluide. Le ‘o’ dans son nom signifie “omni”.

Les performances et la rentabilité de GPT-4o

Axé sur l’amélioration de l’expérience utilisateur pour les utilisateurs de services gratuits, il affirme correspondre aux performances du modèle payant GPT-4 Turbo dans le traitement du texte et du code, tout en étant également plus rapide et 50 % plus rentable en termes d’utilisation de l’API. Cela permet une intégration transparente dans des applications tierces à moindre coût.

Pour initier l’interaction, les utilisateurs prononcent simplement “Salut, ChatGPT”, suscitant une réponse parlée animée de l’agent.

Ils peuvent ensuite formuler leur requête en langage naturel, complétée par des entrées textuelles, audio et/ou visuelles au besoin – ces dernières comprenant des images, des flux vidéo en direct de leur appareil photo, ou virtuellement toutes autres données visuelles que l’agent peut interpréter.

Des temps de réponse comparables et des capacités multilingues

En ce qui concerne les entrées audio, l’IA affiche un temps de réponse moyen de 320 millisecondes, un chiffre comparable aux temps de réponse conversationnels humains, selon l’entreprise. De plus, le système est actuellement compétent dans plus de 50 langues.

Lors de l’annonce et de la démonstration d’aujourd’hui, il n’y avait pas de retards perceptibles dans les réponses de l’agent, qui étaient remarquablement imprégnées d’émotions humaines – loin de ressembler à HAL 9000. De plus, les utilisateurs pouvaient interrompre les réponses de l’agent sans interrompre le déroulement de la conversation.

Les capacités multifacettes de GPT-4o

Dans la démonstration, GPT-4o a rempli divers rôles, tels que l’interprétation d’une conversation italo-anglaise entre deux individus, l’aide à la résolution d’une équation algébrique écrite à la main, l’analyse de sections spécifiques de code de programmation, et même l’improvisation d’une histoire du soir mettant en scène un robot.

Pour conclure, GPT-4o est désormais accessible pour une utilisation générale, avec des fonctionnalités supplémentaires prévues pour être dévoilées dans les semaines à venir. Vous pouvez découvrir ses capacités de première main dans la vidéo fournie ci-dessous.


Lisez l’article original sur : New Atlas

Pour en savoir plus :  AI-Created Gene Editing Tools Successfully Alter Human DNA

Partager cette publication