Tekiano :: TeK'n'Kult

Gemini le modèle d’intelligence artificielle multimodale développé par Google AI lancé (vidéo)

Gemini le modèle d’intelligence artificielle multimodale développé par Google AI est lancé. Si ChatGPT 3.5 ne reconnait pas encore ce modèle d’IA, Bard annonce que Gemini est considéré comme l’un des modèles d’IA les plus puissants au monde.

Gemini est conçu dès le départ pour la multimodalité, permettant de raisonner de manière transparente à travers le texte, les images, la vidéo, l’audio et le code, lit-on sur une section dédié du site deepmind.Google.

Gemini permet de traiter et de comprendre des informations provenant de différentes sources. Par exemple, Gemini peut lire un article de presse, regarder une vidéo et écouter une chanson, et puis combiner ces informations pour générer un nouveau texte, une nouvelle image ou une nouvelle vidéo.

Eli Collins, le vice-président de Google DeepMind déclare que C’est le modèle d’IA le plus conséquent, le plus doué et aussi le plus général développée par le laboratoire de recherche en IA de Google.

Démonstration dans cette vidéo partagée dans le compte officiel de Google sur la plateforme X d’une durée de 6min22 intitulée “Let’s go hands-on with #GeminiAI. ” (Allons-y avec #GeminiAI) :

Concrètement Gemini n’essaye pas de traiter seulement du texte comme le fait à chaque fois le ChatGPT d’OpenAI, ce nouveau modèle d’intelligence artificielle de Google est capable d’analyser en plus du texte, des images, du code et du son et de donner par la suite des réponses pour les utilisateurs en fonction de leurs demandes et les orientations désirées.

Impressionnant! Gemini est actuellement disponible directement sur Google Bard. Il faudrait néanmoins patienter encore un peu jusqu’au 13 décembre 2023 pour pouvoir intégrer les modèles Gemini dans les applications avec Google AI Studio et Google Cloud Vertex AI.

I.D.

Quitter la version mobile