Meta se lance dans le domaine de l’intelligence artificielle. Pour concurrencer le désormais incontournable ChatGPT, le groupe de Mark Zuckerberg a présenté un modèle de langage appelé LLaMA.
Un peu en retrait des autres titans de la Silicon Valley, Meta se lance dans la course à l’intelligence artificielle générative.
Meta lance LLaMA une alternative à ChatGPT
Sur son compte Facebook, Mark Zuckerberg PDG et fondateur de Meta, vient d’annoncer le lancement de son alternative à ChatGPT :
« Aujourd’hui, nous publions un nouveau modèle de langage d’IA à la pointe de la technologie appelé LLaMA, conçu pour aider les chercheurs à faire avancer leurs travaux » .
Miroir du GPT d’OpenAI et du LaMDA de Google, LLaMA pour Large Language Model Meta AI, est un modèle de langage capable de générer des textes, de répondre à des questions et de résoudre des problèmes logiques. Le modèle se base sur des probabilités statistiques pour répondre aux questions de ses interlocuteurs.
Meta dans le domaine de l’intelligence artificielle
Notez qu’il ne s’agit en aucun cas de la première incursion de Meta dans le domaine de l’intelligence artificielle. Par le passé, le groupe a présenté plusieurs outils basés sur le machine learning . On se souvient notamment de Make-A-Video, une IA capable de concevoir une courte vidéo à partir d’un texte, ou de CICERO, le réseau de neurones qui négocie comme un être humain.
Meta joue la carte de la prudence
Contrairement à Microsoft, Meta joue la carte de la prudence . La firme de Menlo Park réservera d’abord le modèle de langage aux chercheurs qui en feront la demande. A ce stade, il ne fait aucun doute que les internautes peuvent converser avec le modèle de langage. Grâce à ce « modèle de recherche ouvert » , Meta affirme vouloir faire avancer les innovations liées à l’IA.
Sur son site internet, la firme précise que « des recherches supplémentaires sont encore nécessaires pour gérer les risques de biais, de commentaires toxiques et d’hallucinations ». C’est pourquoi LLaMA n’est pas accessible au grand public pour le moment.
Quatre versions de LLaMA, avec des paramètres allant de 7 à 65 milliards
Meta explique qu’il se contente sciemment de la taille de son modèle de langage par rapport à la concurrence. Celui-ci ne fonctionne que sur un maximum de 65 milliards de paramètres, contre 175 milliards pour le GPT-3. Pour faciliter les tests, Meta a en effet développé quatre versions de LLaMA, avec des paramètres allant de 7 à 65 milliards. Les paramètres déterminent l’aptitude au traitement d’un modèle. Plus il y a de paramètres, plus un modèle peut fournir des réponses précises.
Néanmoins, Meta affirme que LLaMA est capable de dépasser de nombreux modèles de langage rivaux malgré sa quantité modeste de paramètres. Entièrement open source, le modèle ne repose que sur des données publiques, ce qui le différencie également de GPT-3.
Intégration future dans whatsApp et Instagram
Pour soutenir le développement de ses travaux, l’entreprise vient de réunir de nombreuses équipes travaillant sur l’IA générative à travers l’entreprise en un seul groupe » , annonce Zuckerberg dans une autre publication. Ce groupe se concentre sur la conception d’expériences et d’« outils créatifs » basés sur l’intelligence artificielle générative.