Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. LLaMA — Wikipédia
LLaMA — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
LLaMA

Informations
Créateur Meta AIVoir et modifier les données sur Wikidata
Développé par MetaVoir et modifier les données sur Wikidata
Première version 24 février 2023
Dernière version 4 (5 avril 2025)[1]Voir et modifier les données sur Wikidata
Dépôt github.com/meta-llama/llamaVoir et modifier les données sur Wikidata
Écrit en PythonVoir et modifier les données sur Wikidata
Type Grand modèle de langage
Famille de grands modèles de langage (d)
Modèle de langage
MarqueVoir et modifier les données sur Wikidata
Site web www.llama.comVoir et modifier les données sur Wikidata

modifier - modifier le code - voir Wikidata (aide)

LLaMA (Large Language Model Meta AI) est un grand modèle linguistique développé par Meta et rendu publiquement accessible[2]. Deux autres versions du modèle plus spécifiques, optimisées à partir de LLaMA, ont également été publiées par Meta : un agent conversationnel, appelé Llama Chat, et un assistant de programmation, Code Llama. D'autres modèles de langage comme Alpaca ont également vu le jour en entrainant les poids de Llama sur de nouvelles données[3].

Origine du nom

[modifier | modifier le code]

LLaMA est l'acronyme de Large Language Model Meta AI (Grand modèle de Language Meta IA en français). Cet acronyme est l'homographe du nom anglais (lui-même emprunté au quechua, via l'espagnol)[4] du lama, un camélidé sud-américain. Cette ressemblance est probablement souhaitée pour une meilleure mémorabilité.

De ce choix de nom est dérivé celui d'Alpaca, l'agent conversationnel basé sur LLaMA, car l'alpaga (alpaca en anglais) est un autre camélidé d'Amérique du Sud.

Version initiale

[modifier | modifier le code]

La version initiale a été publiée en février 2023, en quatre tailles différentes : 7, 13, 33 et 65 milliards de paramètres. À l'origine, seuls la méthodologie, l'architecture des modèles et les résultats expérimentaux furent publiés. Seuls certains chercheurs qui en ont fait la demande peuvent avoir accès au modèle[5].

Le 3 mars 2023, une semaine après la publication de la méthodologie et de l'architecture, un fichier torrent contenant l'intégralité du modèle est publié sur 4chan[6].

Llama 2

[modifier | modifier le code]

En juillet 2023, Meta publie une deuxième version, en trois tailles différentes cette fois: 7B[7], 13B[8] et 70B[9]. La version en 34B a été entrainé par Meta également mais dû à un manque de temps, ils n'ont pas pu publier ce modèle. L'architecture est sensiblement la même mais l'entrainement a été réalisé à partir d'un corpus environ 40% plus volumineux[10]. Cette-fois, Meta publie elle-même les paramètres dès la sortie du modèle.

Avec la publication de Llama 2, Meta publie Llama 2-Chat, une version de Llama optimisée pour les dialogues[10]. Trois versions du modèle sont disponibles: 7B, 13B et 70B.

Code Llama

[modifier | modifier le code]

Peu de temps après, en août 2023, Meta dévoile Code Llama et ses variations Code Llama Instruct et Code Llama Python[11]. Ces modèles sont basés sur Llama 2 et ajustés finement sur du code. Ils sont d'abord disponibles en open source en version 7B, 13B et 34B, puis le 29 janvier 2024 une version en 70B est également publiée[12].

Llama 3

[modifier | modifier le code]

Le 18 avril 2024, Meta lança Llama 3 en version 8 et 70 milliards de paramètres. Ces modèles furent pré-entraînés sur environ 15 billions de jetons de texte provenant de « sources disponibles publiquement »[13], les modèles d'instructions étant fine-tunés sur « des ensembles de données d'instructions disponibles publiquement, ainsi que sur plus de 10 millions d'exemples annotés par des humains ». Meta prévoit de sortir des modèles multimodaux, des modèles capables de converser dans plusieurs langues, et des modèles avec des fenêtres de contexte plus larges. Une version de 405 milliards de paramètres est annoncée à la mi-2024[14].

Trois sous-versions de Llama 3 sont ensuite lancées par Meta :

  • Llama 3.1 fin juillet 2024 [15],[16]
  • Llama 3.2 fin septembre 2024 [17],[18]
  • Llama 3.3 début décembre 2024

Avec Llama 3.2, Meta introduit deux modèles multimodaux : Llama 3.2 90B et 11B. Le groupe sort aussi deux premiers mini-modèles, 1B et 3B, destinés à être utilisés sur des terminaux légers (ordinateurs portables ordinaires et smartphones).

Poids ouverts plutôt qu'Open source

[modifier | modifier le code]

LLaMA se présente comme un modèle ouvert, mais ni le code d'entrainement ni les données d'entrainement ne le sont, ce qui fait préférer le terme de « poids ouverts »[19],[20]. Le dépôt contient le code source d'inférence et de la documentation (guide de l'utilisateur, guide de l'utilisateur responsable et model card) permettant une bonne utilisation du modèle. Utiliser LLaMA implique d'accepter les termes de la licence de LLaMA qui notamment interdit certains cas d'utilisation du modèle[21]. En respectant les termes de la licence, il est possible d'utiliser, de reproduire, de distribuer, de copier, de créer des œuvres dérivées et d'apporter des modifications aux différents composants de LLaMA mis à disposition, y compris pour une activité lucrative.

Tout comme tous les autres grands modèles linguistiques actuels (août 2024), il nécessite que ces paramètres (poids) soient stockés dans la mémoire vive, pour s'exécuter à une vitesse raisonnable, ce qui rend les grands modèles souvent inaccessibles pour des ordinateurs personnels. Certains services en ligne proposent de passer par leur serveur pour utiliser LLaMA.

Partenariat avec Reuters

[modifier | modifier le code]

Après l'annonce d'un partenariat entre Meta et Reuters pour l'utilisation des contenus de l'agence dans les chatbots Meta AI, basés sur Llama, il n'était pas clair si ces articles allaient intégrer le corpus de formation de Llama, ou seulement être utilisés comme sources (en direct) pour répondre à des requêtes spécifiques (actualité, politique, économie...)[22].

Notes et références

[modifier | modifier le code]
  1. ↑ (en) « The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation » (consulté le 16 décembre 2025)
  2. ↑ (en) « Llama », sur Llama (consulté le 26 février 2024)
  3. ↑ « Alpaca: A Strong, Replicable Instruction-Following Model », sur crfm.stanford.edu (consulté le 26 février 2024)
  4. ↑ https://www.merriam-webster.com/dictionary/llama
  5. ↑ Antoine Messina, « LLaMA, le modèle de langage de Meta, a fuité », sur Siècle Digital, 10 mars 2023 (consulté le 26 février 2024)
  6. ↑ Mélicia Poitiers, « LLaMA, le dernier modèle d'IA générative de Meta, a été partagé illicitement sur Internet », Usine Digitale,‎ 9 mars 2023 (lire en ligne, consulté le 26 février 2024)
  7. ↑ « meta-llama/Llama-2-7b · Hugging Face », sur huggingface.co (consulté le 26 février 2024)
  8. ↑ « meta-llama/Llama-2-13b · Hugging Face », sur huggingface.co (consulté le 26 février 2024)
  9. ↑ « meta-llama/Llama-2-70b · Hugging Face », sur huggingface.co (consulté le 26 février 2024)
  10. ↑ a et b Hugo Touvron, Louis Martin, Kevin Stone et Peter Albert, « Llama 2: Open Foundation and Fine-Tuned Chat Models », arXiv,‎ 2023 (DOI 10.48550/ARXIV.2307.09288, lire en ligne, consulté le 26 février 2024)
  11. ↑ (en) « Introducing Code Llama, a state-of-the-art large language model for coding », sur ai.meta.com (consulté le 26 février 2024)
  12. ↑ « Avec Code Llama 70B, Meta améliore la génération de code - Le Monde Informatique », sur LeMondeInformatique, 30 janvier 2024 (consulté le 26 février 2024)
  13. ↑ (en) « LLaMa3 Model », 6 mai 2024 (consulté le 6 mai 2024)
  14. ↑ (en-US) Armand Ruiz, « Meta releases new Llama 3.1 models, including highly anticipated 405B parameter variant », sur IBM Blog, 23 juillet 2024 (consulté le 15 août 2024)
  15. ↑ « Meta sort Llama 3.1, un modèle d'IA gratuit encore plus puissant que ses concurrents », sur www.lesnumeriques.com, 24 juillet 2024 (consulté le 3 octobre 2024)
  16. ↑ « Avec Llama 3.1, 405B, Meta dans la cour des LLM XXL - Le Monde Informatique », sur LeMondeInformatique, 24 juillet 2024 (consulté le 3 octobre 2024)
  17. ↑ Victor Lafosse-Barthès, « Ce qu'il faut savoir sur Llama 3.2 », sur Ariel World, 3 octobre 2024 (consulté le 3 octobre 2024)
  18. ↑ Célia Séramour, « Llama 3.2 : Meta pousse une mise à niveau majeure avec des versions multimodales et compactes », Usine-digitale.fr,‎ 26 septembre 2024 (lire en ligne)
  19. ↑ (en) « Meta’s LLaMa 2 license is not Open Source », sur opensource.org
  20. ↑ (en) « GitHub - facebookresearch/llama at llama_v1 », sur GitHub (consulté le 26 février 2024)
  21. ↑ (en) « Download Llama », sur Llama (consulté le 26 février 2024)
  22. ↑ « Intelligence artificielle: Meta signe un accord avec l’agence de presse Reuters », sur Le Figaro, 25 octobre 2024 (consulté le 28 octobre 2024)

Voir aussi

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
  • ChatGPT
  • Google Gemini
  • Falcon 180B

Liens externes

[modifier | modifier le code]

  • (en) Site officielVoir et modifier les données sur Wikidata
v · m
Intelligence artificielle générative
Modèles
  • Texte-image
  • Texte-vidéo
Texte
  • Character.ai
  • Claude
  • DeepSeek
  • Gemini
  • GPT-3
  • GPT-4
  • Grok
  • Le Chat
  • Microsoft Copilot
  • SearchGPT
  • LLaMA
Images
  • Adobe Firefly
  • DALL-E
  • Flux
  • Midjourney
  • Stable Diffusion
Vidéos
  • Adobe Firefly
  • Sora
  • Veo
  • HeyGen
Musiques
  • Suno AI
  • Udio
Prompt
  • Prompt art
  • Ingénierie de prompt
Entreprises
  • Aleph Alpha
  • Anthropic
  • DeepSeek
  • Google DeepMind
  • H Company
  • Hugging Face
  • Meta AI
  • Mistral AI
  • OpenAI
  • Perplexity AI
  • xAI
Critiques
  • Droits d'auteur
  • Perroquet stochastique
  • Slop
  • icône décorative Portail de l’intelligence artificielle
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=LLaMA&oldid=224698185 ».
Catégories :
  • Logiciel écrit en Python
  • Intelligence artificielle
  • Logiciel sorti en 2023
  • Grand modèle de langage
Catégories cachées :
  • Page utilisant P170
  • Page utilisant P178
  • Page utilisant P348
  • Page utilisant P1324
  • Page utilisant P277
  • Logiciel catégorisé automatiquement par langage d'écriture
  • Page utilisant P31
  • Page utilisant P856
  • Article utilisant une Infobox
  • Page utilisant un modèle Bases inactif
  • Article utilisant le modèle Dictionnaires inactif
  • Page utilisant le modèle Autorité inactif
  • Portail:Intelligence artificielle/Articles liés
  • Portail:Informatique/Articles liés
  • Portail:Technologies/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id