Logo Spiria

Meta se lance dans l’assistant de codage

24 août 2023.

Llama, your next coding assistant.

Votre prochain assistant codeur. © iStock.

Après Copilot de GitHub et CodeWhisperer d’Amazon, voici Code Llama de Meta. Ce grand modèle de langage (LLM) peut utiliser des invites textuelles pour générer et analyser du code, et comme les autres assistants, il a pour but de rendre les flux de travail plus rapides et plus efficaces pour les développeurs et d’abaisser la barrière à l’entrée pour les personnes qui apprennent à coder. Le modèle est distribué gratuitement sous une licence maison. Il repose sur le modèle de langage Llama 2, et grâce à son entraînement spécifique, il peut générer du code et du langage naturel à propos du code, à partir d’invites en code et en langage naturel (par exemple, “Écris-moi une fonction qui produit la suite de Fibonacci”). Il peut également être utilisé pour compléter le code et le déboguer. Il prend en charge la plupart des langages de programmation les plus utilisés aujourd’hui, notamment Python, C++, Java, PHP, Typescript (Javascript), C# et Bash.

Le modèle est proposé en trois tailles avec respectivement 7, 13 et 34 milliards de paramètres. Les deux derniers ont été entraînés avec la capacité FIM (fill-in-the-middle, remplir-au-milieu), ce qui leur permet d’insérer du code dans du code existant. Le choix du modèle dépend de la puissance de calcul disponible et de la latence désirée. Meta indique que le modèle 7B peut être servi sur un seul GPU. Il existe aussi deux variantes spécialisées : Code Llama - Python et Code Llama - Instruct. Le premier, comme son nom l’indique, est optimisé pour la programmation en Python, et le second est optimisé pour la compréhension des instructions en langage naturel. Comme d’habitude, Meta demeure discrète sur l’origine de ses données d’entraînement.

Meta Newsroom, “Introducing Code Llama, an AI tool for coding.”

2023-08-24