Passer au contenu principal

Llama de Meta sur Amazon Bedrock

Édifiez l’avenir de l’IA avec Llama

Présentation de Llama 3.3

Modèle 70B adapté aux instructions et uniquement textuel, Llama 3.3 offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu’il est utilisé pour des applications contenant uniquement du texte. Llama 3.3 70B offre des performances similaires à celles de Llama 3.1 405B, tout en ne nécessitant qu’une fraction des ressources de calcul.

L’entraînement complet de Llama 3.3 70B se traduit par de solides capacités de compréhension et de génération pour diverses tâches. Ce modèle prend en charge une IA conversationnelle à hautes performances conçue pour la création de contenu, les applications d’entreprise et la recherche, offrant des fonctionnalités avancées de compréhension linguistique, notamment la synthétisation de texte, la classification, l’analyse des sentiments et la génération de code.

Llama 3.2 90B est le modèle le plus avancé de Meta et est idéal pour les applications d’entreprise. Llama 3.2 est le premier modèle Llama à prendre en charge les tâches de vision, avec une nouvelle architecture de modèle qui intègre des représentations d’encodeurs d’images dans le modèle de langage. Ce modèle excelle en matière de connaissances générales, de génération de textes longs, de traduction multilingue, de codage, de mathématiques et de raisonnement avancé. Il introduit également des fonctionnalités de raisonnement par image, permettant une compréhension sophistiquée des images et un raisonnement visuel. Ce modèle est idéal pour les cas d’utilisation suivants : sous-titrage d’images, récupération de texte/image, ancrage visuel, réponse aux questions visuelles et raisonnement visuel, et réponse aux questions visuelles sur document.

Llama 3.2 11B convient à la création de contenu, à l’IA conversationnelle, à la compréhension du langage et aux applications d’entreprise nécessitant un raisonnement visuel. Le modèle présente de solides performances en matière de synthétisation de texte, d’analyse des sentiments, de génération de code et de suivi des instructions, avec la capacité supplémentaire de raisonner sur des images. Ce modèle est idéal pour les cas d’utilisation suivants : sous-titrage d’images, récupération de texte/image, ancrage visuel, réponse aux questions visuelles et raisonnement visuel, et réponse aux questions visuelles sur document.

Llama 3.2 3B offre une expérience d’IA plus personnalisée, avec un traitement intégré à l’appareil. Llama 3.2 3B est conçu pour les applications nécessitant une inférence à faible latence et des ressources de calcul limitées. Il excelle dans les tâches de synthétisation de texte, de classification et de traduction linguistique. Ce modèle est idéal pour les cas d’utilisation suivants : assistants d’écriture mobiles basés sur l’IA et applications de service client.

Llama 3.2 1B est le modèle le plus léger de la collection de modèles Llama 3.2. Il est parfait pour la récupération et la synthèse pour les appareils de périphérie et les applications mobiles. Il permet des fonctionnalités d’IA intégrées à l’appareil tout en préservant la confidentialité des utilisateurs et en minimisant la latence. Ce modèle est idéal pour les cas d’utilisation suivants : gestion des informations personnelles et recherche de connaissances multilingues.

Avantages

LOREM IPSUM

Llama 3.2 offre une expérience d’IA plus personnalisée, avec un traitement intégré à l’appareil. Les modèles Llama 3.2 sont conçus pour être plus efficaces, avec une latence réduite et des performances améliorées, ce qui les rend adaptés à un large éventail d’applications.

La longueur de contexte de 128 000 jetons permet à Llama de capturer des relations encore plus nuancées dans les données.

Les modèles Llama sont entraînés sur plus de 15 mille milliards de jetons provenant de sources de données publiques en ligne afin de mieux comprendre les subtilités du langage.

Llama 3.2 est multilingue et prend en charge huit langues, dont l’anglais, l’allemand, le français, l’italien, le portugais, l’hindi, l’espagnol et le thaï.

L’API gérée d’Amazon Bedrock facilite plus que jamais l’utilisation des modèles Llama. Les organisations de toutes tailles peuvent accéder à la puissance de Llama sans se soucier de l’infrastructure sous-jacente. Amazon Bedrock étant sans serveur, vous n’avez pas à gérer d’infrastructure, et vous pouvez intégrer et déployer en toute sécurité les fonctionnalités d’IA générative de Llama dans vos applications à l’aide des services AWS que vous connaissez déjà. Cela signifie que vous pouvez vous concentrer sur ce que vous faites le mieux : créer vos applications d’IA.

Présentation de Llama

Au cours de la dernière décennie, Meta s’est attachée à mettre des outils entre les mains des développeurs et à favoriser la collaboration et les avancées entre les développeurs, les chercheurs et les organisations. Les modèles Llama sont disponibles dans différentes tailles de paramètres, permettant aux développeurs de choisir le modèle qui correspond le mieux à leurs besoins et à leur budget d’inférence. Les modèles Llama sur Amazon Bedrock offrent un monde de possibilités, car les développeurs n’ont pas à se soucier de la capacité de mise à l’échelle ou de la gestion de l’infrastructure. Amazon Bedrock est une solution clé en main très simple qui permet aux développeurs de commencer à utiliser Llama.

Cas d'utilisation

Les modèles Llama excellent dans la compréhension des images et le raisonnement visuel, les nuances linguistiques, la compréhension contextuelle et les tâches complexes telles que l’analyse des données visuelles, le sous-titrage d’images, la génération de dialogues et la traduction, et peuvent gérer des tâches en plusieurs étapes sans effort. Les modèles Llama conviennent également à de nombreux autres cas d’utilisation, parmi lesquels : le raisonnement et la compréhension visuels sophistiqués, la récupération de texte/image, l’ancrage visuel, la réponse aux questions visuelles sur document, la synthétisation et la précision de texte, la classification des textes, l’analyse des sentiments et le raisonnement par nuances, la modélisation du langage, les systèmes de dialogue, la génération de code et le suivi des instructions.

Versions de modèles

Llama 3.3 70B

Modèle 70B paramétré pour les instructions, contenant uniquement du texte et offrant des performances améliorées par rapport à Llama 3.1 70B, et même par rapport à Llama 3.2 90B dans les applications exclusivement textuelles. Le Llama 3.3 70B offre des performances similaires à celles du Llama 3.1 405B, tout en ne nécessitant qu’une fraction des ressources de calcul.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, espagnol et thaï

Peaufinage pris en charge : non

Cas d’utilisation pris en charge : IA conversationnelle conçue pour la création de contenu, les applications d’entreprise et la recherche, offrant des fonctionnalités avancées de compréhension linguistique, notamment la synthétisation de texte, la classification, l’analyse des sentiments et la génération de code. Le modèle permet également de tirer parti de ses propres résultats pour améliorer d’autres modèles, notamment la génération de données synthétiques et la distillation

Llama 3.2 90B

Modèle multimodal qui prend en charge à la fois des entrées et des sorties de texte et d’image. Idéal pour les applications nécessitant une intelligence visuelle sophistiquée, telles que l’analyse d’images, le traitement de documents, les chatbots multimodaux et les systèmes autonomes.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï

Peaufinage pris en charge : oui

Cas d’utilisation pris en charge : compréhension des images, raisonnement visuel et interaction multimodale, permettant des applications avancées telles que le sous-titrage d’images, la récupération d’images et de textes, l’ancrage visuel, la réponse aux questions visuelles et la réponse aux questions visuelles sur document, avec une capacité unique à raisonner et à tirer des conclusions à partir d’entrées visuelles et textuelles

Llama 3.2 11B

Modèle multimodal qui prend en charge à la fois des entrées et des sorties de texte et d’image. Idéal pour les applications nécessitant une intelligence visuelle sophistiquée, telles que l’analyse d’images, le traitement de documents et les chatbots multimodaux.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï

Peaufinage pris en charge : oui

Cas d’utilisation pris en charge : compréhension des images, raisonnement visuel et interaction multimodale, permettant des applications avancées telles que le sous-titrage d’images, la récupération de texte/image, l’ancrage visuel, la réponse aux questions visuelles et la réponse aux questions visuelles sur document

Llama 3.2 3B

Modèle léger basé uniquement sur du texte, conçu pour fournir des résultats très précis et pertinents. Conçu pour les applications nécessitant une inférence à faible latence et des ressources de calcul limitées. Idéal pour les requêtes et la réécriture rapide, les assistants d’écriture mobiles alimentés par l’IA et les applications de service client, en particulier sur les appareils périphériques où son efficacité et sa faible latence permettent une intégration fluide dans diverses applications, notamment les assistants d’écriture mobiles alimentés par l’IA et les chatbots du service client.

Nombre maximum de jetons : 128 000

Langues : anglais, allemand, français, italien, portugais, hindi, espagnol et thaï

Peaufinage pris en charge : oui

Cas d’utilisation pris en charge : génération avancée de texte, synthèse, analyse des sentiments, intelligence émotionnelle, compréhension du contexte et raisonnement fondé sur le bon sens

Nomura utilise les modèles Llama de Meta sur Amazon Bedrock pour démocratiser l’IA générative

Aniruddh Singh, Executive Director et Enterprise Architect de Nomura, décrit le parcours de l’institution financière pour démocratiser l’IA générative à l’échelle de l’entreprise en utilisant Amazon Bedrock et les modèles Llama de Meta. Amazon Bedrock fournit un accès essentiel aux principaux modèles de fondation tels que Llama, permettant une intégration fluide. Llama offre des avantages clés à Nomura, notamment une innovation plus rapide, une transparence, des barrières de protection contre les biais et des performances robustes en matière de synthétisation de texte, de génération de code, d’analyse des journaux et de traitement des documents. 

TaskUs révolutionne l’expérience client en utilisant les modèles Llama de Meta sur Amazon Bedrock

TaskUs, l’un des principaux fournisseurs de services numériques externalisés et d’expérience client de nouvelle génération destinés aux entreprises les plus innovantes du monde, aide ses clients à représenter, protéger et développer leurs marques. Sa plateforme innovante TaskGPT, alimentée par Amazon Bedrock et les modèles Llama de Meta, permet à ses équipes de fournir un service exceptionnel. TaskUs développe des outils sur TaskGPT qui exploitent Amazon Bedrock et Llama pour la paraphrase, la génération de contenu, la compréhension et la gestion de tâches complexes de manière rentable.