Saltar al contenido principal

Amazon Bedrock

Llama de Meta en Amazon Bedrock

Construya el futuro de la IA con Llama

Presentación de Llama 3.3

Llama 3.3 es un modelo de solo texto de 70B, ajustado a instrucciones, que proporciona un rendimiento mejorado en comparación con Llama 3.1 70B y Llama 3.2 90B cuando se utiliza para aplicaciones de solo texto. Llama 3.3 70B ofrece un rendimiento similar al de Llama 3.1 405B pero necesitando tan solo una parte de los recursos computacionales.

El entrenamiento integral de Llama 3.3 70B ofrece capacidades de comprensión y generación sólidas en diversas tareas. Este modelo admite IA conversacional de alto rendimiento diseñada para la creación de contenido, las aplicaciones empresariales y la investigación. Asimismo, ofrece capacidades avanzadas de comprensión del lenguaje, que incluyen resumen de textos, clasificación, análisis de opiniones y generación de código.

Llama 3.2 90B es el modelo más avanzado de Meta, perfecto para aplicaciones de nivel empresarial. Llama 3.2 es el primer modelo de Llama que admite tareas de visión, con una nueva arquitectura de modelo que integra representaciones de codificadores de imágenes en el modelo de lenguaje. Este modelo destaca en conocimientos generales, generación de textos largos, traducción multilingüe, codificación, matemáticas y razonamiento avanzado. También introduce capacidades de razonamiento de imágenes, lo que permite una comprensión de imágenes y un razonamiento visual avanzados. Este modelo es ideal para los siguientes casos de uso: subtitulado de imágenes, recuperación de imágenes a partir de texto, fundamentación visual, respuesta a preguntas visuales y razonamiento visual, así como respuesta a preguntas visuales en documentos.

Llama 3.2 11B está diseñado para la creación de contenido, la IA conversacional, la comprensión del lenguaje y las aplicaciones empresariales que necesitan razonamiento visual. El modelo demuestra un gran rendimiento en tareas de resumen de textos, análisis de sentimientos, generación de código y seguimiento de instrucciones, con la capacidad añadida de razonamiento sobre imágenes. Este modelo es ideal para los siguientes casos de uso: subtitulado de imágenes, recuperación de imágenes a partir de texto, fundamentación visual, respuesta a preguntas visuales y razonamiento visual, así como respuesta a preguntas visuales en documentos.

Llama 3.2 3B ofrece una experiencia de IA más personalizada, con procesamiento en el dispositivo. Llama 3.2 3B está diseñado para aplicaciones que requieren inferencias de baja latencia y recursos de computación limitados. Destaca por su capacidad para resumir, clasificar y traducir textos. Este modelo es perfecto para los siguientes casos de uso: asistentes de escritura móviles con tecnología de IA y aplicaciones de atención al cliente.

Llama 3.2 1B es el modelo más ligero de la colección de modelos Llama 3.2 y es perfecto de cara a la recuperación y al resumen para dispositivos periféricos y aplicaciones móviles. Activa capacidades de IA en el dispositivo a la vez que protege la privacidad del usuario y minimiza la latencia. Este modelo es ideal para los siguientes casos de uso: gestión de información personal y recuperación de conocimientos multilingües.

Beneficios

LOREM IPSUM

Llama 3.2 ofrece una experiencia de IA más personalizada, con procesamiento en el dispositivo. Los modelos Llama 3.2 están diseñados para ser más eficientes, con una latencia reducida y un rendimiento mejorado, lo que los hace adecuados para una amplia gama de aplicaciones.

La longitud de contexto de 128 000 tokens permite a Llama identificar conexiones más complejas en los datos.

Los modelos Llama se entrenan con más de quince billones de tokens de orígenes de datos públicos en línea para comprender mejor las complejidades del lenguaje.

Llama 3.2 es multilingüe y admite ocho idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés.

La API administrada de Amazon Bedrock hace que usar modelos Llama sea más fácil que nunca. Organizaciones de todos los tamaños pueden acceder a la potencia de Llama sin preocuparse de la infraestructura subyacente. Dado que Amazon Bedrock no tiene servidores, no tiene que administrar ninguna infraestructura y puede integrar y desplegar de forma segura las capacidades de IA generativa de Llama en sus aplicaciones utilizando los servicios de AWS con los que ya está familiarizado. Esto significa que puede centrarse en lo que mejor sabe hacer: crear sus aplicaciones de IA.

Conozca Llama

Durante la última década, Meta se ha centrado en ofrecer herramientas a los desarrolladores así como en fomentar la colaboración y los avances entre desarrolladores, investigadores y organizaciones. Los modelos Llama están disponibles en una gama de tamaños de parámetros, lo que permite a los desarrolladores seleccionar el modelo que mejor se adapte a sus necesidades y presupuesto de inferencia. Los modelos Llama en Amazon Bedrock abren un mundo de posibilidades, ya que los desarrolladores no tienen que preocuparse de la escalabilidad ni de la administración de la infraestructura. Amazon Bedrock es una forma muy sencilla de que los desarrolladores empiecen a usar Llama.

Casos de uso

Los modelos Llama destacan en lo que respecta a la comprensión de imágenes y razonamiento visual, matices lingüísticos, comprensión contextual y tareas complejas, como análisis de datos visuales, descripción de imágenes, generación de diálogos y traducción, y pueden administrar tareas de varios pasos sin esfuerzo. Otros casos de uso que se ajustan a los modelos Llama son la comprensión visual y el razonamiento sofisticados, la recuperación de imágenes a partir de texto, la fundamentación visual, la respuesta a preguntas visuales en documentos, el resumen y la precisión de textos, la clasificación de textos, el análisis de sentimientos y el razonamiento de matices, el modelado del lenguaje, los sistemas de diálogo, la generación de código y el seguimiento de instrucciones.

Versiones del modelo

Llama 3.3 70B

Modelo 70B con instrucciones de solo texto que proporciona un rendimiento mejorado en comparación con Llama 3.1 70B y Llama 3.2 90B cuando se usa para aplicaciones de solo texto. Llama 3.3 70B ofrece un rendimiento similar al Llama 3.1 405B, aunque solo requiere una fracción de los recursos informáticos.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, español y tailandés

Compatible con el refinamiento: no

Casos de uso compatibles: IA conversacional diseñada para la creación de contenido, aplicaciones empresariales e investigación que ofrece capacidades avanzadas de comprensión del lenguaje, como el resumen de textos, la clasificación, el análisis de opiniones y la generación de código El modelo también es compatible con la capacidad de aprovechar los resultados del modelo a fin de mejorar otros modelos, incluida la generación y destilación de datos sintéticos.

Llama 3.2 90B

Modelo multimodal que toma entradas y salidas de texto e imágenes. Ideal para aplicaciones que requieren inteligencia visual sofisticada, como el análisis de imágenes, el procesamiento de documentos, los chatbots multimodales y los sistemas autónomos.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés

Compatible con el refinamiento: sí

Casos de uso compatibles: comprensión de imágenes, razonamiento visual e interacción multimodal que permiten aplicaciones avanzadas como la subtitulación de imágenes, la recuperación de imágenes a partir de texto, la base visual, la respuesta visual a preguntas y a preguntas de documentos, con una capacidad única de razonar y sacar conclusiones a partir de entradas visuales y textuales

Llama 3.2 11B

Modelo multimodal que toma entradas y salidas de texto e imágenes. Ideal para aplicaciones que requieren inteligencia visual sofisticada, como el análisis de imágenes, el procesamiento de documentos y los chatbots multimodales.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés

Compatible con el refinamiento: sí

Casos de uso compatibles: comprensión de imágenes, razonamiento visual e interacción multimodal que permiten aplicaciones avanzadas como el subtitulado de imágenes, la recuperación de imágenes a partir de texto, la base visual, la respuesta visual a preguntas y a preguntas de documentos

Llama 3.2 3B

Modelo ligero de solo texto destinado a la provisión de resultados de gran precisión y pertinencia. Está diseñado para aplicaciones que requieren inferencias de baja latencia y recursos de computación limitados. Ideal para consultas y peticiones de reescritura, asistentes de escritura móviles con tecnología de inteligencia artificial y aplicaciones de servicio al cliente, especialmente en dispositivos periféricos, donde su eficiencia y baja latencia permiten una integración perfecta en varias aplicaciones, incluidos los asistentes de escritura móviles impulsados por IA y los chatbots de servicio al cliente.

Cantidad máxima de tokens: 128 000

Idiomas: inglés, alemán, francés, italiano, portugués, hindi, español y tailandés

Compatible con el refinamiento: sí

Casos de uso compatibles: generación avanzada de texto, resumen, análisis de opiniones, inteligencia emocional, comprensión contextual y razonamiento de sentido común

Nomura utiliza modelos Llama de Meta en Amazon Bedrock para democratizar la IA generativa

Aniruddh Singh, director ejecutivo y arquitecto empresarial de Nomura, describe el viaje de la institución financiera para democratizar la IA generativa en toda la empresa utilizando Amazon Bedrock y los modelos Llama de Meta. Amazon Bedrock proporciona acceso crítico a modelos fundacionales líderes como Llama, lo que permite una integración perfecta. Llama ofrece ventajas clave a Nomura, entre las que se incluyen una innovación más rápida, transparencia, barreras de protección contra sesgos y un rendimiento sólido en el resumen de textos, la generación de código, el análisis de registros y el procesamiento de documentos. 

TaskUs revoluciona la experiencia del cliente utilizando modelos Llama de Meta en Amazon Bedrock

TaskUs, proveedor líder de servicios digitales externalizados y experiencia de cliente de nueva generación para las empresas más innovadoras del mundo, ayuda a sus clientes a representar, proteger y hacer crecer sus marcas. Su innovadora plataforma TaskGPT, impulsada por Amazon Bedrock y los modelos Llama de Meta, permite a los miembros del equipo ofrecer un servicio excepcional. TaskUs construye herramientas sobre TaskGPT que utilizan Amazon Bedrock y Llama para el parafraseo, la generación de contenidos, la comprensión y la gestión de tareas complejas de forma rentable.