Amazon S3
Preguntas frecuentes sobre Amazon S3
Temas de la página
- Preguntas frecuentes sobre los aspectos generales de S3
20
- Regiones de AWS
6
- Facturación
10
- S3 Vectors
12
- Amazon S3 e IPv6
4
- Notificaciones de eventos de S3
5
- Amazon S3 Transfer Acceleration
12
- Seguridad
14
- Concesiones de acceso de S3
19
- Puntos de acceso de S3
13
- Durabilidad y protección de datos
23
- Clases de almacenamiento
2
- S3 Intelligent-Tiering
15
- S3 Standard
2
- S3 Express One Zone
16
- S3 Standard – Acceso poco frecuente (S3 Standard-IA)
8
- S3 One Zone-Infrequent Access (S3 One Zone-IA)
6
- Clase de almacenamiento Amazon S3 Glacier Instant Retrieval
8
- Clase de almacenamiento Amazon S3 Glacier Flexible Retrieval
10
- Amazon S3 Glacier Deep Archive
10
- S3 en Outposts
1
- Administración de almacenamiento
46
- Análisis e información de almacenamiento
12
- Consultas in situ
4
- Replicación
32
- Procesamiento de datos
9
- Acceso a los datos
20
- Navegador de almacenamiento para Amazon S3
9
Preguntas frecuentes sobre los aspectos generales de S3
Abrir todo¿Qué es Amazon S3?
¿Qué puedo hacer con Amazon S3?
¿Cómo puedo empezar a usar Amazon S3?
¿Qué puedo hacer con Amazon S3 que no pueda hacer con una solución local?
¿Qué tipo de datos puedo almacenar en Amazon S3?
¿Cuántos datos puedo almacenar en Amazon S3?
¿Qué es un cucharón S3 de uso general?
¿Qué es un bucket de directorio S3?
¿Qué es un cubo de mesa S3?
Un bucket de tablas está diseñado específicamente para almacenar tablas con el formato Apache Iceberg. Utilice Tablas de Amazon S3 para crear grupos de tablas y configurar permisos a nivel de tabla en tan solo unos pasos. Los buckets de tablas S3 están optimizados específicamente para las cargas de trabajo de análisis y machine learning. Gracias a la compatibilidad integrada con Apache Iceberg, puede consultar datos tabulares en S3 con motores de consulta populares, como Amazon Athena, Amazon Redshift y Apache Spark. Utilice los buckets de tablas de S3 para almacenar datos tabulares, como las transacciones de compra diarias, los datos de los sensores de secuencias o las impresiones de anuncios, como una tabla Iceberg en Amazon S3 y, a continuación, interactúe con esos datos mediante funciones de análisis.
¿Qué es un cubo vectorial S3?
Un depósito vectorial está diseñado específicamente para almacenar y consultar vectores. Dentro de un bucket vectorial, no se utilizan las API de objetos de S3, sino las API vectoriales dedicadas para escribir datos vectoriales y consultarlos en función del significado semántico y la similitud. Puede controlar el acceso a sus datos vectoriales con los mecanismos de control de acceso existentes en Amazon S3, incluidas las políticas de bucket e IAM. Todas las escrituras en un bucket vectorial son muy consistentes, lo que significa que puede acceder inmediatamente a los vectores agregados más recientemente. A medida que escribe, actualiza y elimina vectores a lo largo del tiempo, los depósitos vectoriales de S3 optimizan automáticamente los datos vectoriales almacenados en ellos para lograr una relación precio-rendimiento óptima, incluso a medida que los conjuntos de datos escalan y evolucionan.
¿Cuál es la diferencia entre un depósito de uso general, un depósito de directorio, un depósito de tabla y un depósito vectorial?
Un bucket es un contenedor de objetos y tablas almacenados en Amazon S3 y puede almacenar cualquier cantidad de objetos en un bucket. Los buckets de uso general son el tipo de bucket de S3 original, y un único bucket de uso general puede contener objetos almacenados en todas las clases de almacenamiento, excepto en S3 Express One Zone. Se recomiendan para la mayoría de los casos de uso y patrones de acceso. Los bucket de directorio de S3 solo permiten almacenar objetos en la clase de almacenamiento S3 Express One Zone, lo que proporciona un procesamiento de datos más rápido dentro de una única zona de disponibilidad. Se recomiendan para casos de uso de baja latencia. Cada bucket de directorio de S3 puede admitir hasta 2 millones de transacciones por segundo (TPS), independientemente de la cantidad de directorios del bucket. Los buckets de tablas de S3 están diseñados específicamente para almacenar datos tabulares en S3, como las transacciones de compra diarias, los datos de sensores de secuencias o las impresiones de anuncios. Al usar un bucket de tablas, sus datos se almacenan como una tabla Iceberg en S3 y, a continuación, puede interactuar con esos datos mediante funciones de análisis, como transacciones a nivel de fila, instantáneas de tablas consultables y más, todas administradas por S3. Además, los buckets de tablas realizan un mantenimiento continuo de las tablas para optimizar automáticamente la eficiencia de las consultas a lo largo del tiempo, incluso a medida que el lago de datos escala y evoluciona. Los cubos vectoriales S3 están diseñados específicamente para almacenar y consultar vectores. Dentro de un depósito vectorial, se utilizan API vectoriales dedicadas para escribir datos vectoriales y consultarlos en función del significado semántico y la similitud. Puede controlar el acceso a sus datos vectoriales mediante los mecanismos de control de acceso existentes en Amazon S3, incluidas las políticas de bucket e IAM. A medida que escribe, actualiza y elimina vectores a lo largo del tiempo, los depósitos vectoriales de S3 optimizan automáticamente los datos vectoriales almacenados en ellos para lograr una relación precio-rendimiento óptima, incluso a medida que los conjuntos de datos escalan y evolucionan.
¿Qué hace Amazon con mis datos en Amazon S3?
¿Almacena Amazon sus propios datos en Amazon S3?
¿Cómo se organizan los datos de Amazon S3?
¿Cómo interactúo con Amazon S3?
¿Qué nivel de fiabilidad tiene Amazon S3?
¿Cómo funcionará Amazon S3 si el tráfico de mi aplicación aumenta repentinamente?
¿Amazon S3 ofrece un acuerdo de nivel de servicio (SLA)?
¿Cuál es el modelo de coherencia de Amazon S3?
¿Por qué me ayuda una buena coherencia de lectura tras escritura?
Regiones de AWS
Abrir todo¿Dónde se almacenan mis datos?
¿Por qué debo usar las clases de almacenamiento de Amazon S3 para las zonas locales dedicadas de AWS?
¿Qué es una región de AWS?
¿Qué es una zona de disponibilidad (AZ) de AWS?
La clase de almacenamiento Amazon S3 One Zone-IA replica los datos dentro de una única zona de disponibilidad. Los datos almacenados en S3 One Zone-IA no son resistentes a la pérdida física de una zona de disponibilidad como consecuencia de catástrofes, como terremotos, incendios e inundaciones.
¿Cómo decido en qué región de AWS almacenar mis datos?
¿En qué partes del mundo está disponible Amazon S3?
Facturación
Abrir todo¿Cuánto cuesta Amazon S3?
¿Cómo se me cobrará y facturará por el uso de Amazon S3?
¿Por qué varían los precios según la región de Amazon S3 que elija?
¿Cómo se me cobra por usar el control de versiones?
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) en el mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.
Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. Al final del mes: uso total de bytes/hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas. Conversión a GB/mes totales
5.257.039.970.304 bytes-hora x (1 GB/ 1.073.741.824 bytes) x (1 mes/ 744 horas) = 6,581 GB-mes El coste se calcula en función de las tarifas actuales de su región en la página de precios de Amazon S3.
¿Cómo se me cobra por acceder a Amazon S3 a través de la consola de administración de AWS?
¿Cómo se me cobra si se accede a mis buckets de Amazon S3 desde otra cuenta de AWS?
¿Los precios incluyen impuestos?
¿Se me cobrará algún cargo por transferencia de datos a Internet cuando saque mis datos de AWS?
Quiero sacar mis datos de AWS. ¿Cómo solicito la transferencia gratuita de datos a Internet?
¿Por qué tengo que solicitar la aprobación previa de AWS para la transferencia gratuita de datos a Internet antes de sacar mis datos de AWS?
S3 Vectors
Abrir todo¿Cómo puedo empezar a usar S3 Vectors?
Puede empezar a utilizar S3 Vectors en cuatro sencillos pasos, sin tener que configurar ninguna infraestructura fuera de Amazon S3. En primer lugar, cree un bucket vectorial en una región de AWS específica mediante la API CreateVectorBucket o en la consola S3. En segundo lugar, para organizar los datos vectoriales en un depósito vectorial, debe crear un índice vectorial con la API CreateIndex o en la consola de S3. Al crear un índice vectorial, se especifica la métrica de distancia (coseno o euclidiano) y el número de dimensiones que debe tener un vector (hasta 4092). Para obtener resultados más precisos, seleccione la métrica de distancia recomendada por su modelo de incrustación. En tercer lugar, añada datos vectoriales a un índice vectorial con la API PutVectors. Si lo desea, puede adjuntar metadatos como pares de valores clave a cada vector para filtrar las consultas. En cuarto lugar, realiza una consulta de similitud con la API QueryVectors, especificando el vector que se va a buscar y el número de resultados más similares que se van a devolver.
¿Cómo creo un índice vectorial en un cubo vectorial?
Puede crear un índice vectorial mediante la consola S3 o la API CreateIndex. Durante la creación del índice, debe especificar el bucket vectorial, el índice, la métrica de distancia, las dimensiones y, opcionalmente, una lista de campos de metadatos que desea excluir del filtrado durante las consultas de similitud. Por ejemplo, si desea almacenar datos asociados a vectores únicamente como referencia, puede especificarlos como campos de metadatos no filtrables. Tras la creación, a cada índice se le asigna un nombre de recurso de Amazon (ARN) único. Posteriormente, cuando realizas una solicitud de escritura o consulta, la diriges a un índice vectorial dentro de un bucket vectorial.
¿Cómo añado datos vectoriales a mi índice vectorial?
Puede agregar vectores a un índice vectorial mediante la API PutVectors. Cada vector consta de una clave que identifica de forma única cada vector en un índice vectorial (por ejemplo, puede generar un UUID mediante programación). Para maximizar el rendimiento de escritura, se recomienda insertar vectores en lotes grandes, hasta alcanzar el tamaño máximo de la solicitud. Además, puede adjuntar metadatos (por ejemplo, año, autor, género y ubicación) como pares de valores clave a cada vector. Al incluir metadatos, de forma predeterminada, todos los campos se pueden usar como filtros en una consulta de similitud, a menos que se especifiquen como metadatos no filtrables en el momento de la creación del índice vectorial. Para generar nuevas incrustaciones vectoriales de sus datos no estructurados, puede utilizar la API InvokeModel de Amazon Bedrock y especificar el ID del modelo de incrustación que desea utilizar.
¿Cómo puedo recuperar los vectores y sus metadatos asociados?
Puedes usar la API GetVectors para buscar y devolver vectores y metadatos asociados mediante la clave vectorial.
¿Cómo consulto mis datos vectoriales?
Puede ejecutar una consulta de similitud con la API QueryVectors, especificando el vector de consulta, el número de resultados relevantes que se devolverán (los k vecinos más cercanos) y el ARN del índice. Al generar el vector de consulta, debe usar el mismo modelo de incrustación que se usó para generar los vectores iniciales almacenados en el índice vectorial. Por ejemplo, si utiliza Amazon Titan Text Embeddings v2 en Amazon Bedrock para generar incrustaciones de sus documentos, se recomienda utilizar el mismo modelo para convertir una pregunta en un vector. Además, puede usar filtros de metadatos en una consulta para buscar vectores que coincidan con el filtro. Al ejecutar la consulta de similitud, se devuelven las claves vectoriales de forma predeterminada. Si lo desea, puede incluir la distancia y los metadatos en la respuesta.
¿Cuáles son las características de durabilidad y disponibilidad de los vectores S3?
S3 Vectors ofrece un almacenamiento vectorial muy duradero y disponible. Los datos escritos en S3 Vectors se almacenan en S3, que está diseñado para ofrecer una durabilidad de datos de 11 a 9 segundos. S3 Vectors está diseñado para ofrecer una disponibilidad del 99,99% con un SLA de disponibilidad del 99,9%.
¿Qué rendimiento de consultas puedo esperar con S3 Vectors?
S3 Vectors ofrece tiempos de latencia de consulta inferiores a un segundo. Utiliza el rendimiento elástico de Amazon S3 para gestionar las búsquedas en millones de vectores y es ideal para cargas de trabajo de consultas poco frecuentes.
¿Qué recuerdo puedo esperar al consultar S3 Vectors?
Para realizar consultas de similitud para sus incrustaciones vectoriales, varios factores pueden afectar a la recuperación promedio, como el modelo de incrustación, el tamaño del conjunto de datos vectoriales (número de vectores y dimensiones) y la distribución de las consultas. S3 Vectors ofrece una recuperación promedio de más del 90% para la mayoría de los conjuntos de datos. La recuperación promedio mide la calidad de los resultados de la consulta: el 90% significa que la respuesta contiene el 90% de la verdad básica de los vectores más cercanos, que están almacenados en el índice, al vector de la consulta. Sin embargo, dado que el rendimiento real puede variar según su caso de uso específico, le recomendamos que realice sus propias pruebas con datos y consultas representativos para validar que los índices vectoriales de S3 cumplen con sus requisitos de recuperación.
¿Cómo puedo ver una lista de vectores en un índice vectorial?
Puedes ver una lista de vectores en un índice vectorial con la API ListVectors, que devuelve hasta 1000 vectores a la vez con un indicador si la respuesta está truncada. La respuesta incluye la fecha de la última modificación, la clave vectorial, los datos vectoriales y los metadatos. También puede usar la API ListVectors para exportar fácilmente datos vectoriales de un índice vectorial específico. La operación ListVectors es muy coherente. Por lo tanto, después de escribir, puede enumerar inmediatamente los vectores con cualquier cambio reflejado.
¿Cuánto cuesta usar S3 Vectors?
Con S3 Vectors, paga por el almacenamiento y cualquier solicitud de escritura y lectura aplicable (por ejemplo, insertar vectores y realizar operaciones de consulta en los vectores de un índice vectorial). Para ver los detalles de precios, consulta la página de precios de S3.
¿Puedo usar S3 Vectors como mi almacén de vectores en Amazon Bedrock Knowledge Bases?
Sí. Al crear una base de conocimientos de Bedrock a través de la consola o API de Bedrock, puede configurar un índice vectorial S3 existente como su almacén de vectores para ahorrar en costos de almacenamiento vectorial para los casos de uso de RAG. Si prefiere dejar que Bedrock cree y gestione el índice vectorial por usted, utilice el flujo de trabajo de creación rápida en la consola de Bedrock. Además, puede configurar un nuevo índice vectorial de S3 como almacén de vectores para los flujos de trabajo de RAG en Amazon SageMaker Unified Studio.
¿Puedo usar S3 Vectors con Amazon OpenSearch Service?
Sí. Hay dos maneras de utilizar S3 Vectors con Amazon OpenSearch Service. En primer lugar, los clientes de S3 pueden exportar todos los vectores de un índice vectorial de S3 a OpenSearch Serverless como una nueva colección sin servidor mediante la consola S3 o OpenSearch. Si crea de forma nativa en S3 Vectors, se beneficiará de poder usar OpenSearch Serverless de forma selectiva para cargas de trabajo con necesidades de consultas en tiempo real. En segundo lugar, si es un cliente gestionado de OpenSearch, ahora puede elegir S3 Vectors como su motor de datos vectoriales que se pueden consultar con una latencia inferior a un segundo. A continuación, OpenSearch utilizará automáticamente S3 Vectors como motor subyacente para los vectores y usted podrá actualizar y buscar sus datos vectoriales mediante las API de OpenSearch. Obtendrá los beneficios económicos de S3 Vectors, sin cambios en sus aplicaciones.
Amazon S3 e IPv6
Abrir todo¿Qué es IPv6?
¿Qué puedo hacer con IPv6?
¿Cómo puedo empezar a usar IPv6 en Amazon S3?
¿Debo esperar un cambio en el rendimiento de Amazon S3 al usar IPv6?
Notificaciones de eventos de S3
Abrir todo¿Qué son las notificaciones de eventos de Amazon S3?
¿Qué puedo hacer con las notificaciones de eventos de Amazon S3?
¿Qué se incluye en las notificaciones de eventos de Amazon S3?
¿Cómo configuro las notificaciones de eventos de Amazon S3?
¿Cuánto cuesta usar las notificaciones de eventos de Amazon S3?
Amazon S3 Transfer Acceleration
Abrir todo¿Qué es S3 Transfer Acceleration?
¿Cómo puedo empezar a usar S3 Transfer Acceleration?
¿Qué tan rápido es S3 Transfer Acceleration?
¿Quién debe usar S3 Transfer Acceleration?
¿Qué tan seguro es S3 Transfer Acceleration?
¿Qué sucede si S3 Transfer Acceleration no es más rápida que una transferencia normal de Amazon S3?
¿Puedo usar S3 Transfer Acceleration con subidas de varias partes?
¿Cómo debo elegir entre S3 Transfer Acceleration y PUT/POST de Amazon CloudFront?
¿S3 Transfer Acceleration puede complementar AWS Direct Connect?
¿S3 Transfer Acceleration puede complementar a AWS Storage Gateway o a una puerta de enlace de terceros?
Visite esta sección de archivos de las preguntas frecuentes sobre Storage Gateway para obtener más información sobre la implementación de AWS.
¿Puede S3 Transfer Acceleration complementar el software integrado de terceros?
¿S3 Transfer Acceleration cumple con los requisitos de HIPAA?
Seguridad
Abrir todo¿Qué nivel de seguridad tienen mis datos en Amazon S3?
Para obtener más información sobre la seguridad en AWS, consulte la página de seguridad de AWS y, para obtener información sobre seguridad de S3, visite la página de seguridad de S3 y la guía de prácticas recomendadas de seguridad de S3.
¿Cómo puedo controlar el acceso a mis datos almacenados en Amazon S3?
¿Amazon S3 admite la auditoría de acceso a los datos?
¿Qué opciones tengo para cifrar los datos almacenados en Amazon S3?
¿Puedo cumplir con la normativa europea de privacidad de datos con Amazon S3?
¿Dónde se almacenan mi objeto y sus metadatos en las zonas locales dedicadas de AWS?
De forma predeterminada, los datos y metadatos del objeto permanecen dentro de la única zona local dedicada en la que se coloca el objeto. Los datos de telemetría y administración de buckets, incluidos los nombres de buckets, las métricas de capacidad, los registros de CloudTrail, las métricas de CloudWatch, las claves administradas por los clientes de AWS Key Management Service (KMS) y las políticas de Identity and Access Management (IAM), se almacenan en la región principal de AWS. De manera opcional, otras características de administración de buckets, como Operaciones por lotes de S3, almacenan los metadatos de administración con el nombre del bucket y el nombre del objeto en la región principal de AWS.
¿Qué es un punto de enlace de Amazon VPC para Amazon S3?
¿Puedo permitir que un punto final de Amazon VPC específico acceda a mi bucket de Amazon S3?
¿Qué es AWS PrivateLink para Amazon S3?
¿Cómo puedo empezar a usar los puntos finales de interfaz de VPC para S3?
Puede crear un punto de conexión de VPC de interfaz a través de la consola de administración de la VPC de AWS, la interfaz de la línea de comandos de AWS (AWS CLI), el AWS SDK o la API. Para obtener más información, consulte la documentación.
¿Cuándo debo elegir puntos de enlace de VPC de puerta de enlace en lugar de puntos de enlace de VPC de interfaz basados en AWS PrivateLink?
¿Puedo usar los puntos de enlace de interfaz y los puntos de enlace de puerta de enlace para S3 en la misma VPC?
¿Qué es Amazon Macie y cómo puedo usarlo para proteger mis datos?
¿Qué es IAM Access Analyzer para Amazon S3 y cómo funciona?
Para obtener más información, consulte la documentación sobre el Analizador de acceso de IAM.
Concesiones de acceso de S3
Abrir todo¿Qué son las subvenciones de acceso a Amazon S3?
¿Por qué debo usar S3 Access Grants?
¿Cómo puedo empezar a usar S3 Access Grants?
¿Qué tipos de identidad se admiten para las concesiones de permisos de S3 Access Grants?
¿Cuáles son los diferentes niveles de acceso que ofrece S3 Access Grants?
¿Puedo personalizar mis niveles de acceso?
¿Hay cuotas para las subvenciones de acceso a S3?
¿Hay algún impacto en el rendimiento del acceso a los datos cuando uso S3 Access Grants?
¿Qué otros servicios de AWS se requieren para usar S3 Access Grants?
¿Las subvenciones de acceso a S3 requieren modificaciones en el lado del cliente?
Dado que las modificaciones del lado del cliente son necesarias, ¿qué servicios de AWS y aplicaciones de terceros se integran con S3 Access Grants listas para usar en la actualidad?
¿S3 Access Grants reemplaza a AWS IAM?
¿S3 Access Grants funciona con KMS?
¿Cómo puedo ver y administrar mis concesiones de permisos de S3 Access Grants?
¿Se puede conceder acceso público a los datos con S3 Access Grants?
¿Cómo puedo auditar las solicitudes que se autorizaron mediante S3 Access Grants?
¿Cómo se fijan los precios de S3 Access Grants?
¿Cuál es la relación entre S3 Access Grants y Lake Formation?
¿S3 Access Grants está integrado con IAM Access Analyzer?
Puntos de acceso de S3
Abrir todo¿Qué son los puntos de acceso de Amazon S3?
Los puntos de acceso de Amazon S3 son puntos de enlace que simplifican la administración del acceso a los datos para cualquier aplicación o servicio de AWS que funcione con S3. Los puntos de acceso S3 funcionan con los buckets S3 y Amazon FSx para los sistemas de archivos OpenZFS. Puede controlar y simplificar la forma en que las diferentes aplicaciones o usuarios pueden acceder a los datos mediante la creación de puntos de acceso con nombres y permisos adaptados a cada aplicación o usuario.
Al usar los puntos de acceso de S3 con depósitos de S3, ya no tendrá que administrar una política de depósitos única y compleja con cientos de reglas de permisos diferentes que deben escribirse, leerse, rastrearse y auditarse. En su lugar, puede crear cientos de puntos de acceso por depósito, cada uno de los cuales proporcione una ruta personalizada a un depósito, con un nombre de host y una política de acceso únicos que imponga los permisos y controles de red específicos para cualquier solicitud realizada a través del punto de acceso.
Al usar los puntos de acceso S3 con FSx para OpenZFS, puede acceder a sus datos de FSx mediante la API de S3 como si los datos estuvieran en S3. Con esta capacidad, los datos de sus archivos en FSx para OpenZFS son accesibles para su uso con la amplia gama de servicios y aplicaciones de inteligencia artificial, aprendizaje automático y análisis que funcionan con S3 mientras los datos de sus archivos siguen residiendo en el sistema de archivos FSx para OpenZFS.
¿Por qué debo usar un punto de acceso?
¿Cómo funcionan los puntos de acceso S3 conectados a FSx para sistemas de archivos OpenZFS?
Con los puntos de acceso S3, puede acceder a los datos de los archivos en Amazon FSx para OpenZFS mediante las API de S3 y sin mover los datos a S3. Los puntos de acceso S3 conectados a FSx para sistemas de archivos OpenZFS funcionan de manera similar a como funcionan los puntos de acceso S3 conectados a depósitos S3, ya que proporcionan acceso a los datos a través de S3 con acceso controlado por políticas de acceso, mientras que los datos se siguen almacenando en depósitos S3 o FSx para sistemas de archivos OpenZFS. Por ejemplo, una vez que un punto de acceso S3 se conecta a un sistema de archivos FSx para OpenZFS, los clientes pueden usar el punto de acceso con aplicaciones y servicios de inteligencia artificial generativa, aprendizaje automático y análisis que funcionan con S3 para acceder a sus datos de FSx for OpenZFS.
¿Cómo funcionan los puntos de acceso de S3?
¿Hay una cuota en cuanto al número de puntos de acceso S3 que puedo crear?
Cuando se utiliza un punto de acceso, ¿cómo se autorizan las solicitudes?
¿Cómo escribo políticas de puntos de acceso?
¿En qué se diferencia la restricción del acceso a VPC específicas mediante controles de origen de red en los puntos de acceso de la restricción del acceso a las VPC mediante la política de cubos?
¿Puedo aplicar una política de «No acceso a los datos de Internet» en todos los puntos de acceso de mi organización?
¿Puedo deshabilitar por completo el acceso directo a un bucket con el nombre de host del bucket?
¿Puedo reemplazar o eliminar un punto de acceso de un bucket?
¿Cuánto cuestan los puntos de acceso de Amazon S3?
¿Cómo puedo empezar a usar los puntos de acceso S3?
Durabilidad y protección de datos
Abrir todo¿Qué durabilidad tiene Amazon S3?
¿Cómo está diseñado Amazon S3 para ofrecer una durabilidad del 99,9%?
¿Los datos almacenados en una clase de almacenamiento de una zona están protegidos contra el daño o la pérdida de la zona de disponibilidad?
¿Cómo supera Amazon S3 una durabilidad del 99,9%?
Con una durabilidad tan alta, ¿sigo necesitando hacer una copia de seguridad de mis datos críticos?
¿Qué capacidades ofrece Amazon S3 para proteger mis datos contra eliminaciones accidentales o malintencionadas?
¿Qué algoritmos de suma de comprobación admite Amazon S3 para comprobar la integridad de los datos?
Amazon S3 utiliza una combinación de sumas de comprobación MD5 de contenido, algoritmos de hash seguros (SHA) y verificaciones de redundancia cíclica (CRC) para comprobar la integridad de los datos. Amazon S3 realiza estas sumas de comprobación en los datos en reposo y repara cualquier disparidad utilizando datos redundantes. Además, los SDK de AWS más recientes calculan automáticamente sumas de comprobación eficaces basadas en CRC para todas las cargas. S3 verifica de forma independiente esa suma de comprobación y solo acepta objetos después de confirmar que la integridad de los datos se mantuvo en tránsito a través de la Internet pública. Si se utiliza una versión del SDK que no proporciona sumas de comprobación calculadas previamente para cargar un objeto, S3 calcula una suma de comprobación basada en CRC de todo el objeto, incluso para las cargas multiparte. Las sumas de comprobación se almacenan en los metadatos de los objetos y, por lo tanto, están disponibles para verificar la integridad de los datos en todo momento. Puede elegir entre cinco algoritmos de suma de comprobación compatibles para comprobar la integridad de los datos de las solicitudes de carga y descarga. Puede elegir un algoritmo de suma de comprobación SHA-1, SHA-256, CRC32, CRC32C o CRC64NVME en función de las necesidades de su aplicación. Puede calcular automáticamente y verificar sumas de comprobación a medida que almacena o recupera datos de S3. También puede acceder a la información de la suma de comprobación en cualquier momento usando las API HeadObject S3, GetObjectAttributes S3 o el informe de inventario de S3. Calcular una suma de comprobación mientras transmite datos a S3 supone un ahorro de tiempo, ya que puede verificar y transmitir sus datos en un único paso en lugar de tener que hacer dos operaciones secuenciales. El uso de sumas de comprobación para la validación de datos es una práctica recomendada para la durabilidad de los datos. Estas capacidades aumentan el rendimiento y reducen el coste de hacerlo.
¿Qué es el control de versiones?
¿Por qué debo usar el control de versiones?
¿Cómo empiezo a usar el control de versiones?
¿Cómo me protege el control de versiones de la eliminación accidental de mis objetos?
¿Puedo configurar una papelera, una papelera de reciclaje o una ventana de reversión en mis objetos de Amazon S3 para recuperarme de las eliminaciones y sobrescrituras?
¿Cómo puedo garantizar la máxima protección de mis versiones conservadas?
¿Cómo se me cobra por usar el control de versiones?
2) Día 16 del mes: realiza una operación PUT de 5 GB (5 368 709 120 bytes) en el mismo bucket de datos utilizando la misma clave que la operación PUT original del día 1.
Al analizar los costos de almacenamiento de las operaciones anteriores, debe tener en cuenta que el objeto de 4 GB del día 1 no se elimina del bucket cuando se escribe el objeto de 5 GB el día 15. En su lugar, el objeto de 4 GB se conserva como una versión más antigua, y el objeto de 5 GB pasa a ser la versión más recientemente escrita dentro del objeto que se encuentra en su bucket. Al final del mes: uso total de bytes/hora
[4 294 967 296 bytes x 31 días x (24 horas/día)] + [5 368 709 120 bytes x 16 días x (24 horas/día)] = 5 257 039 970 304 byte-horas. Conversión a GB/mes totales
5.257.039.970.304 bytes-hora x (1 GB/ 1.073.741.824 bytes) x (1 mes/ 744 horas) = 6,581 GB-mes El coste se calcula en función de las tarifas actuales de su región en la página de precios de Amazon S3.
¿Qué es el bloqueo de objetos de Amazon S3?
Para obtener más información, visite la página de la guía de usuario de bloqueo de objetos de S3.
¿Cómo funciona Amazon S3 Object Lock?
El bloqueo de objetos de S3 puede configurarse en uno de dos modos. Cuando se implementa en modo Gobernanza, las cuentas de AWS con permisos de IAM específicos pueden eliminar la protección de WORM de una versión de objetos. Si se requiere mayor inmutabilidad para cumplir las normativas, puede utilizar el modo de conformidad. En el modo de conformidad, ningún usuario puede eliminar la protección de WORM, ni siquiera la cuenta raíz.
¿Cómo afecta la activación de S3 Object Lock para los cubos existentes a los objetos que ya existen en los cubos?
¿Puedo desactivar S3 Object Lock después de haberlo activado?
No, no puede deshabilitar el bloqueo de objetos de S3 ni el control de versiones de S3 para los buckets una vez que esté habilitado el bloqueo de objetos de S3.
¿Cómo puedo empezar a replicar objetos desde cubos con S3 Object Lock activado?
Para empezar a replicar objetos con Replicación de S3 desde buckets con el bloqueo de objetos de S3 activado, puede agregar una configuración de replicación en su bucket de origen especificando un bucket de destino en la misma región de AWS o en una diferente y en la misma cuenta de AWS o en una diferente. Puede elegir replicar todos los objetos en el nivel del bucket de S3 o filtrar los objetos en un nivel de prefijo compartido o en un nivel de objeto mediante etiquetas de objetos de S3. También tendrá que especificar un rol de AWS Identity and Access Management (IAM) con los permisos necesarios para realizar la operación de replicación. Puede usar la consola S3, la API de AWS, la CLI de AWS, los SDK de AWS o AWS CloudFormation para habilitar la replicación, y debe tener habilitado el control de versiones de S3 para los buckets de origen y destino. Además, para replicar objetos desde buckets habilitados para el bloqueo de objetos de S3, su bucket de destino también debe tener habilitado el bloqueo de objetos de S3. Para obtener más información, consulte la documentación sobre la configuración de Replicación de S3 y el uso de bloqueo de objetos de S3 con Replicación de S3.
¿Necesito permisos adicionales para replicar objetos de buckets con S3 Object Lock activado?
Sí, para replicar objetos de los buckets habilitados para bloqueo de objetos de S3, debe conceder dos permisos nuevos, s3:GetObjectRetention y s3:GetObjectLegalHold, en el bucket de origen del rol de IAM que usa para configurar la replicación. Como alternativa, si el rol de IAM tiene un permiso s3:Get*, cumple el requisito. Para obtener más información, consulte la documentación sobre el uso de bloqueo de objetos de S3 con Replicación de S3.
¿Hay alguna limitación para usar S3 Replication al replicar desde depósitos de S3 Object Lock?
No, todas las características de Replicacion de S3, como la replicación en la misma región de S3 (S3 SRR), la replicación entre regiones de S3 (S3 CRR), las métricas de replicación de S3 para realizar un seguimiento del progreso, el control del tiempo de replicación de S3 (S3 RTC) y la replicación por lotes de S3, son compatibles al replicar desde buckets de bloqueo de objetos de S3.
¿Cómo puedo replicar los objetos existentes de los buckets habilitados para S3 Object Lock?
Puede utilizar la replicación por lotes de S3 para replicar objetos existentes desde buckets habilitados para bloqueo de objetos de S3. Para obtener más información sobre la replicación de objetos existentes, consulte la documentación sobre la replicación por lotes de S3.
¿Cuál es el estado de retención de las réplicas de los objetos de origen protegidos con S3 Object Lock?
Clases de almacenamiento
Abrir todo¿Cuáles son las clases de almacenamiento de Amazon S3?
¿Cómo decido qué clase de almacenamiento S3 usar?
Al momento de decidir qué clase de almacenamiento de S3 es la más adecuada para su carga de trabajo, tenga en cuenta los patrones de acceso y el tiempo de retención de los datos para optimizar el costo total más bajo durante la vida útil de sus datos. Muchas cargas de trabajo tienen patrones de acceso cambiantes (contenido generado por el usuario), impredecibles (análisis, lagos de datos) o desconocidos (aplicaciones nuevas), y es por eso que S3 Intelligent-Tiering debe ser la clase de almacenamiento predeterminada para ahorrar automáticamente en costos de almacenamiento. Si conoce los patrones de acceso de los datos, puede seguir esta guía. La clase de almacenamiento S3 Standard es ideal para los datos a los que se accede con frecuencia. Es la mejor opción si accede a sus datos más de una vez al mes. S3 Standard-Infrequent Access es ideal para los datos retenidos al menos durante un mes y a los que se accede cada uno o dos meses. Las clases de almacenamiento de Amazon S3 Glacier se crearon específicamente para el archivado de datos y le ofrecen el mayor rendimiento, la mayor flexibilidad de recuperación y el menor costo de almacenamiento de archivos en la nube. Ahora puede elegir entre tres clases de almacenamiento de archivos optimizadas para diferentes patrones de acceso y duración del almacenamiento. Para los datos de archivado que necesitan un acceso inmediato, como las imágenes médicas, los activos de los medios de comunicación o los datos genómicos, elija la clase de almacenamiento S3 Glacier Instant Retrieval, una clase de almacenamiento de archivos que ofrece el almacenamiento de menor costo con una recuperación de tan solo milisegundos. Para los datos de archivado que no requieren acceso inmediato, pero necesitan la flexibilidad de recuperar grandes conjuntos de datos sin costo alguno, como los casos de uso de copias de seguridad o recuperación de desastres, elija S3 Glacier Flexible Retrieval, con recuperación en minutos o recuperaciones masivas gratuitas de 5 a 12 horas. Para ahorrar aún más en el almacenamiento de archivos de larga duración, como los archivos de conformidad y la preservación de contenido multimedia digital, elija S3 Glacier Deep Archive, el almacenamiento de menor costo en la nube con una recuperación de datos de 12 horas. Todas estas clases de almacenamiento proporcionan resiliencia en múltiples zonas de disponibilidad mediante el almacenamiento de los datos de manera redundante en varios dispositivos y en zonas de disponibilidad de AWS separadas físicamente en una región de AWS.
Para los datos con un requisito de resiliencia menor, puede reducir costos al seleccionar una clase de almacenamiento con una sola zona de disponibilidad, como S3 One Zone-Infrequent Access. Si tiene requisitos de aislamiento o residencia de los datos que una región de AWS existente no puede cumplir, puede usar las clases de almacenamiento de S3 para las zonas locales dedicadas de AWS o los racks S3 en Outposts para almacenar los datos en un perímetro de datos específico.
S3 Intelligent-Tiering
Abrir todo¿Qué es la organización inteligente por niveles de S3?
¿Cómo funciona S3 Intelligent-Tiering?
S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de capas. Estos objetos de tamaño inferior se pueden almacenar en S3 Intelligent-Tiering, pero siempre se cobran de acuerdo con las tarifas de nivel de acceso frecuente, sin cargos de monitoreo o automatización. Si desea estandarizar S3 Intelligent-Tiering como clase de almacenamiento predeterminada para los datos recién creados, puede modificar sus aplicaciones al introducir INTELLIGENT-TIERING en el encabezado de solicitud PUT de la API de S3. S3 Intelligent-Tiering está diseñado para una disponibilidad del 99,9 % y una durabilidad del 99,999999999 %, y ofrece automáticamente la misma baja latencia y alto rendimiento que S3 Standard. Puede utilizar AWS Cost Explorer para calcular el ahorro adicional del nivel de acceso instantáneo a los archivos.
¿Por qué elegiría usar S3 Intelligent-Tiering?
¿Qué rendimiento ofrece S3 Intelligent-Tiering?
¿Qué rendimiento ofrecen los niveles opcionales Archive Access y Deep Archive Access?
¿Qué tan duradero y disponible es el S3 Intelligent-Tiering?
¿Cómo transfiero mis datos a S3 Intelligent-Tiering?
¿Cómo se me cobra la organización inteligente por niveles de S3?
Por un pequeño costo de monitoreo y automatización, S3 Intelligent-Tiering monitorea los patrones de acceso y mueve de manera automática los objetos en los niveles de acceso de baja latencia y alto rendimiento, al igual que en dos niveles de acceso a archivos asíncronos opcionales, en donde los clientes obtienen los costos de almacenamiento más bajos en la nube para datos a los que se puede acceder de manera asíncrona.
S3 Intelligent-Tiering no tiene un tamaño de objeto mínimo facturable, pero los objetos inferiores a 128 KB no son elegibles para la designación automática de niveles. Estos objetos pequeños nunca se monitorean y siempre se cobran de acuerdo con las tarifas de capa de acceso frecuente, sin cargos de monitoreo o automatización. Para cada objeto archivado en el nivel de acceso a archivos o en el nivel de acceso a archivo profundo en S3 Intelligent-Tiering, Amazon S3 utiliza 8 KB de almacenamiento para el nombre del objeto y otros metadatos (facturados a las tarifas del almacenamiento S3 Standard) y 32 KB de almacenamiento para el índice y los metadatos relacionados (facturados a las tarifas de almacenamiento de S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive).
¿Se cobra por recuperar datos de S3 Intelligent-Tiering?
¿Cómo activo los niveles de acceso a los archivos de S3 Intelligent-Tiering?
¿Cómo accedo a un objeto desde los niveles Archive Access o Deep Archive Access de la clase de almacenamiento S3 Intelligent-Tiering?
¿Cómo puedo saber en qué nivel de acceso de S3 Intelligent-Tiering están almacenados mis objetos?
¿Puedo transferir objetos de S3 Intelligent-Tiering a otra clase de almacenamiento?
¿Hay una duración mínima para la organización inteligente por niveles de S3?
¿Hay un tamaño mínimo de objeto facturable para S3 Intelligent-Tiering?
S3 Standard
Abrir todo¿Qué es S3 Standard?
¿Por qué elegiría usar S3 Standard?
S3 Express One Zone
Abrir todo¿Qué es la clase de almacenamiento One Zone de Amazon S3 Express?
¿Por qué elegiría usar la clase de almacenamiento Amazon S3 Express One Zone?
¿Cómo empiezo a usar la clase de almacenamiento One Zone de Amazon S3 Express?
¿Cómo puedo importar datos a la clase de almacenamiento One Zone de Amazon S3 Express?
Puede importar datos de la misma región de AWS a la clase de almacenamiento S3 Express One Zone a través de la consola S3 mediante la opción Importar después de crear un bucket de directorio. La importación simplifica la copia de datos en los buckets del directorio de S3 al permitirle elegir un prefijo o un bucket desde el cual importar los datos sin tener que especificar todos los objetos que se van a copiar de forma individual. Las operaciones por lotes de S3 copian los objetos del prefijo o el bucket de uso general seleccionado y usted puede supervisar el progreso del trabajo de importación y copia a través de la página de detalles del trabajo de operaciones por lotes de S3.
¿En cuántas zonas de disponibilidad se almacenan los objetos One Zone de Amazon S3 Express?
¿Qué rendimiento ofrece la clase de almacenamiento Amazon S3 Express One Zone?
¿Cómo logra un alto rendimiento la clase de almacenamiento One Zone de Amazon S3 Express?
¿Cuántas transacciones por segundo (TPS) admite un bucket de directorio S3?
¿Qué ocurre con un bucket de directorio de S3 sin actividad de solicitud durante un período de tiempo prolongado?
Los buckets de directorio S3 que no tengan actividad de solicitudes durante un periodo de al menos 3 meses pasarán a un estado inactivo. Mientras se encuentra en estado inactivo, un bucket de directorio es temporalmente inaccesible para lecturas y escrituras. Los buckets inactivos retienen todo el almacenamiento, los metadatos del objeto y los metadatos del bucket. Las tarifas de almacenamiento existentes se aplicarán a los buckets inactivos. Cuando se solicita acceso a un bucket inactivo, éste pasa a un estado activo, normalmente en unos minutos. Durante este período de transición, las lecturas y escrituras devolverán un código de error 503 SlowDown.
¿Cómo debo planificar las necesidades de rendimiento de mi aplicación con la clase de almacenamiento S3 Express One Zone?
¿En qué se diferencia la autorización de solicitudes con Amazon S3 Express One Zone en comparación con otras clases de almacenamiento de S3?
¿Qué tan confiable es la clase de almacenamiento One Zone de Amazon S3 Express?
¿Cómo está diseñada la clase de almacenamiento One Zones de Amazon S3 Express para ofrecer una disponibilidad del 99,95%?
¿Cómo se me cobra por Amazon S3 Express One Zone?
Supongamos que almacena 10 GB de datos en S3 Express One Zone durante 30 días, lo que supone un total de 1 000 000 de escrituras y 9 000 000 de lecturas, y accede con Athena con un tamaño de solicitud de 10 KB. A continuación, elimina 1 000 000 archivos al cabo de 30 días. Suponiendo que tu depósito se encuentra en la región Este de EE. UU. (Norte de Virginia), los cargos por almacenamiento y solicitud se calculan a continuación: Cargos por almacenamiento
Uso total de bytes por hora = 10 GB por mes
Coste total de almacenamiento = 10 GB al mes x 0,11 USD = 1,10 USD de gastos de solicitud
1 000 000 solicitudes PUT: 1 000 000 solicitudes x 0,00113 USD/1000 = 1,13 USD
9 000 000 solicitudes GET: 9 000 000 solicitudes x 0,00003 USD/1000 = 0,27 USD
1 000 000 solicitudes de eliminación = 1 000 000 solicitudes x 0,00$ (sin cargo) = 0$ Cargo por carga de datos: 10 KB/1 048 576 x 1 000 000$ x 0,0032$ = 0,03$
Cargo por recuperación de datos: 10 KB/1 048 576 x 9 000 000 x 0,0006 USD = 0,05 USD
Cargos totales = 1,10$ + 1,13$ 0,27 + 0,03$ + 0,05$ = 2,58$ Ejemplo 2:
Supongamos que almacena 10 TB de datos para el entrenamiento de machine learning para una carga de trabajo de 8 horas todos los días y, a continuación, los elimina. Durante la carga de trabajo de 8 horas, realiza 5 242 880 escrituras y 10 485 760 lecturas para un tamaño de solicitud de 2 MB. Supongamos que lo hace durante 30 días (un mes). Cargos por almacenamiento
Uso total de bytes por hora = [10 995 116 277 760 bytes x 30 días x (8 horas por día)] = 2 638 827 906 662 400 bytes por hora = 3303,77 GB por mes
Coste total de almacenamiento = 3303,77 GB x 0,11 USD = 363,41 USD Cargos por solicitud
5 242 880 solicitudes PUT por día: 5 242 880 solicitudes x 30 x 0,00113 USD/1000 = 177,73 USD
10 485 760 solicitudes GET por día: 10 485 760 solicitudes x 30 x 0,00003 USD/1000 = 9,44 USD
5.242.880 solicitudes de eliminación por día: 5.242.880 solicitudes x 0,00$ (sin cargo) = 0$ Cargo por carga de datos: 2 MB/1024 x 5.242.880 x 30 x 0,0032$ = 983,04$
Cargo por recuperación de datos: 2 MB/1024 x 10 485 760 x 30 x 0,0006 USD = 368,64 USD
Cargos totales = 363,41 USD + 177,73 USD + 9,44 USD + 983,04 USD + 368,64 USD = 1902,26 USD
¿Hay algún cargo adicional por transferencia de datos por usar la clase de almacenamiento Amazon S3 Express One Zone en la misma región?
¿Hay algún cargo de red adicional por el uso de los puntos de enlace de VPC de Gateway con la clase de almacenamiento Amazon S3 Express One Zone?
S3 Standard – Acceso poco frecuente (S3 Standard-IA)
Abrir todo¿Qué es el acceso infrecuente estándar de S3?
¿Por qué elegiría usar S3 Standard-IA?
¿Qué rendimiento ofrece S3 Standard-IA?
¿Cómo transfiero mis datos a S3 Standard-IA?
¿En qué gastos incurriré si cambio la clase de almacenamiento de un objeto de S3 Standard-IA a S3 Standard con una solicitud COPY?
¿Hay un cargo por duración mínima de almacenamiento para S3 Standard-IA?
¿Hay un cargo mínimo por almacenamiento de objetos para S3 Standard-IA?
¿Puedo organizar objetos de S3 Standard-IA a S3 One Zone-IA o a la clase de almacenamiento S3 Glacier Flexible Retrieval?
S3 One Zone-Infrequent Access (S3 One Zone-IA)
Abrir todo¿Qué es la clase de almacenamiento S3 One Zone-IA?
¿Qué casos de uso son los más adecuados para la clase de almacenamiento S3 One Zone-IA?
¿Qué rendimiento ofrece el almacenamiento S3 One Zone-IA?
¿Qué durabilidad tiene la clase de almacenamiento S3 One Zone-IA?
¿Es lo mismo una «zona» de S3 One Zone-IA que una zona de disponibilidad de AWS?
¿A qué nivel de protección de recuperación ante desastres debo renunciar al usar S3 One Zone-IA?
Clase de almacenamiento Amazon S3 Glacier Instant Retrieval
Abrir todo¿Qué es la clase de almacenamiento S3 Glacier Instant Retrieval?
¿Por qué elegiría usar S3 Glacier Instant Retrieval?
¿Qué tan disponible y duradero es S3 Glacier Instant Retrieval?
¿Qué rendimiento ofrece S3 Glacier Instant Retrieval?
¿Cómo transfiero mis datos a S3 Glacier Instant Retrieval?
¿Hay un cargo por duración mínima de almacenamiento para Amazon S3 Glacier Instant Retrieval?
¿Hay un cargo mínimo por tamaño de objeto para Amazon S3 Glacier Instant Retrieval?
¿Cómo se me cobra por S3 Glacier Instant Retrieval?
Clase de almacenamiento Amazon S3 Glacier Flexible Retrieval
Abrir todo¿Qué es la clase de almacenamiento S3 Glacier Flexible Retrieval?
¿Por qué elegiría usar la clase de almacenamiento S3 Glacier Flexible Retrieval?
¿Cómo puedo acceder a S3 Glacier Flexible Retrieval?
Nota: S3 Glacier Flexible Retrieval también está disponible a través de las API originales directas de Glacier y a través de la consola de administración de Amazon S3 Glacier. Para una experiencia mejorada con acceso a todo el conjunto de características de S3, que incluye la administración del ciclo de vida, la replicación de S3, S3 Storage Lens y más, recomendamos utilizar las API de S3 y S3 Management Console para utilizar las características de S3 Glacier.
¿Cómo puedo recuperar los objetos que están archivados en S3 Glacier Flexible Retrieval? ¿Recibiré una notificación cuando se restaure el objeto?
¿Cuánto tiempo tardaré en restaurar los objetos archivados en Amazon S3 Glacier Flexible Retrieval?
Con las unidades de capacidad aprovisionada de S3 Glacier, puede pagar una cuota inicial fija durante un mes determinado para garantizar la disponibilidad de la capacidad de recuperación de las recuperaciones aceleradas de S3 Glacier Flexible Retrieval. Puede adquirir dos unidades de capacidad aprovisionada al mes para aumentar la cantidad de datos que puede recuperar. Cada unidad de capacidad garantiza que se puedan realizar al menos tres recuperaciones aceleradas cada cinco minutos y proporciona un nivel de rendimiento de recuperación de hasta 150 MB/s. Si la carga de trabajo requiere un acceso altamente confiable y predecible a un subconjunto de sus datos en cuestión de minutos, debería adquirir capacidad de recuperación aprovisionada. Si no se dispone de capacidad aprovisionada, es posible que no se acepten las recuperaciones aceleradas durante periodos de alta demanda. Si necesita acceder a recuperaciones aceleradas en cualquier circunstancia, le recomendamos que adquiera capacidad de recuperación aprovisionada.
Puede adquirir capacidad aprovisionada mediante la consola de Amazon S3, la API REST de compra de capacidad aprovisionada, los SDK de AWS o AWS CLI. Una unidad de capacidad aprovisionada tiene duración de un mes a partir de la fecha y hora de compra, que es la fecha de inicio. La unidad vence en la fecha de vencimiento, que es exactamente un mes después de la fecha de inicio, al segundo más cercano. Para obtener más información sobre los precios de la capacidad aprovisionada, consulte los precios de Amazon S3.
¿Cómo se calcula mi cargo por almacenamiento para los objetos de Amazon S3 archivados en S3 Glacier Flexible Retrieval?
1,000032 gigabytes para cada objeto x 100 000 objetos = 100 003,2 gigabytes de almacenamiento de S3 Glacier.
0,000008 gigabytes para cada objeto x 100 000 objetos = 0,8 gigabytes de almacenamiento de S3 Standard.
La tarifa se calcula en función de las tarifas actuales de su región de AWS que figuran en la página de precios de Amazon S3. Para ver más ejemplos de precios de Amazon S3, consulte las preguntas frecuentes sobre facturación de S3 o utilice la calculadora de precios de AWS.
¿Hay una duración mínima de almacenamiento y cargos mínimos por almacenamiento de objetos para Amazon S3 Glacier Flexible Retrieval?
S3 Glacier Flexible Retrieval también requiere 40 KB de metadatos adicionales para cada objeto archivado. Esto incluye 32 KB de metadatos cargados a la tarifa de S3 Glacier Flexible Retrieval, necesarios para identificar y recuperar sus datos. Y 8 KB de datos adicionales cargados a la tarifa S3 Standard, necesarios para mantener el nombre definido por el usuario y los metadatos de los objetos archivados en S3 Glacier Flexible Retrieval. Esto permite que obtenga una lista en tiempo real de todos los objetos de S3 que utilizan la API LIST de S3 o el informe de S3 Inventory. Consulte la página de precios de Amazon S3 para obtener información sobre los precios de Amazon S3 Glacier Flexible Retrieval.
¿Cuánto cuesta recuperar datos de Amazon S3 Glacier Flexible Retrieval?
¿Proporciona Amazon S3 capacidades para archivar objetos a fin de reducir el coste de las clases de almacenamiento?
¿Cuál es la infraestructura de backend que admite las clases de almacenamiento S3 Glacier Flexible Retrieval y S3 Glacier Deep Archive?
Amazon S3 Glacier Deep Archive
Abrir todo¿Qué es la clase de almacenamiento Amazon S3 Glacier Deep Archive?
¿Qué casos de uso son los más adecuados para la clase de almacenamiento S3 Glacier Deep Archive?
¿En qué se diferencia la clase de almacenamiento S3 Glacier Deep Archive de las clases de almacenamiento S3 Glacier Instant Retrieval y S3 Glacier Flexible Retrieval?
¿Cómo puedo empezar a usar S3 Glacier Deep Archive?
¿Cómo recomienda migrar los datos de mis archivos de cinta existentes a S3 Glacier Deep Archive?
También puede utilizar AWS Snowball para migrar datos. Snowball acelera la transferencia de datos, desde terabytes a petabytes, hacia y desde AWS mediante dispositivos de almacenamiento físico que son seguros para el transporte. El uso de Snowball ayuda a eliminar los desafíos que pueden surgir con las transferencias de datos a gran escala, lo que incluye costos de red elevados, tiempos de transferencia prolongados y problemas de seguridad. Por último, puede utilizar AWS Direct Connect para establecer conexiones de red dedicadas desde las instalaciones de su empresa a AWS. En muchos casos, Direct Connect puede reducir los costos de red, mejorar el rendimiento del ancho de banda y proporcionar una experiencia de red más estable que las conexiones basadas en Internet.
¿Cómo puedo recuperar mis objetos almacenados en S3 Glacier Deep Archive?
¿Cómo se me cobra por usar S3 Glacier Deep Archive?
¿Cómo aparecerá el uso de S3 Glacier Deep Archive en mi factura de AWS y en la herramienta de administración de costos de AWS?
¿Hay una duración mínima de almacenamiento y cargos mínimos por almacenamiento de objetos para S3 Glacier Deep Archive?
¿Cómo se integra S3 Glacier Deep Archive con otros servicios de AWS?
S3 en Outposts
Abrir todo¿Qué es Amazon S3 en Outposts?
Administración de almacenamiento
Abrir todo¿Qué son las etiquetas de objeto S3?
Para obtener más información, visite la página de la guía de usuario de etiquetas de objetos de S3.
¿Por qué debo usar etiquetas de objetos?
¿Cómo puedo actualizar las etiquetas de mis objetos?
¿Cuánto cuestan las etiquetas de objetos?
¿Cómo puedo empezar a usar Storage Class Analysis?
¿Por qué debo usar los metadatos de Amazon S3?
Debe usar los metadatos de Amazon S3 si quiere usar SQL para consultar la información sobre sus objetos de S3 a fin de identificar rápidamente conjuntos de datos específicos para su IA generativa, análisis y otros casos de uso. S3 Metadata mantiene los metadatos actualizados casi en tiempo real, por lo que puede usar cualquier cliente compatible con Iceberg para ejecutar consultas SQL y buscar objetos según los metadatos del objeto. Por ejemplo, puede usar una consulta SQL para devolver una lista de objetos que coincidan con ciertos filtros, como los objetos agregados en los últimos 30 días en cualquier bucket.
¿Cómo funcionan los metadatos de S3?
Los metadatos de S3 están diseñados para generar automáticamente metadatos que proporcionan información adicional sobre los objetos que se cargan en un bucket y para hacer que esos metadatos se puedan consultar en una tabla de solo lectura. Estas tablas de metadatos se almacenan en Amazon S3 Tables, que se basan en Apache Iceberg y proporcionan una forma gestionada de almacenar y consultar datos tabulares en S3. S3 Metadata crea y mantiene metadatos a nivel del sistema, como el tamaño del objeto, metadatos personalizados, como etiquetas y metadatos definidos por el usuario, durante la carga de objetos, y metadatos de eventos, como la dirección IP que envió la solicitud. A medida que cambian los datos de su bucket, los metadatos de S3 se actualizan casi en tiempo real para reflejar los cambios más recientes. A continuación, puede consultar las tablas de metadatos mediante varios servicios de análisis de AWS y herramientas de código abierto compatibles con Iceberg, como Amazon Athena, Amazon QuickSight y Apache Spark.
¿Cómo puedo empezar a usar S3 Metadata?
Puede empezar a usar los metadatos de S3 con solo unos clics en la consola de S3. Solo tiene que seleccionar el bucket de S3 de uso general en el que desea habilitar los metadatos de S3 y S3 analizará los datos de su bucket y creará una tabla de Apache Iceberg totalmente gestionada que contenga los metadatos de todos sus objetos. En cuestión de minutos, puede empezar a consultar sus metadatos con cualquier motor de consulta o herramienta compatible con Apache Iceberg.
¿Dónde se almacenan mis tablas de metadatos de S3?
Las tablas de metadatos de S3 se almacenan en un depósito de tablas administrado por AWS en su cuenta de AWS denominado aws-s3. Las tablas serán de solo lectura y solo S3 tendrá permiso para escribir, actualizar o eliminar metadatos.
¿Cuáles son los diferentes tipos de tablas de metadatos de S3?
S3 Metadata almacena los metadatos en dos tablas administradas de su cuenta: tablas de diario y tablas de inventario en vivo.
La tabla del diario de metadatos de S3 ofrece una vista de los cambios realizados en su bucket. A medida que los objetos se agregan, actualizan y eliminan de sus depósitos de S3 de uso general, los cambios correspondientes se reflejan en las tablas del diario prácticamente en tiempo real. Las tablas de diario son útiles para comprender el comportamiento de las aplicaciones y para identificar cualquier cambio realizado en los conjuntos de datos. Por ejemplo, puede escribir consultas SQL para tablas de diario para buscar objetos de S3 que coincidan con un filtro, como los objetos agregados en los últimos 30 días, los objetos que han agregado los solicitantes activos u objetos que han cambiado los metadatos durante la última semana.
La tabla de inventario en vivo de S3 Metadata contiene una lista completa de todos los objetos de tu bucket. Las tablas de inventario en vivo se actualizan cada hora y contienen toda la información que S3 conoce sobre sus objetos. Las tablas de inventario en vivo son útiles para descubrir o identificar conjuntos de datos en tu bucket, en función de las características generadas en los metadatos de los objetos. Por ejemplo, puede usar tablas de inventario en vivo para identificar conjuntos de datos de entrenamiento para el aprendizaje automático, para usarlos en ejercicios de optimización de costos de almacenamiento o para ayudar a aplicar los controles de gobierno.
¿Qué tan pronto se reflejan los cambios de mi bucket en los metadatos de S3?
Cuando añadas objetos nuevos a tu bucket, verás las entradas en la tabla del diario en cuestión de minutos y las verás en la tabla del inventario activo en la próxima actualización cada hora. Al habilitar los metadatos de S3 en un bucket existente, S3 iniciará automáticamente una operación de relleno para generar metadatos para todos los objetos existentes. Este relleno normalmente finaliza en minutos, pero puede tardar varias horas si los conjuntos de datos existentes contienen millones o miles de millones de objetos de S3.
¿Puedo combinar las tablas de metadatos de S3 con mis propios metadatos?
¿Qué es S3 Inventory?
S3 Inventory ofrece una alternativa programada para la API List sincronizada de Amazon S3. Puede configurar S3 Inventory para proporcionar una salida de archivo CSV, ORC o Parquet de sus objetos y sus metadatos correspondientes de forma diaria o semanal para un bucket o prefijo de S3. Puede simplificar y agilizar las tareas de big data y los flujos de trabajo empresariales con S3 Inventory. Puede usar S3 Inventory para controlar el estado de replicación y cifrado de sus objetos a fin de cumplir requisitos empresariales, de conformidad y normativos. Más información en la guía de usuario de Amazon S3 Inventory.
¿Cómo puedo empezar a usar S3 Inventory?
¿Cómo se me cobra por usar S3 Inventory?
¿Qué son las tablas Amazon S3?
¿Por qué debo usar S3 Tables?
¿Cómo funcionan los cubos de mesa?
Las tablas S3 proporcionan almacenamiento S3 diseñado específicamente para almacenar datos estructurados en los formatos Apache Parquet, Avro y ORC. Dentro de un bucket de tablas, puede crear tablas como recursos de primera clase directamente en S3. Estas tablas se pueden proteger con permisos a nivel de tabla definidos en políticas basadas en la identidad o en los recursos, y se puede acceder a ellas mediante aplicaciones o herramientas compatibles con el estándar de Apache Iceberg. Al crear una tabla en el cubo de tablas, los datos subyacentes en S3 se almacenan como archivos Parquet, Avro u ORC. Luego, S3 usa el estándar Apache Iceberg para almacenar los metadatos necesarios para que las aplicaciones puedan consultar esos datos. Las tablas de S3 incluyen una biblioteca de clientes que utilizan los motores de consulta para navegar y actualizar los metadatos de Iceberg de las tablas de su bucket de tablas. Esta biblioteca, junto con las API de S3 actualizadas para las operaciones de tablas, permite que varios clientes lean y escriban datos en sus tablas de forma segura. Con el tiempo, S3 optimiza automáticamente los datos subyacentes de Parquet, Avro u ORC reescribiendo o «compactando» los objetos. La compactación optimiza los datos en S3 para mejorar el rendimiento de las consultas.
¿Cómo puedo empezar a usar S3 Tables?
¿Cómo creo y elimino tablas en mi cubo de mesas?
¿Cómo consulto mis tablas?
¿Qué rendimiento puedo esperar de S3 Tables?
Puede esperar un rendimiento de consultas hasta 3 veces más rápido y transacciones por segundo (TPS) hasta 10 veces más altas en comparación con el almacenamiento de tablas de Iceberg en buckets de uso general de Amazon S3. Esto se debe a que los cubos de tablas compactan automáticamente los datos subyacentes de Parquet, Avro u ORC para las tablas a fin de optimizar el rendimiento de las consultas, y el almacenamiento especialmente diseñado admite hasta 10 veces más que el TPS de forma predeterminada.
¿Puedo sobrescribir o eliminar manualmente un objeto del cubo de mi tabla?
¿Cómo funcionan los permisos de Table Bucket?
Los buckets de tablas le permiten aplicar políticas de recursos a todo el bucket o a tablas individuales. Las políticas de buckets de tablas se pueden aplicar mediante las API PutTablePolicy y PutTableBucketPolicy. Las políticas a nivel de tabla le permiten administrar los permisos de las tablas de sus grupos de tablas en función de la tabla lógica a la que están asociadas, sin tener que entender la ubicación física de los archivos individuales de Parquet, Avro u ORC. Además, el bloqueo del acceso público de S3 siempre se aplica a los buckets de tablas.
¿Los cubos de tabla admiten escrituras simultáneas en una sola tabla?
¿Qué formatos de tablas y datos admiten los cubos de tablas?
Los cubos de tabla admiten el formato de tabla Apache Iceberg con datos de Parquet, Avro u ORC.
¿Qué operaciones de mantenimiento de mesas ofrecen los cubos de mesa?
¿Puedo realizar un seguimiento y auditar los cambios realizados en mis tablas?
¿Los cubos de tabla admiten el cifrado en reposo para los datos de mi tabla?
¿Cuánto cuesta usar S3 Tables?
¿Cómo funciona la compactación en S3 Tables?
¿Cómo funciona la administración de instantáneas para S3 Tables?
¿Cómo funciona la eliminación de archivos sin referencia para S3 Tables?
¿Qué es S3 Batch Operations?
¿Cómo puedo empezar a usar S3 Batch Operations?
Si está interesado en obtener más información sobre S3 Batch Operations, vea los vídeos tutoriales y visite la documentación.
¿Qué servicios de almacenamiento electrónico de AWS se han evaluado en función de la normativa de servicios financieros?
¿Qué documentación de AWS respalda el requisito SEC 17a-4 (f) (2) (i) y CFTC 1.31 (c) para notificar a mi organismo regulador?
¿Cómo puedo empezar a usar S3 CloudWatch Metrics?
¿Qué alarmas puedo configurar en mis métricas de almacenamiento?
¿Cómo se me cobra por usar S3 CloudWatch Metrics?
¿Qué es la administración del ciclo de vida de S3?
¿Cómo configuro una política de administración del ciclo de vida de S3?
¿Cómo puedo usar la administración del ciclo de vida de Amazon S3 para ayudar a reducir los costos de almacenamiento de Amazon S3?
También puede especificar una política de ciclo de vida de S3 para eliminar objetos una vez transcurrido un periodo determinado. Puede utilizar esta automatización basada en políticas para reducir de forma rápida y sencilla los costos de almacenamiento, además de ahorrar tiempo. En cada regla puede especificar un prefijo, un periodo de tiempo, una transición a S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive o un vencimiento. Por ejemplo, podría crear una regla que archivara en S3 Glacier Flexible Retrieval todos los objetos con el prefijo común “logs/” 30 días después de su creación, y que les aplicara un vencimiento de 365 días después de su creación.
También puede crear una regla independiente que solo aplique un vencimiento a todos los objetos con el prefijo “backups/” 90 días después de su creación. Las políticas de ciclo de vida de S3 se aplican a objetos de S3 tanto nuevos como existentes, lo que le ayuda a optimizar el almacenamiento y maximizar el ahorro en costos para todos los datos actuales y los datos nuevos que se ubiquen en S3 sin necesidad de realizar una revisión y migración de datos manual y laboriosa.
Dentro de una regla del ciclo de vida, el campo de prefijo identifica los objetos sujetos a la regla. Para aplicar la regla a un objeto individual, especifique el nombre de clave. Para aplicar la regla a un conjunto de objetos, especifique su prefijo común (por ejemplo, “logs/”). Puede especificar una acción de transición para archivar los objetos y una acción de vencimiento para eliminar los objetos. En cuanto al periodo de tiempo, proporcione la fecha de creación (por ejemplo, 31 de enero de 2015) o el número de días desde la fecha de creación (por ejemplo, 30 días) tras el cual desea que los objetos se archiven o eliminen. Puede crear varias reglas para distintos prefijos.
¿Cuánto cuesta usar la administración del ciclo de vida de S3?
¿Por qué utilizaría una política de ciclo de vida de S3 para hacer caducar las subidas multiparte incompletas?
¿Puedo configurar las notificaciones de eventos de Amazon S3 para enviar notificaciones cuando el ciclo de vida de S3 haga una transición o caduque los objetos?
Análisis e información de almacenamiento
Abrir todo¿Qué funciones están disponibles para analizar el uso de mi almacenamiento en Amazon S3?
¿Qué es Amazon S3 Storage Lens?
¿Cómo funciona S3 Storage Lens?
¿Cuáles son las preguntas clave que se pueden responder con las métricas de S3 Storage Lens?
El panel de control de S3 Storage Lens está organizado en torno a cuatro tipos principales de preguntas sobre el almacenamiento. En el filtro Summary (Resumen), se pueden explorar preguntas de nivel superior relacionadas con el uso general del almacenamiento y las tendencias de actividad. Por ejemplo, “¿con qué rapidez aumenta el número total de bytes y el número de solicitudes con el tiempo?” En el filtro Cost Optimization (Optimización de costes), puede explorar preguntas relacionadas con la reducción de costes de almacenamiento. Por ejemplo, “¿puedo ahorrar dinero al retener menos versiones no actuales?”. Con los filtros Data Protection (Protección de datos) y Access Management (Administración de acceso), puede responder preguntas sobre cómo proteger los datos. Por ejemplo, “¿mi almacenamiento está protegido contra la eliminación accidental o intencional?”. Por último, con los filtros Performance (Rendimiento) y Events (Eventos), puede explorar formas de mejorar el rendimiento de los flujos de trabajo. Cada una de estas preguntas representa una primera capa de investigación que probablemente conduzca a un análisis detallado.
¿Qué métricas están disponibles en S3 Storage Lens?
¿Cuáles son las opciones de configuración de mi panel de control?
Un panel de control predeterminado se configura de forma automática para toda la cuenta y tiene la opción de crear paneles personalizados adicionales en el ámbito de la organización de AWS o regiones o buckets específicos dentro de una cuenta. Puede configurar varios paneles de control personalizados, que pueden ser útiles si necesita alguna separación lógica en su análisis de almacenamiento, como segmentar en buckets para representar varios equipos internos. De forma predeterminada, en el panel de control recibirá las métricas gratuitas de S3 Storage Lens, pero tiene la opción de actualizar el servicio para recibir métricas y recomendaciones avanzadas de S3 Storage Lens por un coste adicional. Las métricas avanzadas de S3 Storage Lens tienen 7 opciones distintas: métricas de actividad, métricas avanzadas de optimización de costos, métricas avanzadas de protección de datos, métricas detalladas de códigos de estado, agregación de prefijos, publicación en CloudWatch y agregación de grupos de Storage Lens. Además, para cada panel puede habilitar la exportación de métricas, con opciones adicionales para especificar el bucket de destino y el tipo de cifrado.
¿Cuántos datos históricos hay disponibles en S3 Storage Lens?
¿Cómo me cobrarán por la lente de almacenamiento S3?
S3 Storage Lens está disponible en dos niveles de métricas. Las métricas gratuitas están habilitadas de forma predeterminada y se encuentran disponibles para todos los clientes de S3 sin coste adicional. Los detalles de precios de recomendaciones y métricas avanzadas de S3 Storage Lens están disponibles en la página de precios de S3. Con las métricas gratuitas de S3 Storage Lens, recibe 28 métricas de uso a nivel de bucket y puede acceder a 14 días de datos históricos en el panel. Con las métricas y recomendaciones avanzadas de S3 Storage Lens recibirá 35 métricas adicionales, agregación a nivel de prefijo, compatibilidad con métricas de CloudWatch, filtrado personalizado de metadatos de objetos con grupos de S3 Storage Lens y podrá acceder a 15 meses de datos históricos en el panel de control.
¿Cuál es la diferencia entre S3 Storage Lens y S3 Inventory?
¿Cuál es la diferencia entre S3 Storage Lens y S3 Storage Class Analysis (SCA)?
¿Qué es el análisis de clases de almacenamiento?
¿Con qué frecuencia se actualiza el análisis de clases de almacenamiento?
Consultas in situ
Abrir todo¿Qué es la funcionalidad «Consulta in situ»?
¿Cómo consulto mis datos en Amazon S3?
¿Qué es Amazon Athena?
¿Qué es Amazon Redshift Spectrum?
Replicación
Abrir todo¿Qué es la replicación de Amazon S3?
¿Qué es la replicación entre regiones (CRR) de Amazon S3?
¿Qué es la replicación en la misma región (SRR) de Amazon S3?
¿Qué es la replicación por lotes de Amazon S3?
¿Cómo habilito la replicación de Amazon S3 (replicación entre regiones y replicación en la misma región)?
¿Cómo utilizo la replicación por lotes de S3?
¿Puedo usar S3 Replication con las reglas del ciclo de vida de S3?
Puede encontrar más información sobre la configuración del ciclo de vida y la replicación en la documentación sobre la replicación de S3.
¿Puedo usar S3 Replication para replicar en más de un bucket de destino?
Sí. La replicación de S3 permite a los clientes replicar sus datos en varios buckets de destino, en la misma o en diferentes regiones de AWS. Al realizar la configuración, simplemente especifique el nuevo bucket de destino en la configuración de replicación existente o cree una nueva configuración de replicación con varios buckets de destino. Para cada nuevo destino que especifique, tiene la flexibilidad de elegir el tipo de almacenamiento del bucket de destino, el tipo de cifrado, las métricas y notificaciones de replicación, el control del tiempo de replicación (RTC) y otras propiedades.
P: ¿Puedo utilizar la replicación de S3 para configurar la replicación bidireccional entre buckets de S3?
¿Puedo usar la replicación en todas las cuentas de AWS para protegerme contra la eliminación accidental o malintencionada?
¿Se replicarán mis etiquetas de objeto si uso la replicación entre regiones?
¿Puedo replicar los marcadores de eliminación de un bucket a otro?
¿Puedo replicar datos de otras regiones de AWS en China? ¿Puede un cliente replicar desde un segmento de la región de China fuera de las regiones de China?
¿Puedo replicar objetos existentes?
¿Puedo volver a intentar la replicación si el objeto no se replica inicialmente?
¿Qué tipos de cifrado admite S3 Replication?
¿Cuál es el precio de la replicación de datos entre cuentas?
Visite la página de precios de Amazon S3 para obtener más información sobre los precios de S3 Replication.
¿Qué es el control del tiempo de replicación de Amazon S3?
¿Cómo habilito el control del tiempo de replicación de Amazon S3?
¿Puedo usar S3 Replication Time Control para replicar datos dentro de las regiones de China y entre ellas?
¿Qué son las métricas y los eventos de replicación de Amazon S3?
¿Cómo habilito las métricas y los eventos de replicación de Amazon S3?
¿Puedo usar las métricas y los eventos de replicación de Amazon S3 para realizar un seguimiento de la replicación por lotes de S3?
¿Qué es el acuerdo de nivel de servicio (SLA) de control del tiempo de replicación de Amazon S3?
¿Cuáles son los precios de S3 Replication y S3 Replication Time Control?
¿Qué son los puntos de acceso multirregionales de S3?
¿Por qué debo usar los puntos de acceso multirregionales de S3?
¿Cómo funcionan los puntos de acceso multirregionales de S3?
En una configuración activa-activa, los puntos de acceso de varias regiones de S3 toman en cuenta factores como la congestión de la red y la ubicación de la aplicación de solicitud para dirigir de forma dinámica las solicitudes a la red de AWS con la menor copia de latencia de los datos. Los puntos de acceso de varias regiones de S3 enrutan sus solicitudes a través de la ubicación de AWS más cercana a su cliente y luego a través de la red global privada de AWS para S3. En cualquiera de las configuraciones, los puntos de acceso de varias regiones de S3 le permiten aprovechar la infraestructura global de AWS mientras conserva una arquitectura de aplicaciones simple.
¿Cuál es la diferencia entre la replicación entre regiones de S3 (S3 CRR) y los puntos de acceso multirregionales de S3?
S3 CRR y los puntos de acceso de varias regiones de S3 son características complementarias que funcionan conjuntamente para replicar datos entre regiones de AWS y a continuación dirigir las solicitudes a la copia replicada con la menor latencia. Los puntos de acceso de varias regiones de S3 lo ayudan a administrar las solicitudes en las regiones de AWS, mientras que CRR le permite mover datos en las regiones de AWS para crear réplicas aisladas. Utilice los puntos de acceso de varias regiones de S3 junto con CRR para crear un conjunto de datos de varias regiones replicado que se pueda dirigir mediante un único punto de conexión global.
¿Cuánto cuestan los puntos de acceso multirregionales S3?
Cuando utiliza un punto de acceso para varias regiones de S3 para dirigir solicitudes en AWS, paga un cargo por GB bajo de enrutamiento de datos por cada GB procesado, así como cargos estándares de solicitud, almacenamiento, transferencia de datos y replicación de S3. Si la aplicación se ejecuta fuera de AWS y accede a S3 por Internet, se incrementa el rendimiento de los puntos de acceso para varias regiones de S3 mediante el enrutamiento automático de las solicitudes a través de una ubicación de borde de AWS, mediante la red global privada de AWS, hacia la copia de datos más cercana de acuerdo con la latencia de acceso. Cuando acelera las solicitudes realizadas a través de Internet, paga el cargo de enrutamiento de los datos y un cargo de aceleración de Internet. El precio por la aceleración de Internet de los puntos de acceso de varias regiones de S3 varía en función de si el cliente de origen se encuentra en la misma ubicación o en una diferente de la región de destino de AWS y se suma al precio de transferencia de datos estándar de S3. Para usar los controles de conmutación por error de los puntos de acceso de varias regiones de S3, solo se le cobrarán los costos de la API de S3 para ver el estado actual del control de enrutamiento de cada región y para enviar cualquier cambio de control con el fin de iniciar una conmutación por error. Consulte la página de precios de Amazon S3 y la pestaña de transferencia de datos para obtener más información sobre los precios.
¿Puedo usar Requester Pays con puntos de acceso multirregionales de S3?
Sí, puede configurar los buckets subyacentes del punto de acceso multirregional de S3 para que sean buckets de pagos por solicitante. Con los pagos por solicitante, el solicitante paga todo el costo asociado al uso del punto de conexión, incluido el costo de las solicitudes y el costo de transferencia de datos asociado tanto al bucket como al punto de acceso multirregión. Lo normal es configurar los buckets como buckets de pago por solicitante si desea compartir datos, pero no incurrir en gastos asociados al acceso de otros a los datos. En general, los propietarios de un bucket pagan por todo el almacenamiento de Amazon S3 asociado a su bucket. Para obtener más información, visite Pago por solicitante de S3.
¿En qué se diferencia S3 Transfer Acceleration de los puntos de acceso multirregionales de S3?
¿Cómo puedo empezar a utilizar los puntos de acceso multirregionales de S3 y los controles de conmutación por error?
La consola de S3 proporciona un flujo de trabajo guiado simple para configurar rápidamente todo lo que necesita para ejecutar el almacenamiento multirregional en S3 en solo tres pasos sencillos. Primero, cree un punto de conexión para un punto de acceso multirregional de Amazon S3 y especifique las regiones de AWS entre las que quiere replicar y conmutar por error. Para agregar buckets en varias cuentas de AWS a un nuevo punto de acceso multirregional de S3, ingrese los ID de las cuentas que sean propietarias de los buckets en el momento de la creación. Segundo, para cada región de AWS y bucket de S3 detrás de su punto de conexión del punto de acceso multirregional de S3, especifique si su estado de enrutamiento es activo o pasivo, dónde las regiones de AWS aceptan el tráfico de solicitudes de datos de S3 y si las regiones pasivas no se enrutan hasta que inicie una conmutación por error. Tercero, configure sus reglas de S3 CRR para sincronizar sus datos en S3 entre las regiones o las cuentas. Puede iniciar una conmutación por error en cualquier momento entre las regiones de AWS en cuestión de minutos para cambiar sus solicitudes de datos de S3 y monitorear el cambio de su tráfico de S3 a su nueva región de AWS activa en Amazon CloudWatch. Como alternativa, puede utilizar AWS CloudFormation para automatizar su configuración de almacenamiento multirregional. Todos los componentes necesarios para configurar el almacenamiento multirregional en S3, incluidos los puntos de acceso multirregionales de S3, son compatibles con CloudFormation. Esto le permite automatizar fácilmente un proceso de configuración repetible fuera de la consola de administración de S3.