Argomenti della pagina
- Domande frequenti su S3 - Informazioni generali
20
- Regioni AWS
6
- Fatturazione
10
- Tabelle S3
18
- S3 Vectors
12
- Amazon S3 e IPv6
4
- Notifiche degli eventi S3
5
- Accelerazione del trasferimento Amazon S3
12
- Sicurezza
14
- S3 Access Grants
19
- Punti di accesso S3
13
- Durabilità e protezione dei dati
23
- Classi di archiviazione
2
- S3 Intelligent-Tiering
15
- S3 Standard
2
- S3 Express One Zone
16
- Accesso Infrequente S3 Standard (AI S3 Standard)
8
- Accesso infrequente a zona unica S3 (AI a zona unica S3)
6
- Classe di archiviazione Amazon S3 Glacier Instant Retrieval
8
- Classe di archiviazione Amazon S3 Glacier Flexible Retrieval
10
- Amazon S3 Glacier Deep Archive
10
- S3 su Outposts
1
- Gestione dell'archiviazione
46
- Informazioni dettagliate e analisi sull'archiviazione
12
- Query in loco
4
- Replica
32
- Elaborazione di dati
9
- Accesso ai dati
20
- Storage Browser per Amazon S3
9
Domande frequenti su S3 - Informazioni generali
Apri tuttoUn bucket di tabelle è progettato appositamente per l'archiviazione di tabelle nel formato Apache Iceberg. Usa Tabelle Amazon S3 per creare bucket di tabelle e impostare autorizzazioni a livello di tabella in pochi passaggi. I bucket di tabelle Amazon S3 sono ottimizzati specificamente per i carichi di lavoro di analisi e machine learning. Con il supporto integrato per Apache Iceberg, è possibile interrogare i dati tabulari in S3 con i motori di query più diffusi come Amazon Athena, Amazon Redshift e Apache Spark. Usa i bucket di tabelle S3 per archiviare dati tabulari come transazioni di acquisto giornaliere, dati dei sensori di streaming o impressioni degli annunci sotto forma di tabella in Amazon S3 e poi interagire con tali dati utilizzando capacità di analisi.
Un bucket vettoriale è stato creato appositamente per archiviare e interrogare i vettori. All'interno di un bucket vettoriale, non si utilizzano le API degli oggetti S3, ma piuttosto le API vettoriali dedicate per scrivere dati vettoriali e interrogarli in base al significato semantico e alla somiglianza. Puoi controllare l'accesso ai tuoi dati vettoriali con i meccanismi di controllo degli accessi esistenti in Amazon S3, inclusi bucket e policy IAM. Tutte le scritture su un bucket vettoriale sono fortemente coerenti, il che significa che puoi accedere immediatamente ai vettori aggiunti più di recente. Man mano che scrivi, aggiorni ed elimini i vettori nel tempo, i bucket vettoriali S3 ottimizzano automaticamente i dati vettoriali in essi archiviati per ottenere il rapporto prezzo-prestazioni ottimale, anche se i set di dati si ridimensionano ed evolvono.
Un bucket è un container per oggetti e tabelle archiviati su Amazon S3 in cui è possibile memorizzare un numero qualsiasi di oggetti. I bucket per uso generico sono il tipo di bucket S3 originale e possono contenere oggetti archiviati in tutte le classi di archiviazione a eccezione di S3 Express One Zone. Sono consigliati per la maggior parte dei casi d'uso e dei modelli di accesso. I bucket di directory S3 ammettono solo gli oggetti archiviati nella classe di archiviazione S3 Express One Zone, che fornisce un'elaborazione più rapida dei dati all'interno di una singola zona di disponibilità. Sono consigliati per casi d'uso a bassa latenza. Ogni bucket di directory S3 può supportare fino a 2 milioni di transazioni al secondo (TPS), indipendentemente dal numero di directory al suo interno. I bucket di tabelle S3 sono progettati appositamente per l'archiviazione in S3 di dati tabulari, come transazioni di acquisto giornaliere, dati dei sensori di streaming o impressioni degli annunci. Quando si utilizza un bucket di tabelle, i dati vengono archiviati sotto forma di tabella Iceberg in S3 ed è poi possibile interagirvi utilizzando capacità di analisi come transazioni a livello di riga, snapshot di tabella interrogabili e molte altre, tutte gestite da S3. Inoltre, i bucket di tabelle eseguono una manutenzione continua delle tabelle, in modo da ottimizzare automaticamente l'efficienza delle query nel tempo, anche se il data lake si scala e si evolve. I bucket vettoriali S3 sono progettati appositamente per l'archiviazione e l'interrogazione dei vettori. All'interno di un bucket vettoriale, si utilizzano API vettoriali dedicate per scrivere dati vettoriali e interrogarli in base al significato semantico e alla somiglianza. Puoi controllare l'accesso ai tuoi dati vettoriali utilizzando i meccanismi di controllo degli accessi esistenti in Amazon S3, inclusi bucket e policy IAM. Man mano che scrivi, aggiorni ed elimini i vettori nel tempo, i bucket vettoriali S3 ottimizzano automaticamente i dati vettoriali in essi archiviati per ottenere il rapporto prezzo-prestazioni ottimale, anche se i set di dati si ridimensionano ed evolvono.
Regioni AWS
Apri tuttoLa classe di archiviazione Amazon S3 One Zone-IA replica i dati in una singola zona di disponibilità. I dati archiviati in S3 One Zone-IA non sono resilienti alla perdita fisica di una zona di disponibilità dovuta a calamità come terremoti, incendi e alluvioni.
Fatturazione
Apri tutto2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.
Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese: utilizzo totale in byte/ora
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte. GB al mese totali
5.257.039.970.304 byte/ora x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB al mese Il costo viene calcolato in base alle tariffe correnti per la tua regione nella pagina dei prezzi di Amazon S3.
Tabelle S3
Apri tuttoS3 Tables fornisce uno spazio S3 dedicato per l'archiviazione di dati strutturati nel formato Apache Parquet, Avro e ORC. All'interno di un bucket di tabelle, è possibile creare tabelle come risorse di prima classe direttamente in S3. Queste tabelle possono essere protette con autorizzazioni a livello di tabella definite in policy basate sull'identità o sulle risorse, e sono accessibili da applicazioni o strumenti che supportano lo standard Apache Iceberg. Quando si crea una tabella nel bucket di tabelle, i dati sottostanti in S3 vengono archiviati come file Parquet, Avro o ORC. Quindi, S3 utilizza lo standard Apache Iceberg per archiviare i metadati necessari affinché le applicazioni possano interrogare i dati. S3 Tables include una libreria client utilizzata dai motori di query per navigare e aggiornare i metadati Iceberg delle tabelle del bucket di tabelle. Questa libreria, insieme alle API S3 aggiornate per le operazioni sulle tabelle, consente a più client di leggere e scrivere dati nelle tabelle in modo sicuro. Nel tempo, S3 ottimizza automaticamente i dati Parquet, Avro o ORC sottostanti riscrivendo o “compattando” gli oggetti. La compattazione ottimizza i dati su S3 per migliorare le prestazioni delle query.
È possibile iniziare a usare S3 Tables in soli tre passaggi e senza dover creare alcuna infrastruttura all'esterno di S3. Innanzitutto, crea un bucket da tavolo nella console S3. Come parte della creazione del primo bucket di tabelle tramite la console, l'integrazione con i servizi AWS Analytics avviene automaticamente, il che consente a S3 di popolare automaticamente tutti i bucket e le tabelle del tuo account e della tua regione nel catalogo dati AWS Glue. Dopodiché, S3 Tables sarà quindi accessibile ai motori di query AWS come Amazon Athena, EMR e Redshift. Successivamente, puoi fare clic per creare una tabella utilizzando Amazon Athena dalla console S3. Una volta in Athena, puoi iniziare rapidamente a popolare nuove tabelle e a interrogarle.
In alternativa, puoi accedere a S3 Tables utilizzando l'endpoint di catalogo REST di Iceberg tramite il Catalogo dati AWS Glue, che ti consente di scoprire l'intero patrimonio di dati, comprese tutte le risorse delle tabelle. Puoi anche connetterti direttamente a un singolo endpoint del bucket di tabelle per scoprire tutte le risorse di S3 Tables all'interno di quel bucket. Ciò consente di utilizzare S3 Tables con qualsiasi applicazione o motore di query che supporti la specifica del catalogo REST di Apache Iceberg.
Le prestazioni delle query sono fino a 3 volte più veloci e le transazioni al secondo (TPS) sono fino a 10 volte superiori rispetto all'archiviazione delle tabelle Iceberg in bucket Amazon S3 per uso generico. Queste prestazioni sono dovute al fatto che i bucket di tabelle compattano automaticamente i dati Parquet, Avro oppure ORC sottostanti delle tabelle per ottimizzare le prestazioni delle query. Inoltre, l'archiviazione progettata appositamente supporta TPS fino a 10 volte superiori per impostazione predefinita.
I bucket di tabelle offrono la possibilità di applicare policy di risorse all'intero bucket o a singole tabelle. Le policy di bucket di tabelle possono essere applicate utilizzando le API PutTablePolicy e PutTableBucketPolicy. Le policy a livello di tabella consentono di gestire le autorizzazioni al bucket di tabelle in base alla logica delle tabelle a cui è associato, senza la necessità di conoscere la posizione fisica dei singoli file Parquet, Avro o ORC. Inoltre, Blocco dell'accesso pubblico S3 è sempre applicato ai bucket di tabelle.
I bucket di tabelle supportano il formato di tabelle Apache Iceberg con dati Parquet.
S3 Vectors
Apri tuttoPuoi iniziare a usare S3 Vectors in quattro semplici passaggi, senza dover configurare alcuna infrastruttura al di fuori di Amazon S3. Innanzitutto, crea un bucket vettoriale in una regione AWS specifica tramite l'API CreateVectorBucket o nella console S3. In secondo luogo, per organizzare i dati vettoriali in un bucket vettoriale, crei un indice vettoriale con l'API CreateIndex o nella console S3. Quando si crea un indice vettoriale, si specifica il parametro della distanza (coseno o euclidea) e il numero di dimensioni che un vettore deve avere (fino a 4.092). Per risultati più accurati, seleziona il parametro della distanza consigliata dal tuo modello di embedding. Terzo, aggiungi dati vettoriali a un indice vettoriale con l'API PutVectors. Facoltativamente, puoi collegare metadati come coppie chiave-valore a ciascun vettore per filtrare le query. In quarto luogo, esegui una query di somiglianza utilizzando l'API QueryVectors, specificando il vettore da cercare e il numero dei risultati più simili da restituire.
Puoi creare un indice vettoriale utilizzando la console S3 o l'API CreateIndex. Durante la creazione dell'indice, specifichi il bucket vettoriale, l'indice, il parametro della distanza, le dimensioni e, facoltativamente, un elenco di campi di metadati che desideri escludere dal filtro durante le query di somiglianza. Ad esempio, se desideri archiviare i dati associati ai vettori esclusivamente come riferimento, puoi specificarli come campi di metadati non filtrabili. Al momento della creazione, a ciascun indice viene assegnato un nome della risorsa Amazon (ARN) univoco. Successivamente, quando si effettua una richiesta di scrittura o di interrogazione, la si indirizza a un indice vettoriale all'interno di un bucket vettoriale.
Puoi aggiungere vettori a un indice vettoriale utilizzando l'API PutVectors. Ogni vettore è costituito da una chiave, che identifica in modo univoco ogni vettore in un indice vettoriale (ad esempio è possibile generare un UUID a livello di codice). Per massimizzare il throughput di scrittura, si consiglia di inserire vettori in batch di grandi dimensioni, fino alla dimensione massima della richiesta. Inoltre, puoi collegare metadati (ad esempio anno, autore, genere e località) come coppie di valori chiave a ciascun vettore. Quando si includono i metadati, per impostazione predefinita tutti i campi possono essere utilizzati come filtri in una query di similarità, a meno che non siano specificati come metadati non filtrabili al momento della creazione dell'indice vettoriale. Per generare nuovi embedding vettoriali dei tuoi dati non strutturati, puoi utilizzare l'API InvokeModel di Amazon Bedrock, specificando l'ID del modello di embedding che desideri utilizzare.
Puoi utilizzare l'API GetVectors per cercare e restituire vettori e metadati associati tramite la chiave vettoriale.
È possibile eseguire una query di somiglianza con l'API QueryVectors, specificando il vettore di query, il numero di risultati pertinenti da restituire (i primi k vicini più vicini) e l'ARN dell'indice. Quando si genera il vettore di interrogazione, è necessario utilizzare lo stesso modello di embedding utilizzato per generare i vettori iniziali memorizzati nell'indice vettoriale. Ad esempio, se utilizzi Embedding di testo Amazon Titan v2 in Amazon Bedrock per generare incorporamenti dei tuoi documenti, ti consigliamo di utilizzare lo stesso modello per convertire una domanda in un vettore. Inoltre, puoi utilizzare i filtri dei metadati in una query per cercare i vettori che corrispondono al filtro. Quando si esegue la query di similarità, per impostazione predefinita vengono restituite le chiavi vettoriali. Puoi facoltativamente includere la distanza e i metadati nella risposta.
S3 Vectors offre un'archiviazione vettoriale altamente duratura e disponibile. I dati scritti su S3 Vectors vengono archiviati su S3, progettato per una durabilità dei dati del 99,999999999%. S3 Vectors è progettato per offrire una disponibilità del 99,99% con un Accordo sul livello di servizio per la disponibilità del 99.9%.
S3 Vectors offre tempi di latenza delle query inferiori al secondo. Utilizza il throughput elastico di Amazon S3 per gestire le ricerche su milioni di vettori ed è ideale per carichi di lavoro di query poco frequenti.
Per eseguire query di somiglianza per gli embedding vettoriali, diversi fattori possono influire sul richiamo medio, tra cui il modello di embedding, la dimensione del set di dati vettoriali (numero di vettori e dimensioni) e la distribuzione delle query. S3 Vectors offre un richiamo medio di oltre il 90% per la maggior parte dei set di dati. Il richiamo medio misura la qualità dei risultati delle query: il 90% significa che la risposta contiene il 90% dei vettori di verità fondamentale più vicini, memorizzati nell'indice, al vettore di query. Tuttavia, poiché le prestazioni effettive possono variare a seconda del caso d'uso specifico, consigliamo di condurre test personalizzati con dati e domande rappresentativi per verificare che gli indici vettoriali S3 soddisfino i requisiti di richiamo.
Puoi visualizzare un elenco di vettori in un indice vettoriale con l'API ListVectors, che restituisce fino a 1.000 vettori alla volta con un indicatore se la risposta viene troncata. La risposta include la data dell'ultima modifica, la chiave vettoriale, i dati vettoriali e i metadati. Puoi anche utilizzare l'API ListVectors per esportare facilmente dati vettoriali da un indice vettoriale specificato. L'operazione ListVectors è fortemente coerente. Quindi, dopo una scrittura, puoi immediatamente elencare i vettori con tutte le modifiche riflesse.
Con S3 Vectors, paghi per lo spazio di archiviazione e per qualsiasi richiesta di scrittura e lettura applicabile (ad esempio, inserimento di vettori ed esecuzione di operazioni di interrogazione sui vettori in un indice vettoriale). Per maggiori dettagli sui prezzi, consulta la pagina dei prezzi di S3.
Sì. Durante la creazione di una knowledge base Bedrock tramite la console o l'API Bedrock, puoi configurare un indice vettoriale S3 esistente come archivio vettoriale per risparmiare sui costi di archiviazione vettoriale per i casi d'uso RAG. Se preferisci lasciare che Bedrock crei e gestisca l'indice vettoriale per te, usa il flusso di lavoro Quick Create nella console Bedrock. Inoltre, puoi configurare un nuovo indice vettoriale S3 come archivio vettoriale per i flussi di lavoro RAG in Amazon SageMaker Unified Studio.
Sì. Esistono due modi per utilizzare S3 Vectors con il Servizio OpenSearch di Amazon. Innanzitutto, i clienti S3 possono esportare tutti i vettori da un indice vettoriale S3 a OpenSearch serverless come nuova raccolta serverless utilizzando la console S3 o OpenSearch. Se costruisci nativamente su S3 Vectors, trarrai vantaggio dalla possibilità di utilizzare OpenSearch serverless in modo selettivo per carichi di lavoro con esigenze di interrogazione in tempo reale. In secondo luogo, se sei un cliente OpenSearch gestito, ora puoi scegliere S3 Vectors come motore per i dati vettoriali che possono essere interrogati con una latenza inferiore al secondo. OpenSearch utilizzerà quindi automaticamente S3 Vectors come motore sottostante per i vettori e potrai aggiornare e cercare i tuoi dati vettoriali utilizzando le API OpenSearch. Ottieni i vantaggi in termini di costi di S3 Vectors, senza modifiche alle tue applicazioni.
Amazon S3 e IPv6
Apri tuttoNotifiche degli eventi S3
Apri tuttoAccelerazione del trasferimento Amazon S3
Apri tuttoPer ulteriori informazioni sull'implementazione di AWS, consulta la sezione File delle Domande frequenti su Storage Gateway.
Sicurezza
Apri tuttoPer ulteriori informazioni sulla sicurezza in AWS, consulta la pagina sulla sicurezza di AWS e per informazioni sulla sicurezza di S3, visita la pagina sulla sicurezza di S3 o la guida alle best practice di sicurezza di S3.
Per impostazione predefinita, i dati e i metadati degli oggetti rimangono all'interno della singola zona locale dedicata nella quale si trova l'oggetto. I dati di gestione e telemetria del bucket, compresi i nomi, i parametri di capacità, i log di CloudTrail, i parametri di CloudWatch, le chiavi gestite del cliente delle policy del Servizio AWS di gestione delle chiavi (KMS) e di Identity and Access Management (IAM), sono archiviati nella regione AWS parent. Facoltativamente, altre funzionalità di gestione del bucket, come Operazioni in batch S3, archiviano metadati di gestione con il nome del bucket e dell'oggetto nella regione AWS parent.
Puoi creare un endpoint VPC di interfaccia utilizzando la console di gestione VPC di AWS, l'interfaccia della linea di comando AWS (AWS CLI), l'SDK AWS o l'API. Per ulteriori informazioni, consulta la documentazione.
Per ulteriori informazioni, consulta la documentazione del Sistema di analisi degli accessi IAM.
S3 Access Grants
Apri tuttoPunti di accesso S3
Apri tuttoI punti di accesso Amazon S3 sono endpoint che semplificano la gestione dell'accesso ai dati per qualsiasi applicazione o servizio AWS che funziona con S3. I punti di accesso S3 funzionano con i bucket S3 e i file system Amazon FSx per OpenZFS. Puoi controllare e semplificare il modo in cui diverse applicazioni o utenti possono accedere ai dati creando punti di accesso con nomi e autorizzazioni personalizzati per ogni applicazione o utente.
Grazie ai punti di accesso S3 con i bucket S3 non è più necessario gestire una singola e complessa policy di bucket con centinaia di diverse regole di autorizzazione che devono essere scritte, lette, tracciate e verificate. È invece possibile creare centinaia di punti di accesso per bucket, ognuno dei quali fornisce un percorso personalizzato in un bucket, con un nome host unico e una policy di accesso che implementa le autorizzazioni specifiche e i controlli di rete per qualsiasi richiesta avanzata attraverso il punto di accesso.
Utilizzando i punti di accesso S3 con FSx per OpenZFS, puoi accedere ai tuoi dati FSx utilizzando l'API S3 come se i dati fossero in S3. Grazie a questa funzionalità, i dati dei file in FSx per OpenZFS sono accessibili per l'utilizzo con l'ampia gamma di servizi e applicazioni di intelligenza artificiale, machine learning e analisi compatibili con S3, pur continuando a risiedere nel file system FSx per OpenZFS.
Con i punti di accesso S3, puoi accedere ai dati dei file in Amazon FSX per OpenZFS utilizzando le API S3 e senza spostare i dati su S3. I punti di accesso S3 collegati ai file system FSx per OpenZFS funzionano in modo simile a come funzionano i punti di accesso S3 collegati ai bucket S3, fornendo l'accesso ai dati tramite S3 con accesso controllato da policy di accesso, mentre i dati continuano a essere archiviati nei file system FSX per OpenZFS o nei bucket S3. Ad esempio, una volta collegato un punto di accesso S3 a un file system FSx per OpenZFS, i clienti possono utilizzare il punto di accesso con servizi e applicazioni di IA generativa, machine learning e analisi che funzionano con S3 per accedere ai propri dati FSx per OpenZFS.
Durabilità e protezione dei dati
Apri tuttoPer verificare l'integrità dei dati, Amazon S3 impiega una combinazione di checksum Content-MD5, Secure Hash Algorithm (SHA) e controlli di ridondanza ciclici (CRC). Amazon S3 esegue il checksum sui dati a riposo e corregge gli eventuali errori utilizzando i dati ridondanti. Inoltre, gli SDK AWS più recenti calcolano automaticamente checksum efficienti basati su CRC per tutti i caricamenti. S3 verifica in modo indipendente tale checksum e accetta gli oggetti solo dopo aver confermato che l'integrità dei dati è stata mantenuta durante il transito sulla rete Internet pubblica. Quando, per caricare un oggetto, viene utilizzata una versione dell'SDK che non fornisce checksum precalcolati, S3 ne calcola uno basato sul CRC dell'intero oggetto, anche per i caricamenti in più parti. I checksum sono memorizzati nei metadati degli oggetti e sono quindi disponibili per verificare l'integrità dei dati in qualsiasi momento. È possibile scegliere tra cinque algoritmi di checksum supportati per la verifica dell'integrità dei dati sulle richieste di caricamento e download. A seconda delle esigenze dell'applicazione, è possibile scegliere tra gli algoritmi di checksum SHA-1, SHA-256, CRC32, CRC32C o CRC64NVME. È possibile calcolare e verificare automaticamente i checksum durante l'archiviazione o il recupero dei dati da S3 e accedere alle informazioni relative al checksum in qualunque momento tramite l'API S3 HeadObject, l'API S3 GetObjectAttributes o il report sull'inventario S3. Il calcolo del checksum durante la trasmissione dei dati in S3 consente di risparmiare tempo, perché la verifica e la trasmissione dei dati sono riunite in unico passaggio anziché richiedere due operazioni successive. L'utilizzo dei checksum per la convalida dei dati è una best practice per la durata dei dati e queste funzionalità aumentano le prestazioni e riducono i costi associati.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.
Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese: utilizzo totale in byte/ora
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte. GB al mese totali
5.257.039.970.304 byte/ora x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB al mese Il costo viene calcolato in base alle tariffe correnti per la tua regione nella pagina dei prezzi di Amazon S3.
Ulteriori informazioni sono disponibili nella Guida per l'utente di S3 Object Lock.
Per configurare S3 Object Lock è possibile scegliere tra due modalità. Se distribuiti in modalità di governance, gli account AWS con autorizzazioni IAM specifiche sono in grado di rimuovere la protezione WORM dalla versione di un oggetto. Qualora siano necessari requisiti di non modificabilità più severi per adempiere alle normative vigenti, è possibile usare a modalità di conformità. Nella modalità di conformità, la protezione WORM non può essere rimossa da alcun utente, neppure dall'account root.
No, non è possibile disabilitare S3 Object Lock o S3 Versioning per i bucket una volta abilitato S3 Object Lock.
Per iniziare a replicare oggetti con Replica da bucket con S3 Object Lock abilitato, è possibile aggiungere una configurazione di replica sul bucket di origine specificando un bucket di destinazione nella stessa Regione AWS o in una Regione AWS diversa e nello stesso account AWS o in uno diverso. È possibile scegliere di replicare tutti gli oggetti a livello di bucket S3 o filtrarli su un livello di prefisso condiviso o su uno di oggetto utilizzando i tag di oggetti S3. Inoltre, sarà necessario specificare un ruolo AWS Identity and Access Management (IAM) con le autorizzazioni necessarie per eseguire l'operazione di replica. È possibile utilizzare la console S3, l'API AWS, l'AWS CLI, gli SDK AWS o AWS CloudFormation per abilitare la replica ed è necessario che S3 Versioning sia abilitato sia per i bucket di origine che per quelli di destinazione. Inoltre, per replicare oggetti dai bucket abilitati per S3 Object Lock, è necessario che nel bucket di destinazione anche S3 Object Lock sia abilitato. Per ulteriori informazioni, consulta la documentazione sulla configurazione di Replica S3 e sull'utilizzo di S3 Object Lock con Replica S3.
Sì, per replicare oggetti dai bucket abilitati per S3 Object Lock è necessario concedere due nuove autorizzazioni, s3:GetObjectRetention e s3:GetObjectLegalHold, sul bucket di origine nel ruolo IAM utilizzato per configurare la replica. In alternativa, se il ruolo IAM dispone di un'autorizzazione S3:Get*, soddisfa il requisito. Per ulteriori informazioni, consulta la documentazione sull'utilizzo di S3 Object Lock con Replica S3.
No, tutte le funzionalità di S3 Replication, come la replica nella stessa Regione di S3 (S3 SRR), la replica tra Regioni di S3 (S3 CRR), le metriche di replica di S3 per tenere traccia dell'avanzamento, il controllo del tempo di replica di S3 (S3 RTC) e la replica in batch di S3, sono supportate durante la replica dai bucket S3 Object Lock.
È possibile utilizzare la replica in batch S3 per replicare oggetti esistenti da bucket abilitati per S3 Object Lock. Per ulteriori informazioni sulla replica di oggetti esistenti, consulta la documentazione sulla Replica in batch S3.
Classi di archiviazione
Apri tuttoPer la scelta della classe di archiviazione S3 più adatta al carico di lavoro, considera i modelli di accesso e il tempo di conservazione dei dati per ottimizzare il costo totale per tutto il ciclo di vita dei dati. Molti carichi di lavoro presentano modelli di accesso variabili (contenuto generato dagli utenti), imprevedibili (analisi, data lake) o sconosciuti (nuove applicazioni): ecco perché il Piano intelligente S3 dovrebbe essere la classe di archiviazione di default per risparmiare automaticamente sui costi di archiviazione. Se conosci i modelli di accesso dei tuoi dati, puoi seguire queste linee guida. La classi di archiviazione S3 Standard è l'ideale per i dati ad accesso frequente; si tratta della scelta migliore se si accede ai dati più di una volta al mese. S3 Standard-Infrequent Access è l'ideale per i dati mantenuti per almeno un mese e a cui si accede una volta al mese od ogni due mesi. Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le prestazioni migliori, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Puoi scegliere fra tre classi di archiviazione ottimizzate a seconda dei modelli di accesso e della durata dell'archiviazione. Per i dati di archivio che richiedono l'accesso immediato, come le immagini mediche, le risorse della stampa o i dati sulla genomica, scegli la classe di archiviazione S3 Glacier Instant Retrieval, una classe di archiviazione che offre il recupero in millisecondi a un costo irrisorio. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a un costo irrisorio, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval, che eseguirà il recupero in pochi minuti oppure recuperi in massa gratuiti dalle 5 alle 12 ore. Per risparmiare ulteriormente sull'archiviazione a lungo termine come archivi di conformità e conservazione dei media digitali, scegli S3 Glacier Deep Archive, il servizio di archiviazione cloud più conveniente che ti permette di recuperare i dati entro 12 ore. Tutte queste classi di archiviazione offrono la resilienza su più zone di disponibilità archiviando i dati in modo ridondante su molteplici dispositivi e zone di disponibilità AWS fisicamente separate all'interno di una regione AWS.
Per i dati che presentano requisiti di resilienza inferiori, puoi ridurre i costi selezionando una classe di archiviazione a zona di disponibilità singola, ad esempio Accesso infrequente a zona unica S3. Se hai requisiti di isolamento o residenza dei dati che non possono essere soddisfatti da una regione AWS esistente, puoi utilizzare le classi di archiviazione S3 per le zone locali AWS dedicate o i rack S3 on Outposts per archiviare i tuoi dati in un perimetro specifico.
S3 Intelligent-Tiering
Apri tuttoS3 Intelligent-Tiering non prevede una dimensione minima degli oggetti, ma gli oggetti più piccoli di 128 KB non sono idonei per l'assegnazione di livelli automatica. È possibile archiviare tali oggetti di dimensioni inferiori in S3 Intelligent-Tiering, ma si applicheranno sempre le tariffe del livello di Frequent Access e non quelle per monitoraggio e automazione. Se desideri standardizzare S3 Intelligent-Tiering come classe di archiviazione di default per i dati appena creati, puoi modificare le applicazioni specificando INTELLIGENT-TIERING nell'header di richiesta dell'API PUT S3. S3 Intelligent-Tiering è progettata per garantire una disponibilità del 99,9% e una durabilità del 99,999999999%; allo stesso tempo, offre automaticamente le stesse prestazioni con bassa latenza e velocità effettiva elevata della classe S3 Standard. Puoi usare AWS Cost Explorer per misurare i risparmi aggiuntivi rispetto al livello Archive Instant Access.
Pagando una tariffa di monitoraggio e automazione contenuta, S3 Intelligent-Tiering monitora i modelli di accesso e sposta automaticamente gli oggetti fra livelli di accesso a bassa latenza e velocità effettiva elevata, nonché fra due livelli di accesso all'archivio asincrono opzionali in cui i clienti ottengono i costi più bassi di archiviazione nel cloud per i dati che ammettono l'accesso asincrono.
S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti fatturabile, ma gli oggetti più piccoli di 128 KB non sono idonei per l'assegnazione di livelli automatica. Questi oggetti di piccole dimensioni non saranno monitorati e saranno applicate le tariffe del livello Frequent Access, senza costi per monitoraggio e automazione. Per ogni oggetto archiviato nei livelli Archive Access o Deep Archive Access in S3 Intelligent-Tiering, Amazon S3 usa 8 KB di archiviazione per il nome dell'oggetto e altri metadati (fatturati alle tariffe di archiviazione di S3 Standard) e 32 KB di archiviazione per l'indice e i relativi metadati (fatturati alle tariffe di archiviazione di S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).
S3 Standard
Apri tuttoS3 Express One Zone
Apri tuttoÈ possibile importare i dati dalla stessa Regione AWS nella classe di archiviazione S3 Express One Zone tramite la console S3 utilizzando l'opzione Importa dopo aver creato un bucket di directory. L'importazione semplifica la copia dei dati nei bucket di directory S3 consentendo di scegliere un prefisso o un bucket da cui importare i dati senza dover specificare singolarmente tutti gli oggetti da copiare. S3 Batch Operations copia gli oggetti nel prefisso o nel bucket per uso generico selezionato; è possibile monitorare lo stato di avanzamento del processo di copia di importazione tramite la relativa pagina dei dettagli.
I bucket di directory S3 che non hanno attività di richiesta per un periodo di almeno 3 mesi passeranno a uno stato inattivo. Mentre è in uno stato inattivo, un bucket di directory è temporaneamente inaccessibile per le letture e le scritture. I bucket inattivi conservano tutto lo storage, i metadati degli oggetti e i metadati dei bucket. Le tariffe di archiviazione esistenti verranno applicate ai bucket inattivi. In caso di richiesta di accesso a un bucket inattivo, il bucket passerà a uno stato attivo, in genere entro pochi minuti. Durante questo periodo di transizione, le operazioni di lettura e scrittura restituiranno un codice di errore 503 SlowDown.
Supponiamo di archiviare 10 GB di dati su S3 Express One Zone per 30 giorni, per un totale di 1.000.000 di scritture e 9.000.000 di letture, accedendo con Athena con una richiesta di 10 KB. Poi, eliminiamo 1.000.000 di file entro il termine di 30 giorni. Supponendo che il bucket si trovi nella Regione Stati Uniti orientali (Virginia settentrionale), il costo delle richieste è il seguente: Costi di archiviazione
Consumo totale di bite/ora = 10 GB/mese
Costo totale di archiviazione = 10 GB al mese x 0,11 USD = 1,10 USD di costi di richiesta
1.000.000 di richieste PUT: 1.000.000 di richieste x 0,00113 USD/1.000 = 1,13 USD
9.000.000 di richieste GET: 9.000.000 di richieste x 0,00003 USD/1.000 = 0,27 USD
1.000.000 di richieste DELETE = 1.000.000 di richieste x 0,00 USD (senza costi) = 0 USD Costo di caricamento dati: 10 KB/1.048.576 x 1.000.000 x 0,0032 USD = 0,03 USD
Costo per il recupero dei dati: 10 KB/1.048.576 x 9.000.000 x 0,0006 USD = 0,05 USD
Spese totali = 1,10 USD + 1,13 USD + 0,27 USD + 0,03 USD + 0,05 USD = 2,58 USD Esempio 2:
Supponiamo di archiviare 10 TB di dati per l'addestramento del machine learning per un carico di lavoro di 8 ore al giorno per poi eliminarli. Durante il carico di lavoro di 8 ore, effettuiamo 5.242.880 scritture e 10.485.760 letture per una richiesta di 2 MB. Supponiamo di farlo per 30 giorni (un mese). Costi di archiviazione
Utilizzo totale di byte/ora = [10.995.116.277.760 byte x 30 giorni x (8 ore/giorno)] = 2.638.827.906.662.400 byte/ora = 3.303,77 GB/mese
Costo totale di archiviazione = 3303,77 GB x 0,11 USD = 363,41 USD Costi di richiesta
5.242.880 richieste PUT al giorno: 5.242.880 richieste x 30 x 0,00113 USD/1.000 = 177,73 USD
10.485.760 richieste GET al giorno: 10.485.760 richieste x 30 x 0,00003 USD/1,000 = 9,44 USD
5.242.880 richieste DELETE al giorno: 5.242.880 richieste x 0,00 USD (nessun costo) = 0 USD Costo di caricamento dati: 2 MB/1024 x 5.242.880 x 30 x 0,0032 USD = 983,04 USD
Costo per il recupero dei dati: 2 MB/1024 x 10.485.760 x 30 x 0,0006 USD = 368,64 USD
Costi totali = 363,41 USD + 177,73 USD + 9,44 USD + 983,04 USD + 368,64 USD = 1.902,26 USD
Accesso Infrequente S3 Standard (AI S3 Standard)
Apri tuttoAccesso infrequente a zona unica S3 (AI a zona unica S3)
Apri tuttoClasse di archiviazione Amazon S3 Glacier Instant Retrieval
Apri tuttoClasse di archiviazione Amazon S3 Glacier Flexible Retrieval
Apri tuttoNota: S3 Glacier Flexible Retrieval è disponibile anche attraverso le API di Glacier dirette originali e attraverso la console di gestione di Amazon S3 Glacier. Per un'esperienza migliore, completa di accesso all'intero set di funzionalità S3, tra cui la gestione del ciclo di vita, Replica S3, S3 Storage Lens e altro ancora, si consiglia di usare le API S3 e la console di gestione di S3 per approfittare delle caratteristiche di S3 Glacier.
Con le unità di capacità assegnate della classe di archiviazione S3 Glacier, è possibile pagare una quota fissa anticipata per un determinato mese per garantire la disponibilità di capacità di recupero per i recuperi di tipo Expedited da S3 Glacier Flexible Retrieval. Puoi acquistare due unità di capacità assegnate al mese per aumentare la quantità di dati da recuperare. Ogni unità di capacità consente almeno tre recuperi di tipo Expedited a intervalli di 5 minuti e fornisce fino a 150 MB al secondo di velocità effettiva. Se il tuo carico di lavoro richiede un accesso altamente affidabile e prevedibile a un sottoinsieme di dati in pochi minuti, dovresti acquistare la capacità di recupero assegnata. Senza capacità assegnata, i recuperi di tipo expedited potrebbero non essere accettati durante i periodi di elevato afflusso di domande. Se hai bisogno di accedere a recuperi di tipo expedited in qualsiasi circostanza, ti raccomandiamo di acquistare capacità di recupero assegnata.
È possibile acquistare capacità assegnata utilizzando la Console Amazon S3, l'API REST di acquisto di capacità assegnata, i kit SDK AWS o AWS CLI. Un'unità di capacità assegnata dura un mese a partire dalla data e ora di acquisto, che rappresenta la data di inizio. L'unità scade alla data di scadenza, che è esattamente un mese dopo la data di inizio al secondo più vicino. Per informazioni sui costi della capacità assegnata, consulta prezzi di Amazon S3.
1,000032 gigabyte per oggetto x 100.000 oggetti = 100.003,2 gigabyte di archiviazione in S3 Glacier.
0,000008 gigabyte per oggetto x 100.000 oggetti = 0,8 gigabyte di archiviazione in S3 Standard.
I costi sono calcolati in base alle tariffe correnti nella regione AWS in uso secondo la pagina dei prezzi di Amazon S3. Per altri esempi sui prezzi di Amazon S3, visita la pagina delle Domande frequenti sulla fatturazione di S3 o usa il calcolatore dei prezzi AWS.
Il recupero flessibile Amazon S3 Glacier richiede anche 40 KB di metadati aggiuntivi per ogni oggetto archiviato. Sono inclusi 32 KB di metadati addebitati alla tariffa di Recupero flessibile Amazon S3 Glacier necessari per identificare e recuperare i dati. Inoltre, 8 KB di dati aggiuntivi addebitati alla tariffa S3 Standard, necessari per mantenere il nome e i metadati definiti dall'utente per gli oggetti archiviati in Recupero flessibile Amazon S3 Glacier. Puoi così ottenere un elenco aggiornato di tutti gli oggetti di S3 utilizzando l’API S3 LIST o il report S3 Inventory. Per informazioni sui prezzi di Amazon S3 Glacier Flexible Retrieval, consulta la pagina dei prezzi di Amazon S3.
Amazon S3 Glacier Deep Archive
Apri tuttoÈ anche possibile usare AWS Snowball per migrare i dati. Snowball accelera lo spostamento di terabyte a petabyte di dati in entrata e in uscita da AWS utilizzando dispositivi di archiviazione fisici progettati per essere sicuri per il trasporto. L'utilizzo di Snowball consente di risolvere alcuni dei problemi più comuni dei trasferimenti di volumi elevati di dati, tra cui gli elevati costi di rete, la durata del trasferimento e la sicurezza. Infine, AWS Direct Connect si utilizza per stabilire connessioni di rete dedicate dai propri uffici ad AWS. In molti casi, Direct Connect può ridurre i costi di rete, aumentare il throughput della larghezza di banda e fornire un'esperienza di rete più coerente rispetto alle connessioni basate su Internet.
S3 su Outposts
Apri tuttoGestione dell'archiviazione
Apri tuttoUlteriori informazioni sono disponibili nella Guida per l'utente di S3 Object Tag.
Dovresti utilizzare Amazon S3 Metadata se desideri utilizzare SQL per interrogare le informazioni sui tuoi oggetti S3 per identificare rapidamente set di dati specifici per l'IA generativa, l'analisi e altri casi d'uso. S3 Metadata mantiene i metadati aggiornati quasi in tempo reale, quindi puoi utilizzare qualsiasi client compatibile con Iceberg per eseguire query SQL per trovare oggetti in base ai metadati degli oggetti. Ad esempio, puoi utilizzare una query SQL per restituire un elenco di oggetti che corrispondono a determinati filtri, ad esempio gli oggetti aggiunti negli ultimi 30 giorni in qualsiasi bucket.
S3 Metadata è progettato per generare automaticamente metadati che forniscono informazioni aggiuntive sugli oggetti caricati in un bucket e per rendere tali metadati interrogabili in una tabella di sola lettura. Queste tabelle di metadati sono archiviate in Amazon S3 Tables, che sono basate su Apache Iceberg e forniscono un modo gestito per archiviare e interrogare dati tabulari all'interno di S3. S3 Metadata crea e conserva metadati a livello di sistema come la dimensione degli oggetti, metadati personalizzati come i tag e i metadati definiti dagli utenti durante il caricamento degli oggetti, e i metadati di eventi come l'indirizzo IP che ha inviato la richiesta. Man mano che i dati nel bucket cambiano, S3 Metadata si aggiorna quasi in tempo reale per riflettere le ultime modifiche. È quindi possibile interrogare le tabelle di metadati utilizzando diversi servizi di analisi AWS e strumenti open source compatibili con Iceberg, compresi Amazon Athena, Amazon QuickSight e Apache Spark.
È possibile iniziare a utilizzare S3 Metadata con pochi clic nella Console di gestione S3. Basta selezionare il bucket S3 generico su cui si desidera abilitare S3 Metadata e S3 analizzerà i dati nel bucket e creerà una tabella Apache Iceberg completamente gestita che contiene i metadati per tutti i tuoi oggetti. In pochi minuti, puoi iniziare a interrogare i tuoi metadati utilizzando qualsiasi motore di query o strumento che supporti Apache Iceberg.
Le tue tabelle di metadati S3 sono archiviate in un bucket di tabelle gestito da AWS nel tuo account AWS chiamato aws-s3. Le tue tabelle saranno di sola lettura e solo S3 avrà il permesso di scrivere, aggiornare o eliminare i metadati.
S3 Metadata archivia i metadati in due tabelle gestite nel tuo account: tabelle del registro e tabelle di inventario live.
La tabella del registro di S3 Metadata fornisce una panoramica delle modifiche apportate all'interno del bucket. Man mano che gli oggetti vengono aggiunti, aggiornati e rimossi dai bucket S3 generici, le modifiche corrispondenti si riflettono nelle tabelle del registro quasi in tempo reale. Le tabelle del registro sono utili per comprendere il comportamento delle applicazioni e per identificare eventuali modifiche apportate ai set di dati. Ad esempio, puoi scrivere query SQL per le tabelle del registro per trovare oggetti S3 che corrispondono a un filtro, ad esempio oggetti aggiunti negli ultimi 30 giorni, oggetti aggiunti da richiedenti attivi o oggetti con modifiche ai metadati nell'ultima settimana.
La tabella di inventario live di S3 Metadata contiene un elenco completo di tutti gli oggetti nel bucket. Le tabelle di inventario in tempo reale vengono aggiornate ogni ora e contengono tutte le informazioni che S3 conosce sui tuoi oggetti. Le tabelle di inventario in tempo reale sono utili per scoprire o identificare i set di dati nel bucket, in base alle caratteristiche generate nei metadati degli oggetti. Ad esempio, puoi utilizzare tabelle di inventario in tempo reale per identificare i set di dati di formazione per il machine learning, da utilizzare in esercizi di ottimizzazione dei costi di archiviazione o per aiutare a far rispettare i controlli di governance.
Quando aggiungi nuovi oggetti al tuo bucket, vedrai le voci nella tabella del registro in pochi minuti e vedrai le voci nella tabella dell'inventario attivo al successivo aggiornamento orario. Quando abiliti i metadati S3 su un bucket esistente, S3 avvia automaticamente un'operazione di backfill per generare metadati per tutti gli oggetti esistenti. Questo backfill in genere termina in pochi minuti, ma può richiedere diverse ore se i set di dati esistenti contengono milioni o miliardi di oggetti S3.
Inventario S3 costituisce un'alternativa pianificata all'API List sincrona di Amazon S3. Inventario S3 può essere configurato per generare giornalmente o settimanalmente un output di file CSV, ORC o Parquet dei tuoi oggetti e dei metadati corrispondenti per un prefisso o bucket S3. L'utilizzo di Inventario S3 consente di semplificare e accelerare i flussi di lavoro aziendali e le attività di big data. Inventario S3 può inoltre essere impiegato per verificare la crittografia e lo stato di replica degli oggetti e soddisfare le esigenze aziendali e di conformità alle normative. Ulteriori informazioni sono disponibili nella Guida per l'utente di Inventario Amazon S3.
S3 Tables fornisce uno spazio S3 dedicato per l'archiviazione di dati strutturati nel formato Apache Parquet, Avro e ORC. All'interno di un bucket di tabelle, è possibile creare tabelle come risorse di prima classe direttamente in S3. Queste tabelle possono essere protette con autorizzazioni a livello di tabella definite in policy basate sull'identità o sulle risorse, e sono accessibili da applicazioni o strumenti che supportano lo standard Apache Iceberg. Quando si crea una tabella nel bucket di tabelle, i dati sottostanti in S3 vengono archiviati come file Parquet, Avro o ORC. Quindi, S3 utilizza lo standard Apache Iceberg per archiviare i metadati necessari affinché le applicazioni possano interrogare i dati. S3 Tables include una libreria client utilizzata dai motori di query per navigare e aggiornare i metadati Iceberg delle tabelle del bucket di tabelle. Questa libreria, insieme alle API S3 aggiornate per le operazioni sulle tabelle, consente a più client di leggere e scrivere dati nelle tabelle in modo sicuro. Nel tempo, S3 ottimizza automaticamente i dati Parquet, Avro o ORC sottostanti riscrivendo o “compattando” gli oggetti. La compattazione ottimizza i dati su S3 per migliorare le prestazioni delle query.
È possibile iniziare a usare S3 Tables in soli tre passaggi e senza dover creare alcuna infrastruttura all'esterno di S3. Innanzitutto, crea un bucket da tavolo nella console S3. Come parte della creazione del primo bucket di tabelle tramite la console, l'integrazione con i servizi AWS Analytics avviene automaticamente, il che consente a S3 di popolare automaticamente tutti i bucket e le tabelle del tuo account e della tua regione nel catalogo dati AWS Glue. Dopodiché, S3 Tables sarà quindi accessibile ai motori di query AWS come Amazon Athena, EMR e Redshift. Successivamente, puoi fare clic per creare una tabella utilizzando Amazon Athena dalla console S3. Una volta in Athena, puoi iniziare rapidamente a popolare nuove tabelle e a interrogarle.
In alternativa, puoi accedere a S3 Tables utilizzando l'endpoint di catalogo REST di Iceberg tramite il Catalogo dati AWS Glue, che ti consente di scoprire l'intero patrimonio di dati, comprese tutte le risorse delle tabelle. Puoi anche connetterti direttamente a un singolo endpoint del bucket di tabelle per scoprire tutte le risorse di S3 Tables all'interno di quel bucket. Ciò consente di utilizzare S3 Tables con qualsiasi applicazione o motore di query che supporti la specifica del catalogo REST di Apache Iceberg.
Le prestazioni delle query sono fino a 3 volte più veloci e le transazioni al secondo (TPS) sono fino a 10 volte superiori rispetto all'archiviazione delle tabelle Iceberg in bucket Amazon S3 per uso generico. Queste prestazioni sono dovute al fatto che i bucket di tabelle compattano automaticamente i dati Parquet, Avro oppure ORC sottostanti delle tabelle per ottimizzare le prestazioni delle query. Inoltre, l'archiviazione progettata appositamente supporta TPS fino a 10 volte superiori per impostazione predefinita.
I bucket di tabelle offrono la possibilità di applicare policy di risorse all'intero bucket o a singole tabelle. Le policy di bucket di tabelle possono essere applicate utilizzando le API PutTablePolicy e PutTableBucketPolicy. Le policy a livello di tabella consentono di gestire le autorizzazioni al bucket di tabelle in base alla logica delle tabelle a cui è associato, senza la necessità di conoscere la posizione fisica dei singoli file Parquet, Avro o ORC. Inoltre, Blocco dell'accesso pubblico S3 è sempre applicato ai bucket di tabelle.
I bucket di tabelle supportano il formato di tabelle Apache Iceberg con dati Parquet.
Per saperne di più su Operazioni in batch S3, guarda i video tutorial e consulta la documentazione.
È anche possibile specificare una policy di gestione del ciclo di vita di S3 con cui eliminare gli oggetti dopo un determinato periodo di tempo. Queste funzioni di automazione basate su policy rappresentano un modo rapido e veloce per ridurre i costi di archiviazione e per risparmiare tempo. Per ciascuna regola è possibile specificare un prefisso, un periodo di tempo, un trasferimento nelle classi S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive e/o una scadenza. Ad esempio, puoi creare una regola che determini l'archiviazione in S3 Glacier Flexible Retrieval di tutti gli oggetti con prefisso "logs/" a trenta giorni dalla creazione e la scadenza a trecentosessantacinque giorni dalla creazione.
È anche possibile creare una regola a parte che determini la scadenza di tutti gli oggetti con prefisso "backup/" a novanta giorni dalla creazione. Le policy sul ciclo di vita di S3 si applicano agli oggetti S3 sia nuovi sia esistenti e consentono quindi di ottimizzare lo storage il risparmio per tutti i dati archiviati in S3 senza lunghe e onerose procedure manuali di revisione e migrazione dei dati.
In una regola del ciclo di vita, gli oggetti ai quali essa va applicata sono identificati dal prefisso. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). È possibile impostare un'azione di transizione per archiviare gli oggetti e un'azione di scadenza per rimuoverli. Per il periodo di tempo, specificare la data di creazione (ad esempio 31 gennaio 2015) oppure il numero di giorni dalla data di creazione (ad esempio 30 giorni), trascorso il quale si desidera che gli oggetti vengano archiviati o rimossi. È possibile creare più regole per diversi prefissi.
Informazioni dettagliate e analisi sull'archiviazione
Apri tuttoIl pannello di controllo di S3 Storage Lens è organizzato attorno a quattro tipi principali di domande sull'archiviazione cui è possibile rispondere. Con il filtro Summary (Riepilogo), puoi scoprire le principali domande correlate all'utilizzo e alle tendenze delle attività di archiviazione complessivi. Ad esempio, "Quanto rapidamente il mio conteggio complessivo dei byte e delle richieste aumenta nel tempo?" Con il filtro Cost Optimization (Ottimizzazione dei costi), puoi scoprire le domande correlate alla riduzione dei costi di archiviazione, ad esempio, "Posso risparmiare denaro mantenendo un numero minore di versioni non correnti?" Con i filtri Data Protection (Protezione dati) e Access Management (Gestione degli accessi) puoi rispondere a domande sulla protezione dei dati, ad esempio "La mia archiviazione è protetta dall'eliminazione accidentale o intenzionale?" Infine, con i filtri Performance (Prestazioni) ed Events (Eventi) puoi scoprire come migliorare le prestazioni dei flussi di lavoro. Ciascuna di queste domande rappresenta un primo livello di indagine che con elevata probabilità conduce ad analisi dettagliate.
Viene configurato automaticamente un pannello di controllo predefinito per l'intero account affinché tu possa creare pannelli di controllo personalizzati aggiuntivi con ambito di organizzazione AWS, regioni specifiche o bucket all'interno di un account. Puoi configurare più pannelli di controllo personalizzati, che possono essere utili in caso fosse necessaria una separazione logica nell'analisi dell'archiviazione, come la segmentazione sui bucket per rappresentare vari team interni. Per impostazione predefinita, verranno inviati i parametri gratuiti di S3 Storage Lens nel pannello di controllo, ma puoi effettuare l'upgrade per ricevere i parametri avanzati e i consigli di S3 Storage Lens (a un costo aggiuntivo). I parametri avanzati di S3 Storage Lens presentano 7 opzioni distinte: parametri delle attività, parametri di ottimizzazione dei costi avanzata, parametri di protezione dati avanzata, parametri del codice di stato dettagliato, pubblicazione Cloudwatch e aggregazione dei gruppi di Storage Lens. Inoltre, per ciascun pannello di controllo puoi abilitare l'esportazione dei parametri, con la possibilità di specificare anche il bucket di destinazione e il tipo di crittografia.
S3 Storage Lens è disponibile in due livelli di parametri. I parametri gratuiti sono abilitati per impostazione predefinita e sono disponibili senza costi aggiuntivi a tutti i consumatori di S3. I dettagli sui prezzi dei parametri avanzati e dei suggerimenti di S3 Storage Lens sono disponibili alla pagina dei prezzi di S3. Con i parametri gratuiti di S3 Storage Lens si ricevono 28 parametri a livello di bucket ed è possibile accedere per 14 giorni ai dati cronologici nel pannello di controllo. Con i parametri avanzati e i suggerimenti di S3 Storage Lens si ricevono 35 parametri aggiuntivi, aggregazione a livello di prefisso, supporto per parametri CloudWatch e filtro dei metadati di oggetti personalizzati con gruppi Storage Lens di S3 ed è possibile accedere a 15 mesi di dati storici nel pannello di controllo.
Query in loco
Apri tuttoReplica
Apri tuttoPer ulteriori informazioni sulla configurazione del ciclo di vita e la replica, consulta la documentazione di Replica S3.
Sì. La Replica di S3 consente ai clienti di replicare i dati in più bucket di destinazione nelle stesse regioni o in regioni AWS diverse. In fase di impostazione, specifica semplicemente il nuovo bucket di destinazione nella configurazione della replica o creane una nuova con più bucket di destinazione. Per ogni nuova destinazione specificata, puoi scegliere la classe di archiviazione del bucket di destinazione, il tipo di crittografia, i parametri di replica e notifiche, il Controllo del tempo di replica e altre proprietà.
D: Posso utilizzare la Replica di S3 per impostare la replica bidirezionale tra bucket S3?
Visita la pagina dei prezzi di Amazon S3 per ulteriori dettagli sui prezzi di Replica S3.
In una configurazione attiva-attiva, i punti di accesso multi-regione S3 considerano fattori come la congestione della rete e la posizione dell'applicazione richiedente per instradare dinamicamente le richieste sulla rete AWS alla copia più vicina dei tuoi dati. I Punti di accesso multi-regione S3 instradano le richieste al client attraverso la posizione AWS più vicina e poi a S3 attraverso la rete AWS privata globale. In entrambe le configurazioni, i punti di accesso multi-regione S3 permettono di sfruttare l'infrastruttura globale di AWS mantenendo un'architettura dell'applicazione semplice.
I punti di accesso CRR S3 e multi-regione S3 sono funzionalità complementari che cooperano per replicare dati tra le Regioni AWS e per effettuare, successivamente, l'instradamento delle richieste verso la copia replicata con la latenza inferiore. I Punti di accesso multi-regione S3 aiutano a gestire le richieste tra Regioni AWS, mentre CRR consente di trasferire i dati tra Regioni AWS per creare repliche isolate. Puoi utilizzare i punti di accesso multi-regione S3 e CRR insieme per creare un set di dati multi-regione replicato indirizzabile da un singolo endpoint globale.
Quando utilizzi un punto di accesso multi-regione S3 per instradare richieste all'interno di AWS, paghi i costi per il routing di dati per ogni gigabyte (GB) elaborato, nonché i costi standard per richieste, archiviazione, trasferimento dati e replica di S3. Se un'applicazione viene eseguita al di fuori di AWS e accede a S3 via Internet, i punti di accesso multi-regione S3 aumentano le prestazioni instradando automaticamente le richieste attraverso una posizione edge AWS, tramite la rete AWS privata globale, alla copia dei dati più prossima in base alla latenza di accesso. Quando acceleri le richieste effettuate via Internet, paghi il costo per l'instradamento dei dati e un costo per l'accelerazione di Internet. I prezzi per l'accelerazione di Internet per i Punti di accesso multi-regione S3 variano a seconda che il client di origine si trovi nella stessa posizione o in una posizione diversa dalla Regione AWS di destinazione e sono aggiuntivi rispetto ai prezzi standard per il trasferimento di dati S3. Per utilizzare i controlli di failover dei Punti di accesso multi-regione S3, ti vengono addebitati esclusivamente i costi dell'API S3 standard per visualizzare lo stato dei controlli di instradamento attuali di ciascuna Regione e per apportare eventuali modifiche ai controlli di instradamento per l'avvio di un failover. Per ulteriori informazioni sui prezzi, consulta la pagina dei prezzi di Amazon S3 e la scheda del trasferimento dati.
Sì, puoi configurare i bucket del punto di accesso multi-regione S3 come bucket con pagamento a carico del richiedente. Con questo tipo di pagamento, il richiedente paga tutti i costi associati all'utilizzo dell'endpoint, inclusi i costi per le richieste e i costi di trasferimento dei dati associati sia al bucket che al punto di accesso multi-regione. In genere, si desidera configurare i bucket come bucket con pagamento a carico del richiedente se si desidera condividere i dati ma non incorrere in costi associati all'accesso di altri utenti ai dati. In generale, i proprietari dei bucket pagano per tutto lo spazio di archiviazione Amazon S3 associato al bucket. Per saperne di più, visita Pagamento a carico del richiedente con S3.
La console S3 offre un flusso di lavoro guidato semplificato per impostare in modo rapido tutto l'occorrente per eseguire l'archiviazione multi-regione su S3 in tre semplici operazioni. Per prima cosa, è necessario creare un endpoint del punto di accesso multi-regione S3 e specificare le Regioni AWS tra cui eseguire la replica e il failover. Puoi aggiungere bucket in più account AWS a un nuovo punto di accesso multi-regione S3 inserendo gli ID di account che possiedono i bucket al momento della creazione. Quindi, per ogni Regione AWS e bucket S3 relativi all’endpoint del punto di accesso multi-regione S3, bisogna specificare se lo stato di instradamento è attivo o passivo, dove le Regioni AWS attive accettano il traffico delle richieste di dati S3 e se le Regioni passive non ricevono l'instradamento finché non viene avviato un failover. Infine, è necessario configurare le regole di replica tra Regioni S3 per sincronizzare i dati in S3 tra regioni e/o account. Potrai quindi avviare in pochi minuti e in qualsiasi momento un failover tra le Regioni AWS per trasferire le richieste di dati S3 e monitorare il trasferimento del traffico S3 verso la nuova Regione AWS attiva in Amazon CloudWatch. In alternativa, puoi utilizzare AWS CloudFormation per automatizzare la configurazione dell'archiviazione multi-regione. Tutti i blocchi di costruzione richiesti per la configurazione dell'archiviazione multi-regione su S3, compresi i punti di accesso multi-regione S3, sono supportati da CloudFormation. Ciò ti consente di automatizzare un processo di configurazione replicabile al di fuori della console S3.