 |
|
안녕하세요, AI 서비스 & 솔루션 프로바이더 베스핀글로벌입니다.
AWS re:Invent 2025의 [Maximize the value of cold data with Amazon S3 Glacier storage classes]을 확인해보시기 바랍니다.
|
☑️ Keynote
| 세션명 |
Maximize the value of cold data with Amazon S3 Glacier storage classes |
| 세션코드 |
STG208 |
| 발표일자 |
2025.12.04 |
| 강연자 |
Gayla, Natisha |
| 키워드 |
1. S3 Glacier 스토리지 클래스
2. S3 Lifecycle 정책
3. S3 Intelligent-Tiering
4. S3 Batch Operations & EventBridge
5. Compute Checksum Operation
6. S3 메타데이터 (Journal / Live Inventory)
|
| 핵심 내용 및 요약 |
ㆍS3 Standard~Glacier Deep Archive까지 스토리지 클래스 연속체를 활용해, 콜드 데이터를 장기 보관하면서도 응답 시간·비용을 균형 있게 최적화하는 전략 제시
ㆍS3 Lifecycle 정책과 S3 Intelligent-Tiering을 통해 접근 패턴이 예측 가능한 데이터는 자동 계층 전환, 예측 불가능한 데이터는 자동 비용 최적화로 운영 오버헤드 최소화
ㆍGlacier Flexible Retrieval·Deep Archive + S3 Batch Operations·EventBridge 연계를 통해 수백만~수십억 개 객체의 대규모 복원도 TPS 극대화·자동 재시도로 안정적으로 처리
ㆍCompute Checksum Operation과 S3 메타데이터(Journal / Live Inventory Table)를 활용해, Glacier 포함 전 스토리지 클래스의 데이터 무결성 검증 및 프로젝트/태그 단위 아카이브 자산 분석을 SQL·자연어 기반으로 간편하게 수행 |
|
Maximize the value of cold data with Amazon S3 Glacier storage classes
|
1. 콜드 데이터의 중요성과 S3 Glacier 스토리지 클래스 개요
1-1. 콜드 데이터의 중요성
S3에는 현재 수백조 개의 객체가 있으며, 데이터의 70~80%가 콜드 데이터로 추정됩니다.
- 콜드 데이터 정의: 몇 달, 몇 년, 심지어 수십 년 동안 거의 접근되지 않는 데이터입니다.
- 가치 증가: 이러한 데이터의 양은 매일 증가하고 있으며, 산업 전반에서 그 가치가 커지고 있습니다.
- 혁신의 촉매제: 콜드 데이터는 더 이상 저장만 되고 잊히는 것이 아니라, 혁신의 촉매제이자 비즈니스의 차별화 요소로 부상하고 있습니다.
- 고객들은 잠자고 있던 데이터를 활용하여 실행 가능한 인텔리전스를 얻고 있습니다.
- 활용 예시:
- 역사적인 필사본 기록을 활용한 머신러닝 훈련.
- 보관된 분석 데이터에서 새로운 인사이트 도출.
- 금융/주식 데이터를 활용한 신규 애플리케이션 구축.
- 목표: 모든 콜드 데이터 바이트를 기회로 전환하는 것이 중요합니다.
1-2. S3 스토리지 클래스 연속체
스토리지 클래스는 접근 속도와 비용 효율성이라는 두 가지 핵심 요소를 균형 있게 조정하는 연속체로 이해할 수 있습니다.
- 자주 접근 데이터 (왼쪽): 밀리초(millisecond) 단위 접근이 가능하지만 비용이 높습니다.
- 점점 차가워지는 영역 (오른쪽): 접근 빈도는 낮아지지만, 스토리지 비용은 크게 감소합니다.
1-3. 주요 스토리지 클래스
- S3 Standard: 활성 데이터에 대한 밀리초 접근을 제공합니다.
- S3 Standard 및 S3 One Zone-IA: 이 단계부터 비용 절감이 시작됩니다.
- Glacier 계층: 콜드 데이터에 대한 진정한 마법이 일어나는 곳입니다.
- Glacier Instant Retrieval: 밀리초 접근이 필요하지만 보관된 데이터에 적합합니다. (예: 의료 기록, 마감 기한이 촉박한 아카이브 클립, 규정 준수 요구 사항이 있는 데이터)
- Glacier Flexible Retrieval: 몇 분 내에 데이터 접근이 필요한 경우에 사용됩니다. (예: 대규모 데이터 분석, 유연한 타이밍의 백업 아카이브, 가끔 대량 처리가 필요한 기록)
- 특징: 무료 대량 검색(free bulk retrievals)이 가능합니다.
- Glacier Deep Archive: 클라우드에서 가장 낮은 비용의 스토리지 옵션입니다
- 용도: 법적으로 보관해야 하지만 사용하지 않기를 바라는 데이터의 장기 보존(수년 또는 수십 년)에 사용됩니다.
- 비용 최적화: 데이터가 자연스럽게 냉각되고 접근 패턴이 감소함에 따라 이러한 계층을 점진적으로 이동하여 필요할 때 검색 능력을 희생하지 않으면서 스토리지 비용을 지속적으로 최적화할 수 있습니다.
|
2. 데이터 수명 주기 관리 및 접근 패턴이 불규칙한 경우
2-1. S3 수명 주기 정책 (Life Cycle Policies)
데이터를 스토리지 클래스로 전환하고 관리하는 방법입니다.
- 기능: 데이터가 냉각됨에 따라 비정기적 액세스 또는 아카이브 스토리지 클래스로 전환할 수 있으며, 수명 종료 시 데이터를 자동으로 삭제할 수 있습니다.
- 비용 제어: 알려진 접근 패턴을 기반으로 비용을 자동으로 제어할 수 있습니다.
- 자동 전환 예시:
- Day 0에 생성되어 처음 90일 동안 자주 접근되다가 그 이후 드물게 접근되는 객체는 90일 후 Glacier Instant Retrieval로 자동 전환됩니다. (접근 시 밀리초 응답)
- 180일 후 접근이 극히 드물어지면, 비용 최적화를 위해 Glacier Deep Archive로 전환할 수 있습니다.
- 자동 삭제: 금융 산업과 같이 7~10년 보관 요구 사항이 있는 경우, 해당 기간 종료 시 데이터를 자동으로 삭제하도록 정책을 설정할 수 있습니다.
- 필터링 옵션: 수명 주기 정책에 적용할 수 있는 다양한 필터가 제공됩니다.
- 전체 버킷에 적용 가능합니다.
- 특정 접두사(prefix) 또는 객체 태그와 일치하는 객체에 적용 가능합니다.
- 객체 크기로 필터링 가능합니다. (작은 객체 다수를 아카이브 전송 방지 시 유용)
객체 버전 수로 필터링 가능합니다. (불필요한 버전 생성을 방지)
2-2. S3 Intelligent-Tiering
접근 패턴이 예측 불가능하거나 불규칙한 경우를 위한 스토리지 클래스입니다.
- 목적: 데이터 접근 패턴이 변경될 때 성능 영향, 운영 오버헤드, 수명 주기 수수료 또는 검색 수수료 없이 스토리지 비용을 자동으로 최적화하도록 설계되었습니다.
- 작동 방식: 계층 간 데이터 이동을 통해 자동 절감 효과를 제공합니다.
- 계층 구조: 총 5개의 계층이 있습니다.
- 동기식 계층 (3개): 가입 즉시 자동으로 제공됩니다.
- 비동기식 계층 (2개): 사용자가 옵트인(opt-in)해야 합니다.
- 선택: 옵트인 후, Intelligent-Tiering이 자동으로 적절한 계층을 선택합니다.
|
3. 보관된 데이터 검색 및 복원 옵션
3-1. 데이터 검색의 필요성
스토리지 비용을 최적화한 후, 데이터가 다시 활성화(hot)될 때 발생하는 상황에 대비해야 합니다.
3-2. 고객의 데이터 복원 패턴
- 미디어 파일 재활용: 수십 년 된 영상을 현대 청중을 위한 콘텐츠로 변환하여 새로운 생명을 불어넣고 있습니다.
- 전략적 가치 활용: 백업 및 규정 준수를 넘어, 역사적 기록을 활용하여 장기 패턴을 추적하고 미래 결정을 알리고 있습니다.
- 머신러닝 연료: 콜드 데이터는 머신러닝 모델의 로켓 연료 역할을 하며, 과거 데이터 훈련을 통해 이전에는 볼 수 없었던 패턴을 발견할 수 있습니다.
- 예시: 자율 주행차 기술 개발 시, 좌회전 관련 모든 콘텐츠를 복원하여 모델 훈련에 사용할 수 있습니다.
- 메타데이터 생성: 아카이브 콘텐츠에서 풍부한 메타데이터를 생성하여 방대한 데이터 링크를 검색 가능하고 실행 가능하게 만들고 있습니다.
3-3. Glacier 스토리지 클래스별 접근 방법
- Glacier Instant Retrieval
- 접근: Standard 및 Intelligent-Tiering과 동일한 요청을 사용하며 밀리초 접근이 가능합니다.
단점: 검색 및 API 요금이 더 높습니다.
- 장점: 애플리케이션 변경 없이 스토리지 비용을 절감할 수 있습니다.
- Glacier Flexible Retrieval 및 Deep Archive
- 접근 시간: 몇 분에서 몇 시간, 며칠까지 견딜 수 있는 검색에 적합합니다.
- 비용: 스토리지 비용과 대량 데이터 검색 비용을 모두 절감할 수 있습니다.
- 전제 조건: 데이터 접근 전에 요청(request)이 필요합니다.
- 복원 후: 복원된 후에는 일반적인 get 요청을 통해 객체를 가져올 수 있습니다.
3-4. Glacier 검색의 3단계 프로세스
Flexible Retrieval 및 Deep Archive에 적용됩니다.
- 1단계: 요청 초기화: 복원 요청을 시작해야 합니다.
- 2단계: 복원 완료 확인: 복원이 완료되었는지 확인해야 합니다.
- 3단계: 데이터 액세스: 복원된 데이터에 접근합니다.
3-5. 1단계 상세: 요청 제출
- 대규모 복원 시 고려 사항: 수백만 또는 수십억 개의 객체 복원 시, 모든 요청을 제출하는 데 걸리는 시간을 고려해야 합니다.
- 요청 속도 제한: Glacier는 초당 1,000건의 트랜잭션(TPS)을 지원하며, 이는 Flexible Retrieval 및 Deep Archive의 모든 표준 및 대량 검색 요청에 적용됩니다.
- 시간 계산 예시: 1,000 TPS 기준으로 1,000만 건의 복원 요청을 3시간 이내에 제출할 수 있으며, 표준 복원(Flexible Retrieval 기준) 시 총 복원 완료까지 약 6시간이 소요됩니다 (제출 3시간 + 복원 3~5시간).
- 성능 극대화: 배치 작업(Batch Operations)을 활용하여 TPS를 최대화하고 자동 재시도를 이용할 수 있습니다.
3-6. 2단계 상세: 복원 상태 모니터링
- 이벤트 발행: S3는 복원 시작 및 완료 시 이벤트를 생성하며, 이를 Amazon EventBridge로 발행할 수 있습니다.
- 팬아웃 구성: EventBridge를 통해 SNS 토픽이나 SQS 큐로 이벤트를 팬아웃(fan out)하거나 Lambda 함수를 트리거할 수 있습니다.
- 자동 후속 조치: 완료 이벤트를 SNS 토픽으로 보내면, 애플리케이션이 구독하여 객체 복원 즉시 get 또는 copy와 같은 다음 단계로 자동 진행할 수 있습니다.
3-7. 3단계 상세: 복원된 데이터 액세스
- 접근 방식: 객체가 복원되면 S3 Standard 객체처럼 get 요청 또는 동기식 계층에서처럼 다른 방식으로 접근할 수 있습니다.
- 팁: 복원된 데이터는 객체의 임시 복사본입니다.
- 데이터를 Glacier에서 이동시키려면 동일 키에 덮어쓰기 복사(copy)를 하거나 새 버킷에 복사해야 합니다.
- 동일 키에 복사 시, 추가 버전을 유지하고 싶지 않다면 버전 관리에 유의해야 합니다.
3-8. 배치 작업(Batch Operations) 활용
- 문제점: 초당 1,000 TPS 미만의 요청을 처리할 경우, 요청 제출 시간이 길어져 총 복원 시간이 최대 40배까지 증가할 수 있습니다 (예: 25 TPS 요청 시).
- 해결책: 소프트웨어 최적화나 멀티스레딩 대신 배치 작업을 사용하여 복원 경험을 극적으로 개선할 수 있습니다.
- 배치 작업은 초당 복원 요청을 자동으로 최대화하고, 오류 발생 시 자동 재시도를 수행하며, 완료 보고서를 제공합니다.
- 작업 생성: 복원할 키 목록(매니페스트)을 생성하여 배치 작업에 제출하면, 작업이 TPS를 분할하여 처리합니다.
|
4. 새로운 아카이브 관련 기능 소개
4-1. 보관된 데이터의 무결성 검사: Compute Checksum Operation

- 해결하려는 문제: 미디어/엔터테인먼트, 생명 과학, 법 집행, 보존 기관 등에서 데이터 무결성을 확인하기 위해 주기적인 데이터 무결성 검사를 수행해야 합니다.
- 검증의 중요성: 이는 업계 표준이며, 고객들은 S3에서 이러한 검사를 수행할 도구를 요청했습니다.
- 선택 사항: S3는 전송 중 및 저장 중인 모든 바이트의 무결성을 보장하기 위해 초당 수십억 건의 체크섬 연산을 수행하지만, 이 기능은 고객이 자체적으로 검사를 수행할 수 있도록 돕는 선택적 기능입니다.
- 체크섬 기본 개념
- 정의: 체크섬은 객체의 디지털 지문입니다.
- 작동 원리: CRC32와 같은 알고리즘을 사용하며, 단 하나의 비트라도 변경되면 다른 체크섬 값이 생성됩니다.
- 검증 과정: 고객은 원본 체크섬 값을 진실 공급원(Source of Truth)으로 저장해 두었다가, 나중에 객체의 최신 체크섬을 계산하여 비교함으로써 데이터가 손상되지 않았음을 증명합니다.
- 기존 검증 방식의 문제점
- 과거 방식: 기존에는 객체를 다운로드해야 했으며, 이는 대역폭 비용과 시간이 소요됩니다.
- 추가 비용: 이후 EC2 인스턴스 등을 사용하여 로컬에서 체크섬을 계산해야 했으므로 추가적인 컴퓨팅 비용과 시간이 발생했습니다.
- 필요성: 객체 다운로드 및 로컬 계산 단계를 제거하고, 인플레이스(in-place) 읽기를 통해 새로운 체크섬을 계산하는 혁신적인 방법이 필요했습니다.
- Compute Checksum Operation
- 특징: S3 배치 작업(Batch Operations) 내의 새로운 기능으로, Glacier를 포함한 모든 스토리지 클래스에 저장된 데이터 세트의 콘텐츠를 효율적으로 검증하고 데이터 무결성 보고서를 자동으로 생성합니다.
- 적용 범위: 스토리지 클래스나 객체 크기에 관계없이 S3의 모든 객체에 작동합니다.
- 이점: 규정 준수, 디지털 보존, 모델 피딩 전 정확성 확인 시 시간, 비용, 노력을 줄일 수 있습니다.
- 배치 작업 통합: 실패 시 자동 재시도 및 상세 완료 보고서(데이터 무결성 보고서로 사용 가능)를 제공합니다.
- 작업 생성 방법 (3가지 구성 요소):
- 객체 목록 제공 (매니페스트):
- 큐레이션된 목록을 CSV 파일로 제출하거나, S3 배치 작업의 자동 매니페스트 생성 서비스를 사용할 수 있습니다.
- 인벤토리 보고서를 매니페스트로 사용할 수도 있습니다.
- 체크섬 알고리즘 선택: 업로드 시 지원되는 모든 알고리즘(CRC32, CRC32C, CRC64, MD5, SHA1, SHA256)이 지원됩니다.
- 규정 준수/보안 중시: SHA 1 또는 SHA 256과 같은 보안 해시 알고리즘을 선택합니다.
- 성능 중시: CRC 64, 32, 또는 32C를 선택할 수 있습니다.
- 체크섬 유형 지정:
- 전체 객체(Full Object): 미디어 공급망 등에서 표준화된 검증이 필요할 때 사용합니다.
- 복합(Composite): 내부적으로 사용하며, 대규모 객체에 대해 병렬 체크섬 연산을 수행할 때 사용합니다.
- 권한: S3 배치 작업이 바이트를 읽고 완료 보고서를 작성할 수 있도록 IAM 권한을 제공해야 합니다.
- 결과 및 비용
- 완료 보고서: 버킷, 키, 버전 ID, 오류 코드, 결과 메시지 (체크섬 값 포함) 필드를 포함합니다.
- 자동화: Lambda 함수를 사용하여 주기적으로 이 작업을 자동화할 수 있습니다.
- 비용: 복원 또는 검색에 대한 수수료는 발생하지 않습니다. Intelligent-Tiering 데이터가 워밍업되지 않으며 Glacier 객체를 복원할 필요가 없습니다.
- 처리 비용: 데이터를 처리하는 데 GB당 $0.004 (TB당 $4)의 단일 요금이 부과되며, 이는 모든 스토리지 클래스에서 일관됩니다.
4-2. S3 메타데이터를 활용한 빠른 검색

- S3 메타데이터 소개: 작년 re:Invent에서 출시되었으며 개선되었습니다.
- 기능: 객체에서 메타데이터를 자동으로 추출하여 단순 SQL 쿼리 또는 자연어를 사용하여 가치 있는 인사이트를 생성할 수 있게 합니다.
- 목표: 고객이 콜드/아카이브 데이터에서 가치를 추출하는 방식을 근본적으로 변화시키는 것입니다.
- 해결하려는 문제 (기존 방식의 비효율성):
- 상황: 수백만 개의 아카이브된 객체가 있는 버킷에 Project Odin, Loki, Thor 등의 태그가 지정되어 있고, 일부는 Glacier, 일부는 Standard에 있습니다.
- 질문: "Project Odin에 속하며 Glacier에 있는 모든 데이터를 Standard로 이동하려면 얼마나 많은 데이터가 필요합니까?"
- 기존 옵션:
- API 요청(list, get object tags)을 페이지네이션하여 스토리지 스캔 및 클래스별 계산.
- S3 인벤토리 보고서 사용 (일 2회 또는 48시간마다 새로 고침).
- 문제: 이 두 옵션 모두 대규모에서 시간 지연이 발생하거나 수행하기 쉽지 않습니다.
- 개선 목표: 단일 쿼리 작성만으로 몇 초 만에 이 질문에 답할 수 있도록 하는 것입니다.
- S3 메타데이터 작동 방식
- 서비스: 모든 객체 메타데이터(태그, 스토리지 클래스, 크기 등)를 자동으로 캡처하여 쿼리 가능한 Apache Iceberg 테이블에 저장하는 완전 관리형 서비스입니다.
장점: API 호출이나 인벤토리 보고서 대기 없이 즉각적인 SQL 쿼리가 가능합니다.
- 메타데이터 테이블 유형
- 저널 테이블 (Journal Table): 작년에 출시되었으며, 버킷에서 발생하는 모든 변경 사항(Put, Delete, 태그 변경 등)을 거의 실시간으로 캡처합니다. 버킷의 전체 변경 로그 역할을 합니다.
- 라이브 인벤토리 테이블 (Live Inventory Table): 올해 7월에 추가되었으며, 버킷의 모든 객체에 대한 현재 상태를 보여줍니다. 활성화 시 기존 데이터를 백필(backfill)하며 매시간 새로 고침됩니다.
- 특징: 두 테이블 모두 읽기 전용이며 AWS에서 관리하며, 버킷 내 모든 항목에 대한 권위 있는 기록 시스템으로 간주됩니다.
- 메타데이터 테이블 쿼리 방법
- 표준 SQL 쿼리: Athena, Redshift, SageMaker Unified Studio 등 Iceberg 테이블을 지원하는 모든 분석 도구를 통해 가능합니다.
- 자연어: Amazon Q, Kirro 또는 MCP 서버를 지원하는 에이전트를 통해 가능합니다.
- 쿼리 활용 예시
- 스토리지 사용량 파악: "프로젝트별 Glacier 데이터가 얼마나 있습니까?"라는 SQL 쿼리로 스냅샷을 얻을 수 있습니다.
- 분류: 태그가 지정되지 않은 모든 객체를 식별하여 적절하게 분류할 수 있습니다.
- 감사: 저널 테이블을 사용하여 삭제된 데이터, 삭제 주체, 시점, 위치 등을 추적할 수 있습니다.
- 자연어 접근의 민주화
- MCP 서버 지원: 최근 S3 테이블에 대한 MCP 서버 지원이 추가되어 AI 비서(예: 클라우드 맞춤형 에이전트, Kirro)를 메타데이터 테이블에 직접 연결할 수 있습니다.
- 이점: 데이터 엔지니어/과학자가 아니더라도 재무, 운영, 규정 준수 팀 등 누구나 일반 영어로 질문하면 에이전트가 쿼리로 변환하여 요약 형태로 인사이트를 제공받을 수 있습니다.
|
5. 데모 시연: Compute Checksum 및 S3 메타데이터 통합
데모는 우주 기술 스타트업이 NASA 이미지/비디오를 사용하여 자율 우주 차량 시뮬레이션 모델을 훈련하는 시나리오를 가정합니다.
5-1. 데모 목표
- 인벤토리 테이블을 사용하여 Project Odin 관련 객체를 찾습니다.
- 이 객체들의 체크섬을 계산합니다.
- Kirro를 사용하여 배치 작업 완료 보고서의 체크섬을 객체 태그에 저장된 원본 체크섬과 비교 검증합니다.
5-2. 데이터 준비 및 태그 확인
- 데이터 위치: reinvent storage 208 demo 버킷에 NASA 웹사이트에서 다운로드한 이미지와 비디오가 Glacier Instant Retrieval 및 Standard 등 여러 스토리지 클래스에 저장되어 있습니다.
- 객체 태그: 객체 속성에는 SHA 256 알고리즘, 체크섬 타임스탬프, 프로젝트 이름(Odin), 기준 체크섬(원본 체크섬 16진수 코드) 등이 태그로 추가되어 있습니다. 일부 객체는 의도적으로 태그가 없습니다.
5-3. 매니페스트 생성 (라이브 인벤토리 테이블 사용)
- 쿼리 도구: SageMaker Unified Studio를 사용하여 라이브 인벤토리 테이블을 쿼리합니다.
- 쿼리 조건: 배치 작업에 사용 가능하도록 bucket과 key를 포함하고, WHERE object tags have project name as Odin 조건을 추가합니다.
- 결과: Project Odin과 관련된 25개 파일이 확인되었습니다.
- 포맷 조정: 배치 작업 수용 형식에 맞게 CSV 파일의 첫 번째 행을 제거하고 Odin manifest v2로 저장합니다.
5-4. S3 배치 작업 설정
- 버킷 준비: 매니페스트 저장용 버킷과 배치 작업 결과를 받을 대상 위치 버킷을 준비합니다.
- 작업 생성: 새 작업을 생성하고 기존 매니페스트(Odin manifest v2)를 선택합니다.
- 작업 유형 선택: Compute Checksum Operation을 선택합니다.
- 파라미터 설정: 체크섬 유형은 Full Object, 알고리즘은 SHA-256을 선택합니다.
- 중요 확인: 완료 보고서에 평문 데이터의 체크섬 값이 포함되므로, 버킷 소유자가 이 보고서에 접근할 수 있음을 인정(acknowledge)해야 합니다.
- 권한 및 제출: 대상 위치를 지정하고 S3 배치 체크섬용 IAM 역할을 부여한 후 작업을 제출하고 완료를 기다립니다.
5-5. 결과 확인 및 검증
- 보고서 확인: 배치 결과 폴더에서 완료 보고서를 열어봅니다.
- 결과 메시지: 결과 메시지 열에는 체크섬 알고리즘(SHA-256), 체크섬 유형(Full Object), 체크섬 값(Base64 및 Hex 코드)이 포함되어 있습니다.
- 최종 비교 (Kirro 사용): Kirro CLI를 사용하여 배치 작업 출력 CSV 파일 링크를 제공하고, Project Odin 체크섬을 검증하도록 지시합니다.
- 검증 결과: Kirro가 생성한 Python 스크립트를 통해 Project Odin과 관련된 25개 객체 모두가 태그로 저장된 체크섬과 일치함이 확인되었습니다.
|
6. 세션 요약 및 주요 시사점

6-1. AI 시대의 차별화: AI 발전과 함께 아카이브 데이터가 비즈니스의 차별화 요소가 될 수 있습니다.
6-2. 다양한 스토리지 옵션: S3는 접근 패턴, 스토리지 기간 또는 비용에 따라 특정 비즈니스 요구 사항에 맞춰진 다양한 스토리지 옵션을 제공합니다.
6-3. 새로운 기능: Compute Checksum Operation 및 S3 메타데이터와 같은 새로운 기능은 아카이브 데이터를 쉽게 관리하고 그 가치를 더 많이 추출할 수 있도록 돕습니다.
|
|
|