다음의 정보는 아래 Youtube List를 참고하였습니다. 번역상 오역이 있을 수 있으므로, 원문을 참고하는 것을 추천 드립니다.
AWS re:Invent 2019 Breakout Sessions | Analytics
Overview
AWS re:Invent 2019: Leadership session: Trends with data lakes and analytics (ANT206-L)
AWS는 자체 서비스 데이터 액세스를 통해 잘 관리 된 데이터 레이크를 빠르고 쉽게 구축하는 데 필요한 모든 것을 제공하는 통합 서비스 제품군을 제공합니다.
이 강의에서 Amazon Athena 및 Amazon EMR의 총 책임자 인 Rahul Pathak은 우리가보고있는 주요 트렌드 중 일부에 대해 이야기하고 AWS가 제공하는 서비스를 어떻게 구성하는지 설명합니다.
특정 트렌드에는 머신 생성 데이터 및 반 구조화/구조화 되지 않은 데이터가 새로운 데이터의 주요 소스로 부상하고 서버리스, SPI 중심 컴퓨팅으로의 이동, 전 세계 사용자의 데이터에 대한 로컬 액세스 필요성의 증가가 포함됩니다.
Keynote with Andy Jassy - S3 for Data Lake
S3에서 공유 데이터 세트에 대한 액세스를 쉽게 관리
고객은 분석, 머신 러닝, 실시간 모니터링 또는 기타 데이터 레이크 유스 케이스 등 다양한 애플리케이션, 팀 및 개인이 데이터를 집계하고 액세스하는 공유 데이터 세트를 저장하기 위해 Amazon S3를 점점 더 많이 사용하고 있습니다.
이 공유 버킷에 대한 액세스를 관리하려면 권한 수준이 다른 수십에서 수백 개의 애플리케이션에 대한 액세스를 제어하는 단일 버킷 정책이 필요합니다.
애플리케이션 세트가 커짐에 따라 버킷 정책이 더욱 복잡해지고 관리하는 데 시간이 걸리며 변경 사항이 다른 애플리케이션에 예기치 않은 영향을 미치지 않도록 감사해야 합니다.
S3의 기능인 Amazon S3 액세스 포인트는 S3의 공유 데이터 세트를 사용하여 애플리케이션에 대한 규모의 데이터 액세스 관리를 단순화 합니다.
액세스 포인트는 고객이 액세스 포인트를 통한 요청에 대해 고유 한 권한 및 네트워크 제어를 시행하기 위해 생성하는 고유한 호스트 이름입니다.
데이터 레이크, 미디어 아카이브 및 사용자 생성 컨텐츠를 포함한 공유 데이터 세트를 보유한 고객은 각 애플리케이션에 대해 사용자 정의 된 이름 및 권한으로 개별 액세스 포인트를 작성하여 수백 개의 애플리케이션에 대한 액세스를 쉽게 확장 할 수 있습니다.
모든 액세스 포인트는 VPC(Virtual Private Cloud)로 제한되어 고객의 프라이빗 네트워크 내에서 S3 데이터 액세스를 방화벽화할 수 있으며 AWS 서비스 제어 정책을 사용하여 모든 액세스 포인트가 VPC로 제한되도록 할 수 있습니다.
S3 액세스 포인트는 이제 추가 비용 없이 모든 지역에서 사용할 수 있습니다.
AWS가 제공하는 다양한 분석 서비스들
Lake Formation
AWS re:Invent 2019: [REPEAT 1] Data lakes and data integration with AWS Lake Formation (ANT218-R1)
번거로움 없이 데이터 레이크를 구축하고 보호하고 싶습니까?
AWS Lake Formation과 AWS Glue가 데이터 수집, 암호화, 카탈로그, 변환 및 프로비저닝 단계를 통합하고 단순화하는 방법을 알아보십시오.
세분화 된 액세스 제어 정책 및 감사 로깅을 시행하면서 다른 분석 서비스 및 사용자가 데이터에 쉽게 액세스 할 수 있도록하는 방법을 이해합니다.
AWS 고객이 비즈니스를 위해 Lake Formation 및 AWS Glue를 구현 한 방법에 대해 들어보십시오.
NU SKIN 이 최근 AWS로 올인 마이그레이션을 완료하고 AWS Lake Formation을 활용하여 데이터 레이크를 관리 한 방법을 들어보십시오.
Kinesis
What's New - Amazon Kinesis Video Streams adds support for real-time two-way media streaming with WebRTC
Amazon Kinesis 비디오 스트림은 이제 WebRTC를 통한 실시간 미디어 스트리밍을 지원합니다.
WebRTC는 간단한 API를 통해 웹 브라우저, 모바일 응용 프로그램 및 연결된 장치 간의 실시간 통신을 가능하게하는 오픈 소스 프로젝트입니다.
WebRTC가 포함된 Kinesis Video Streams를 통해 개발자는 실시간 양방향 미디어 스트리밍 및 애플리케이션과 연결된 장치 간의 대화 형 기능을 갖춘 애플리케이션을 구축할 수 있습니다.
일반적으로 비디오 초인종 또는 베이비 모니터와 휴대 전화, 비디오 채팅 및 P2P 미디어 스트리밍 간의 대화 형 비디오 및 오디오가 사용됩니다.
개발자는 WebRTC와 함께 Amazon Kinesis Video Streams를 사용하여 가정 보안 및 모니터링, 카메라 지원 초인종, 아기 및 애완 동물 모니터링, 스마트 기기 등과 같은 사용 사례에 대한 실시간 양방향 미디어를 쉽게 스트리밍 할 수 있습니다.
Kinesis Video Streams는 하드웨어 플랫폼 별 SDK를 통해 WebRTC 기능을 카메라 IoT 장치에 제공하며 수 백만 대의 장치를 지원하도록 탄력적으로 확장할 수 있습니다.
완전 관리 기능인 고객은 신호 또는 미디어 릴레이 서버와 같은 WebRTC 관련 클라우드 인프라를 구축, 운영 또는 확장 할 필요가 없습니다.
Kinesis Video Streams에는 빠른 피어 검색 및 안전한 연결 설정을 위한 WebRTC 신호 엔드 포인트가 포함되어 있습니다.
여기에는 STUN(Managed Session Traversal Utilities) 및 피어간에 미디어를 실시간으로 교환 할 수있는 NAT(TURN) 주변 릴레이 사용 (TURN) 엔드 포인트를 통한 순회가 포함됩니다.
또한 카메라 펌웨어와 직접 통합되는 무료 오픈 소스 SDK가 포함되어 피어 검색 및 미디어 스트리밍을 위해 Kinesis Video Streams 엔드 포인트와 안전하게 통신 할 수 있습니다.
마지막으로, Android 및 iOS 용 클라이언트 라이브러리와 WebRTC 표준 호환 모바일 및 웹 플레이어가 미디어 스트리밍 및 양방향 통신을위한 카메라 장치를 안전하게 검색하고 연결할 수있는 JavaScript를 제공합니다.
AWS re:Invent 2019: [REPEAT 1] Building a streaming data platform with Amazon Kinesis (ANT326-R1)
오늘날의 비즈니스는 가능한 한 빨리 고객 기회와 문제에 대응해야 합니다.
이 세션에서는 비즈니스 운영보고를위한 분석 파이프 라인을 구축하여 몇 시간에서 몇 초까지 정보를 빠르게 제공하는 방법을 살펴 봅니다.
Amazon Kinesis와 같은 스트리밍 데이터 서비스를 사용하여 Amazon Redshift 데이터웨어 하우스 및 Amazon Aurora보고 데이터베이스에 데이터를 전송하기 전에 실시간으로 데이터를 캡처하고 분석하는 방법에 대해 논의합니다.
고객 GoDaddy는이 아키텍처 패턴을 사용하여 플랫폼에서 웹 사이트를 호스팅하는 수백만 고객에게 최고의 경험을 제공하는 방법을 공유합니다.
AWS re:Invent 2019: How Zappos uses AWS services for near-real-time search optimization (ANT380-P)
이 세션에서 Zappos가 AWS 분석을 활용하여 엔드 투 엔드 머신 러닝 (ML) 플랫폼을 개발 한 방법을 알아보십시오.
엔진은 Amazon Kinesis Data Firehose, Amazon Redshift 및 AWS Lambda에 크게 의존하는 실시간 이벤트 수집 시스템으로 구성됩니다.
시스템, 시스템 구축 방법 및 다양한 ML 알고리즘에 공급되는 방법에 대해 알아 봅니다.
마지막으로, 실시간 검색 최적화 및 크기 권장 사항을 포함하여 Zappos 웹 사이트에서 다양한 기능을 사용하는 방법을 알아보십시오.
AWS re:Invent 2019: AWS analytics enables fraud prevention for Sony ’s PlayStation (ANT331)
Sony Interactive Entertainment는 사용자의 거래 활동을 집계 할 수있는 빅 데이터 플랫폼으로 EVE Fraud System을 구축하여 은행의 지불 거절 또는 지불 거절없이 승인이 크게 증가했습니다.
이 세션에서 Sony가 Amazon Kinesis Data Analytics, Amazon Kinesis Data Firehose, AWS Lambda, AWS Glue, Amazon Simple Storage Service (Amazon S3) 및 Amazon DynamoDB를 사용하여 집계를 생성하고 180 밀리 초보다 짧게 단일 구매 트랜잭션에서 검색하는 방법을 알아보십시오
AWS re:Invent 2019: How Prime Video processes 8 percent of all US internet traffic on AWS (ANT348)
Amazon Prime Video는 세계에서 가장 큰 스트리밍 서비스 중 하나이며 미국의 모든 인터넷 트래픽 중 8 % 이상을 매일 제공합니다.
전 세계 200여 개국에 수백만 대의 장치가 있어 원격 측정 데이터를 실시간으로 수집하고 분석하는 것은 주요한 확장 과제입니다.
이 세션에서 팀이 Amazon Kinesis, AWS Lambda 및 Amazon Simple Storage Service (Amazon S3)와 같은 AWS 기술을 사용하여
초당 수백만 건의 트랜잭션(TPS)과 수백 페타 바이트를 처리하는 차세대 원격 측정 플랫폼을 구축 한 방법을 알아보십시오.
Glue
AWS re:Invent 2019: Upgrading AWS Glue to use AWS Lake Formation permissions (ANT281-P)
Lake Formation 권한을 사용하도록 업그레이드하는 방법을 배웁니다.
IAM 정책을 사용하여 AWS Glue 데이터 카탈로그에서 FGAC (Fine-Grained Access Control)가 있는 간단한 데이터 레이크부터 시작합니다.
그런 다음 Lake Formation 권한을 사용하도록 업그레이드합니다.
AWS re:Invent 2019: How Woot.com built a serverless data lake with AWS analytics (ANT333)
Woot.com은 레거시 데이터웨어 하우스를 대체하는 데이터 레이크를 설계하고 개발하여 여러 비즈니스 영역에서 강력한 분석 기능을 제공합니다.
이 세션에서 Amazon EMR, Amazon Athena, AWS Glue 및 Amazon QuickSight를 사용하여 즉각적인 분석을 위해 외부 및 내부 소스에서 데이터를 수집하고 중앙 집중화하는 자동화 된 프로세스를 구축 한 방법을 알아보십시오.
Athena
AWS re:Invent 2019: [REPEAT 1] Deep dive into Amazon Athena (ANT307-R1)
Amazon Athena는 표준 SQL을 사용하여 Amazon S3의 데이터를 쉽게 분석 할 수 있는 대화식 쿼리 서비스입니다.
Athena는 서버리스이므로 관리 할 인프라가 없으며 실행 한 쿼리에 대해서만 비용을 지불합니다.
고객이 Athena를 사용하여 데이터 레이크를 쿼리하고 분석가 및 개발자를위한 셀프 서비스를 제공하며 애플리케이션을 구축하는 방법을 알아보십시오.
최신 개선 사항에 대해 자세히 알아보고 데모를 보여줍니다. 새로운 Athena 사용자는 서비스 기능 및 고객 아키텍처 패턴에 대한 이해를 얻습니다.
기존 Athena 사용자는 동시성, 성능 및 보안을 포함하여 최근 개선 된 내용을 이해합니다.
참고: https://dev.classmethod.jp/cloud/aws/reinvent2019-report-amazon-athena-best-practice/
참고: https://www.megazone.com/reinvent-2019-deep-dive-into-amazon-athena/
Blog - Extract, Transform and Load data into S3 data lake using CTAS and INSERT INTO statements in Amazon Athena
쿼리 성능을 높이고 비용을 절감하는 모범 사례에 대한 자세한 내용은 Amazon Athena의 10 가지 성능 튜닝 팁을 참조하십시오.
Athena를 사용하여 데이터 처리를위한 ETL(Extract, Transform and Load) 작업에 대해 설명합니다.
이 예는 CTAS (Create Table as Select) 및 INSERT INTO 문을 사용하여 데이터 세트를 분할하고 컬럼 데이터 형식으로 변환하여 분석을 위해 데이터 세트를 최적화합니다.
CTAS 문은 표준 SELECT 조회를 사용하여 새 테이블을 작성하여 필요에 따라 데이터를 필터링합니다.
CTAS 문을 사용하여 데이터를 분할하고 압축을 지정하고 Apache Parquet 및 Apache ORC와 같은 열 형식으로 데이터를 변환 할 수도 있습니다.
실행의 일부로 결과 테이블과 파티션이 AWS Glue 데이터 카탈로그에 추가되어 후속 쿼리에 즉시 사용할 수 있습니다.
INSERT INTO 문은 소스 테이블에서 실행되는 SELECT 조회 문을 기반으로 대상 테이블에 새 행을 삽입합니다.
소스 테이블의 기본 데이터가 CSV 형식이고 대상 테이블의 데이터가 파켓 형식인 경우 INSERT INTO는 데이터를 대상 테이블의 형식으로 쉽게 변환하고 적재 할 수 있습니다.
CTAS 및 INSERT INTO 문을 함께 사용하면 데이터의 초기 일괄 변환과 기존 테이블의 증분 업데이트를 수행할 수 있습니다.
Blog - Prepare data for model-training and invoke machine learning models with Amazon Athena
Amazon Athena는 SQL 쿼리에서 Amazon SageMaker에 직접 배포된 ML(machine learning) 모델을 사용하여 추론을 쉽게 실행할 수있는 새로운 기능의 공개 프리뷰를 발표했습니다.
SQL 쿼리에서 ML 모델을 사용하는 기능은 SQL 쿼리를 작성하는 것만 큼 간단한 이상 감지, 고객 코호트 분석 및 판매 예측과 같은 복잡한 작업을 수행합니다.
사용자는 이제 독점 데이터 세트에 대해 훈련 된 ML 모델을 사용하거나 Amazon SageMaker에 배포 된 즉시 사용 가능한 사전 훈련 된 ML 모델을 사용할 수 있습니다.
이제 텍스트 분석, 통계 도구 및 Amazon SageMaker에 배포 된 모든 알고리즘에서 다양한 ML 알고리즘을 쉽게 호출할 수 있습니다. 추가 설정이 필요하지 않습니다.
사용자는 Athena 콘솔, Athena API 및 Amazon QuickSight와 같은 도구에서 Athena의 JDBC 및 ODBC 드라이버를 사용하여 SQL 쿼리에서 ML 모델을 호출할 수 있습니다.
몇 초 안에 분석가는 추론을 실행하여 판매를 예측하고 응용 프로그램에 대한 의심스러운 로그인을 감지하거나 모든 사용자를 고객 집단으로 분류할 수 있습니다.
프리뷰에는 연합 데이터 소스에서 스캔 한 데이터에 대한 요금이 청구되지 않습니다. 그러나 Amazon S3에서 스캔 한 데이터에 대해서는 표준 Athena 요금이 청구됩니다.
또한 Amazon S3, AWS Lambda, AWS Glue, Amazon SageMaker 및 AWS Serverless Application Repository와 같이 Athena와 함께 사용하는 AWS 서비스에 대한 표준 요금이 청구됩니다.
예를 들어 스토리지, 요청 및 리전 간 데이터 전송에 대한 S3 요금이 청구됩니다. 기본적으로 쿼리 결과는 선택한 S3 버킷에 저장되며 표준 Amazon S3 요금으로 청구됩니다. AWS Lambda를 사용하는 경우 함수 요청 횟수 및 기간, 코드 실행 시간에 따라 요금이 부과됩니다.
Blog - Query any data source with Amazon Athena’s new federated query
Amazon Athena의 연합 쿼리
연합 쿼리는 데이터 분석가, 엔지니어 및 데이터 과학자가 관계형, 비 관계형, 객체 및 사용자 지정 데이터 소스에 저장된 데이터에 대해 SQL 쿼리를 실행할 수 있는 새로운 Amazon Athena 기능입니다.
고객은 Athena 연합 쿼리를 사용하여 단일 SQL 쿼리를 제출하고 온-프레미스에서 실행되거나 클라우드에서 호스팅되는 여러 소스의 데이터를 분석할 수 있습니다.
Athena는 AWS Lambda에서 실행되는 데이터 소스 커넥터를 사용하여 연합 쿼리를 실행합니다.
AWS는 Apache 2.0 라이센스에 따라 Amazon DynamoDB, Apache HBase, Amazon DocumentDB, Amazon Redshift, Amazon CloudWatch Logs, AWS CloudWatch Metrics, MySQL 및 PostgreSQL과 같은 JDBC 호환 관계형 데이터 소스를 위한 오픈 소스 Athena 데이터 소스 커넥터를 보유하고 있습니다.
고객은 이 커넥터를 사용하여 이러한 데이터 소스에서 Athena의 연합 SQL 쿼리를 실행할 수 있습니다. 또한 Query Federation SDK를 사용하여 고객은 독점 데이터 소스에 대한 커넥터를 구축하고 Athena가 데이터 소스에 대해 SQL 쿼리를 실행할 수 있습니다.
커넥터는 Lambda에서 실행되므로 고객은 Athena의 서버리스 아키텍처를 계속 활용하므로 최대 수요에 맞게 인프라나 규모를 관리 할 필요가 없습니다.
여러 애플리케이션에 분산된 데이터에 대한 분석을 실행하는 것은 복잡하고 시간이 많이 걸릴 수 있습니다. 응용 프로그램 개발자는 응용 프로그램의 기본 기능에 따라 데이터 저장소를 선택 합니다.
결과적으로 분석에 필요한 데이터는 종종 관계형, 키-값, 문서, 인 메모리, 검색, 그래프, 시계열 및 원장 데이터베이스에 분산됩니다. 이벤트 및 애플리케이션 로그는 종종 Amazon S3와 같은 객체 저장소에 저장됩니다.
이러한 소스에서 데이터를 분석하려면 분석가는 새로운 프로그래밍 언어와 데이터 액세스 구문을 배우고 데이터를 쉽게 쿼리하기 전에 데이터웨어 하우스로 추출, 변환 및로드 할 복잡한 파이프 라인을 구축해야 합니다.
데이터 파이프 라인은 지연을 초래하고 시스템 전체의 데이터 정확성 및 일관성을 검증하기 위해 사용자 정의 프로세스를 요구합니다.
또한 소스 응용 프로그램을 수정할 때 데이터 파이프 라인을 업데이트하고 수정을 위해 데이터를 다시 통계를 내야 합니다.
Athena의 연합 쿼리는 고객이 어디에 있든 데이터를 제자리에서 쿼리 할 수 있게 함으로써 이러한 복잡성을 제거 합니다.
분석가는 친숙한 SQL 구문을 사용하여 여러 데이터 소스에서 데이터를 결합하여 빠른 분석을 수행하거나 예약된 SQL 쿼리를 사용하여 후속 분석을 위해 Amazon S3에서 결과를 추출 및 저장 할 수 있습니다.
Athena Query Federation SDK는 AWS에서 제공하는 커넥터를 넘어 페더레이션 쿼리의 이점을 확장합니다. 100 줄 미만의 코드로 고객은 독점 데이터 소스에 대한 커넥터를 구축하여 조직 전체에서 공유 할 수 있습니다.
커넥터는 Lambda 기능으로 배포되며 Athena에서 데이터 소스로 사용하도록 등록되었습니다. 등록된 Athena는 커넥터를 호출하여 데이터 소스에서 사용 가능한 데이터베이스, 테이블 및 열을 검색합니다.
단일 Athena 쿼리는 여러 데이터 소스에 걸쳐 있을 수 있습니다. 데이터 소스에 대해 쿼리가 제출되면 Athena는 해당 커넥터를 호출하여 읽어야하는 테이블 부분을 식별하고 병렬 처리를 관리하며 필터 조건자를 푸시 다운합니다.
쿼리를 제출하는 사용자에 따라 커넥터는 특정 데이터 요소에 대한 액세스를 제공하거나 제한 할 수 있습니다.
커넥터는 쿼리에서 요청 된 데이터를 반환하기위한 형식으로 Apache Arrow를 사용하므로 커넥터를 C, C ++, Java, Python 및 Rust와 같은 언어로 구현할 수 있습니다.
커넥터는 Lambda에서 실행되므로 클라우드 또는 Lambda에서 액세스 할 수있는 온-프레미스의 모든 데이터 소스에서 데이터에 액세스하는 데 사용할 수 있습니다.
Amazon Athena adds four new query-related metrics
Amazon Athena now publishes additional query metrics that can help customers understand Amazon Athena performance. Athena publishes query-related metrics to Amazon CloudWatch. With this release, Athena will publish four additional query metrics.
They are:
- Query Planning Time, the time taken to plan the query. This includes the time spent retrieving table partitions from the data source,
- Query Queuing Time, the time that the query was in a queue waiting for resources,
- Service Processing Time, the time taken to write results after the query engine finished its execution,
- Total Execution Time, time Athena took to run the query.
You can create custom dashboards, set alarms and triggers on metrics in CloudWatch, or use pre-populated dashboards directly from the Athena console to consume these new query metrics.
Please visit our documentation to learn more about the new published metrics.
What’s New Post: https://aws.amazon.com/about-aws/whats-new/2019/11/amazon-athena-adds-four-new-query-related-metrics/
오늘은 고객이 Amazon Athena 성능을 이해하는 데 도움을 주는 추가적인 쿼리 지표를 게시합니다. Athena는 쿼리 관련 지표를 Amazon CloudWatch에 게시합니다. 이번 릴리스에서 Athena는 추가적인 쿼리 지표 4개를 게시할 예정입니다. 해당 지표는 다음과 같습니다.
- 쿼리 계획 시간: 쿼리를 계획하는 데 소요된 시간입니다. 여기에는 데이터 원본으로부터 테이블 파티션을 검색하는 데 소요된 시간이 포함됩니다.
- 쿼리 대기열 시간: 쿼리가 대기열에서 리소스를 기다린 시간입니다.
- 서비스 처리 시간: 쿼리 엔진이 실행을 완료한 후 결과를 작성하는 데 소요된 시간입니다.
- 총 실행 시간: Athena에서 쿼리를 실행하는 데 소요된 시간입니다.
사용자 지정 대시보드를 생성하거나, CloudWatch에서 지표에 경보와 트리거를 설정하거나, Athena 콘솔에서 미리 구성된 대시보드를 직접 사용하여 이러한 새로운 쿼리 지표를 사용할 수 있습니다.
Redshift
What's New - Amazon Redshift introduces support for federated querying
Amazon Redshift Federated Query(프리뷰) 기능을 사용하면 운영 데이터베이스, 데이터웨어하우스 및 데이터 레이크에서 데이터를 쿼리하고 분석할 수 있습니다.
Federated Query를 사용하면 Amazon RDS for PostgreSQL 및 Amazon Aurora PostgreSQL의 라이브 데이터에 대한 쿼리를 Amazon Redshift 및 Amazon S3 환경의 쿼리와 통합 할 수 있습니다.
통합 쿼리를 사용하면 비즈니스 인텔리전스(BI) 및 보고 응용 프로그램의 일부로 라이브 데이터를 통합 할 수 있습니다.
Redshift의 인텔리전트 옵티마이저는 계산 작업의 일부를 원격 운영 데이터베이스로 직접 푸시 다운하여 분산하여 네트워크를 통해 이동하는 데이터를 줄임으로써 성능을 가속화합니다.
Redshift는 필요에 따라 자체 병렬 처리 기능으로 쿼리 실행을 보완합니다.
또한 연합 쿼리를 사용하면 운영 데이터베이스를 직접 쿼리하고, 즉시 변환을 적용하고, 복잡한 ETL 파이프 라인없이 데이터를 대상 테이블에 로드하여 Redshift로 데이터를 쉽게 수집 할 수 있습니다.
What's New - Announcing Amazon Redshift data lake export: share data in Apache Parquet format
이제 분석을위한 효율적인 오픈 컬럼 스토리지 형식인 Apache Parquet로 Amazon Redshift 쿼리 결과를 Amazon S3 데이터 레이크에 언로드 할 수 있습니다.
Parquet 형식은 텍스트 형식과 비교하여 언로드하는 데 최대 2 배 더 빠르며 Amazon S3에서 최대 6 배 적은 스토리지를 사용합니다.
이를 통해 Amazon Redshift에서 수행 한 데이터 변환 및 보강을 공개 형식으로 Amazon S3 데이터 레이크에 저장할 수 있습니다.
그런 다음 Redshift Spectrum 및 Amazon Athena, Amazon EMR 및 Amazon SageMaker와 같은 다른 AWS 서비스를 사용하여 데이터를 분석 할 수 있습니다.
언로드 된 데이터가 Amazon S3 버킷의 폴더로 자동 분할되도록 하나 이상의 파티션 열을 지정할 수 있습니다.
예를 들어 마케팅 데이터를 언로드하고 연도, 월 및 일 열로 분할하도록 선택할 수 있습니다.
이를 통해 쿼리는 파티션 프 루닝을 활용하고 관련이없는 파티션 스캔을 건너 뛰어 쿼리 성능을 개선하고 비용을 최소화 할 수 있습니다.
AWS re:Invent 2019: How to build your data analytics stack at scale with Amazon Redshift (ANT335-R)
최신 클라우드 데이터웨어 하우스는 가변 분석 워크로드를 처리하기 위해 필요에 따라 확장 및 확장 할 수 있어야 합니다.
이 세션에서는 모든 사용 사례 또는 워크로드에 대해 예측 가능한 최저 비용으로 최고의 성능을 제공하는 Amazon Redshift의 기능에 대해 설명합니다.
Amazon Redshift가 대량의 쿼리 작업, 복잡한 쿼리가 포함 된 대용량 데이터 세트, 자주 쿼리되는 데이터 및 자주 액세스하지 않는 기록 데이터, Amazon S3 데이터 레이크의 열린 파일 형식 및 Amazon Redshift의 구조화 된 데이터의 혼합으로 소규모 데이터 세트를 처리하는 방법에 대해 알아보십시오.
AWS re:Invent 2019: [REPEAT 2] How to scale data analytics with Amazon Redshift (ANT335-R2)
최신 클라우드 데이터웨어 하우스는 다양한 분석 워크로드를 처리 할 수 있도록 확장 및 확장 할 수 있어야합니다.
이 세션에서는 모든 사용 사례 또는 워크로드에 대해 예측 가능한 최저 비용으로 최고의 성능을 제공하는 Amazon Redshift의 기능에 대해 설명합니다.
Amazon Redshift가 대량의 쿼리 작업, 복잡한 쿼리가 포함 된 대용량 데이터 세트, 자주 쿼리되는 데이터 및 자주 액세스하지 않는 기록 데이터, Amazon S3 데이터 레이크의 열린 파일 형식 및 Amazon Redshift의 구조화 된 데이터의 혼합으로 소규모 데이터 세트를 처리하는 방법에 대해 알아보십시오.
AWS re:Invent 2019: Deep dive and best practices for Amazon Redshift (ANT418)
이 세션에서는 Amazon Redshift를 사용한 데이터웨어 하우징 모범 사례에 대해 심도있게 살펴 봅니다.
데이터를 이동하지 않고 데이터웨어 하우스 내부 및 외부의 모든 데이터를 분석하는 가장 좋은 방법을 보여 주므로 비즈니스 운영에 대한 심층적인 통찰력을 얻을 수 있습니다.
또한 최적의 스키마를 설계하고 데이터를 효율적으로로드하며 쿼리를 최적화하여 높은 처리량과 성능을 제공하는 방법에 대한 모범 사례를 다룹니다.
AWS re:Invent 2019: [REPEAT] What’s new with Amazon Redshift, featuring Workday (ANT320-R)
Amazon Redshift의 가장 중요하고 인기있는 새로운 기능에 대해 알아보십시오.
이 세션에서는 Amazon Redshift의 아키텍처 발전과 머신 러닝을 사용하여 자체 최적화 데이터웨어 하우스를 만드는 방법에 대해 설명합니다.
또한 가격 대비 성능 비율에 비해 최근의 성능, 동시성, 탄력성 및 관리 효율성 향상을 검토합니다.
마지막으로, 미래의 데이터웨어 하우스에 대한 비전을 엿보고 Workday에서 Amazon Redshift의 최신 기능이 Workday가 최적화 및 확장을 달성하는 데 어떤 도움을 주 었는지에 대해 들어 봅니다.
AWS re:Invent 2019: How Amazon leverages AWS to deliver analytics at enterprise scale (ANT204-R1)
Amazon.com은 전 세계 최대 규모의 Oracle 데이터웨어 하우스 중 하나에서 실행되는 수 십만 개의 일일 작업 인 엔터프라이즈 데이터웨어하우스를
2 년 이내에 확장 가능한 AWS 기반 데이터 레이크로 마이그레이션했습니다.
이 세션에서는 Amazon.com의 데이터 레이크 아키텍처와 Amazon Redshift 및 Amazon EMR을 어떻게 활용했는지 살펴 봅니다.
또한 모든 레거시 작업을 새 시스템으로 마이그레이션하는 데 사용되는 주요 전략을 검토하고 마이그레이션 후 시스템을 처음 실행 한 첫 해 부터 얻은 교훈을 포함합니다.
AWS re:Invent 2019: How to scale data analytics w/ Amazon Redshift, ft. Warner Bros . (ANT335-R1)
최신 클라우드 데이터웨어 하우스는 다양한 분석 워크로드를 처리 할 수 있도록 확장 및 확장할 수 있어야 합니다.
이 세션에서는 모든 사용 사례 또는 워크로드에 대해 예측 가능한 최저 비용으로 최고의 성능을 제공하는 Amazon Redshift의 기능에 대해 설명합니다.
Amazon Redshift가 대량의 쿼리 작업, 복잡한 쿼리가 포함 된 대용량 데이터 세트, 자주 쿼리되는 데이터 및 자주 액세스하지 않는 기록 데이터,
Amazon S3 데이터 레이크의 열린 파일 형식 및 Amazon Redshift의 구조화 된 데이터의 혼합으로 소규모 데이터 세트를 처리하는 방법에 대해 알아보십시오.
그리고 Warner Brothers는 Amazon Redshift를 통해 분석 성능이 어떻게 향상되었는지에 대해 설명합니다.
AWS re:Invent 2019: [REPEAT] State-of-the-art cloud data warehousing, featuring Comcast (ANT213-R)
최첨단 클라우드 데이터웨어 하우스는 수천 명의 동시 사용자를 지원하면서 가장 저렴하고 예측 가능한 비용으로 최고의 성능을 제공해야 합니다.
또한 미래의 분석 워크로드에 필요한 민첩성을 달성하려면 데이터 레이크에 완벽하게 통합하고 분석 스택에서 최고 수준의 시민이 되어야 합니다.
Amazon Redshift는 오늘날 이것을 수행합니다. 이 세션에서는 Amazon Redshift가 스토리지를 확장하고 10 배 향상된 가격 대비 성능 비율로 계산하는 방법에 대해 설명합니다.
Amazon Redshift로 확장하여 Comcast가 성능을 개선 한 방법과 Amazon Redshift를 사용한 데이터웨어하우징이 모든 데이터를 분석하여 보다 심층적인 통찰력과 더 나은 결과를 제공하는 데 어떻게 도움이 되는지 알아보십시오.
AWS re:Invent 2019: State-of-the-art cloud data warehousing, featuring Asurion (ANT213-R1)
최첨단 클라우드 데이터웨어 하우스는 수천 명의 동시 사용자를 지원하면서 가장 저렴하고 예측 가능한 비용으로 최고의 성능을 제공해야 합니다.
또한 미래의 분석 워크로드에 필요한 민첩성을 달성하려면 데이터 레이크에 완벽하게 통합하고 분석 스택에서 최고 수준의 시민이 되어야합니다.
Amazon Redshift는 오늘 이것을 수행합니다. 이 세션에서는 Amazon Redshift가 스토리지를 확장하고 10 배 향상된 가격 대비 성능 비율로 계산하는 방법에 대해 설명합니다.
Amazon Redshift로 확장하여 Asurion이 성능을 개선 한 방법과 Amazon Redshift를 사용한 데이터웨어하우징이 모든 데이터를 분석하여 보다 심층적인 통찰력과 더 나은 결과를 제공하는 데 어떻게 도움이 되는지 알아보십시오.
AWS re:Invent 2019: [REPEAT 1] What’s new with Amazon Redshift, featuring Yelp (ANT320-R1)
Amazon Redshift의 가장 중요하고 인기있는 새로운 기능에 대해 알아보십시오.
이 세션에서는 Amazon Redshift의 아키텍처 발전과 머신 러닝을 사용하여 자체 최적화 데이터웨어 하우스를 만드는 방법에 대해 설명합니다.
또한 가격 대비 성능 비율에 비해 최근의 성능, 동시성, 탄력성 및 관리 효율성 향상을 검토합니다.
마지막으로, 우리는 미래의 데이터웨어 하우스에 대한 비전을 엿보고 Yelp가 Amazon Redshift의 최신 기능이 Yelp의 최적화 및 규모 달성에 어떤 도움을 주 었는지 들었습니다.
AWS re:Invent 2019: Migrate your data warehouse to the cloud, ft. Fannie Mae (ANT334-R)
최신 데이터웨어 하우징은 데이터를 이동할 필요없이 데이터웨어 하우스와 데이터 레이크의 모든 데이터를 혼합하고 분석합니다.
이 세션에서 Fannie Mae의 담당자는 주요 온 프레미스 데이터웨어 하우스에서 Amazon Redshift로 기록 시간을 어떻게 마이그레이션했는지 설명합니다.
회사가 AWS DMS (AWS Database Migration Service), AWS Schema Conversion Tool, AWS Glue 및 Amazon Redshift를 사용하여 조직 전체에시기 적절한 분석을 제공하는 방법을 알아보십시오.
Keynote with Andy Jassy - Redshift
Amazon Redshift Feature
Amazon Redshift introduces RA3 nodes with managed storage enabling independent compute and storage scaling
RA3 노드를 사용하면 컴퓨팅 및 스토리지 비용을 독립적으로 확장 및 지불 할 수 있으므로 컴퓨팅 요구에 따라 클러스터의 크기를 조정할 수 있습니다. 이제 더 많은 데이터를 비용 효율적으로 분석 할 수 있습니다.
RA3 노드는 AWS Nitro System을 기반으로하며 베어 메탈과 구분할 수 없는 높은 대역폭의 네트워킹 및 성능을 제공합니다. RA3 노드는 매우 큰 고성능 SSD를 로컬 캐시로 사용합니다.
RA3 노드는 자동 세분화 된 데이터 제거 및 지능형 데이터 프리 페칭과 같은 워크로드 패턴과 고급 데이터 관리 기술을 활용하여 로컬 SSD의 성능을 제공하는 동시에 스토리지를 S3로 자동 확장합니다. RA3 노드는 기존의 모든 워크로드와 완벽하게 호환됩니다.
Amazon Redshift Update – Next-Generation Compute Instances and Managed, Analytics-Optimized Storage
2012 년 Amazon Redshift (Amazon Redshift – The New AWS Data Warehouse)를 시작했습니다.
수만 명의 고객을 보유하였고 현재 세계에서 가장 인기있는 데이터웨어 하우스입니다.
고객은 업계 최고의 가격 대비 성능으로 일관된 빠른 성능, 복잡한 쿼리 지원 및 트랜잭션 기능을 누릴 수 있습니다.
원래의 Redshift 모델은 컴퓨팅 성능과 스토리지 용량간에 상당히 견고한 결합을 설정합니다.
특정 수의 인스턴스로 클러스터를 생성하고 각 인스턴스와 함께 제공되는 로컬 스토리지의 양을 결정합니다(때때로 제한됨).
온 디맨드 동시성 스케일링으로 추가 컴퓨팅 성능에 액세스 할 수 있으며 Elastic Resize를 사용하여 몇 분 내에 클러스터를 확장 및 축소하여 변화하는 컴퓨팅 및 스토리지 요구에 적응할 수 있습니다.
우리는 더 잘할 수 있다고 생각합니다! 오늘 우리는 컴퓨팅 성능과 스토리지를 개별적으로 최적화 할 수 있는 새로운 관리형 스토리지 모델을 기반으로 Redshift 용 차세대 Nitro 기반 컴퓨팅 인스턴스를 출시합니다.
이 출시는 고대역폭 네트워킹, Amazon Simple Storage Service (S3)가 지원하는 로컬 SSD 기반 스토리지를 사용하는 관리 형 스토리지 및 S3과의 데이터 모션을 최적화하는 여러 고급 데이터 관리 기술을 포함하여 일부 아키텍처 개선을 활용합니다.
이러한 기능을 통해 Redshift는 다른 클라우드 데이터웨어하우스 서비스보다 3배 높은 성능을 제공 할 수 있으며, DS2(Dense Storage) 인스턴스를 사용하는 대부분의 기존 Amazon Redshift 고객은 동일한 비용으로 최대 2배 향상된 성능과 2배 더 많은 스토리지를 얻을 수 있습니다.
다른 많은 사용 사례 중에서도이 새로운 콤보는 운영 워크로드에 적합하며, 많은 워크로드가 데이터웨어 하우스에있는 데이터의 작은 하위 집합에 중점을 둡니다.
과거에는 고객이 스토리지 한도 내에 머무르기 위해 오래된 데이터를 다른 유형의 스토리지로 내려서 추가 복잡성을 초래하고 기록 데이터에 대한 쿼리를 매우 복잡하게 만들었습니다.
차세대 컴퓨팅 인스턴스
새로운 RA3 인스턴스는 새로운 관리 형 스토리지 모델과 함께 작동하도록 설계되었습니다.
ra3.16xlarge 인스턴스에는 vCPU 48 개, 384GiB 메모리 및 최대 64TB 스토리지가 있습니다.
2 ~ 128 개의 인스턴스로 클러스터를 생성하여 8PB 이상의 압축 스토리지를 제공합니다.
Advanced Query Accelerator (AQUA) for Amazon Redshift is now Available for Preview
https://pages.awscloud.com/AQUA_Preview.html
AQUA는 Redshift가 다른 클라우드 데이터웨어하우스보다 최대 10 배 빠르게 실행할 수있는 새로운 분산 및 하드웨어 가속 캐시입니다.
중앙 집중식 스토리지가있는 기존 데이터웨어 하우징 아키텍처는 처리를 위해 클러스터를 계산하기 위해 데이터를 이동해야 합니다.
향후 몇 년 동안 데이터웨어하우스가 계속 증가함에 따라이 모든 데이터를 이동하는 데 필요한 네트워크 대역폭은 쿼리 성능에 병목이 됩니다.
MSK
AWS re:Invent 2019: [REPEAT 1] Responding to customer needs in real time with Amazon MSK (ANT309-R1)
기업은 데이터 스트리밍 아키텍처를 활용하여 고객의 요구에 실시간으로 대응합니다.
이 세션에서는 Amazon MSK를 사용하여 실시간 애플리케이션 개발을 가속화 할 수있는 방법에 대해 설명합니다.
Adobe는 우리와 함께 Apache Kafka를 사용하여 수백 가지 서비스에 대해 매일 600 억 개가 넘는 메시지를 처리하는 방법을 공유합니다.
Adobe가 직면 한 과제와 한 번의 클릭으로 수십 개의 Kafka 클러스터 관리에서 완전히 관리되는 Amazon MSK 클러스터 배포로 이동하는 이유에 대해 알아 봅니다.
이 접근 방식이 메시지 라우팅, 고급 QoS 및 HTTP 클라이언트를 처리하면서 Kubernetes, Spinnaker 및 Terraform과 같은 오픈 소스 프레임 워크에 구축 된 여러 솔루션을 통합하는 방법을 들어보십시오.
EMR
What's New - Amazon EMR is now available in your data center with AWS Outposts
이제 Amazon EMR을 AWS Outposts에서 사용할 수 있으므로 데이터 센터에 Apache Spark 및 Apache Hive와 같은 오픈 소스 도구를 배포할 수 있습니다.
AWS Outposts에서 Amazon EMR을 사용하면 클라우드에서와 마찬가지로 온 프레미스 환경에서 Apache Hadoop, Apache Hive, Apache Spark 및 Presto 클러스터를 설정, 배포, 관리 및 확장할 수 있습니다.
AWS Outposts의 Amazon EMR은 비용 효율적인 용량을 제공하는 동시에 인프라 프로비저닝, 클러스터 설정, 구성 또는 조정과 같은 시간 소모적 인 관리 작업을 자동화하여 애플리케이션에 집중할 수 있습니다.
AWS Outposts는 AWS 인프라, AWS 서비스, API 및 도구를 거의 모든 데이터 센터, 코로케이션 공간 또는 온-프레미스 시설로 확장하여 일관된 하이브리드 경험을 제공하는 완전히 관리되는 서비스입니다.
Outposts에서 EMR을 사용하여 활용도가 높은 기간 동안 온-프레미스 처리 용량을 늘리고 관리, 규정 준수 또는 기타 이유로 온-프레미스 상태를 유지해야 하는 데이터를 처리할 수 있습니다.
AWS Outposts를 사용하면 클라우드에서 EMR 클러스터를 시작하는 데 사용된 것과 동일한 AWS Management Console, SDK 및 CLI를 사용하여 데이터 센터에서 EMR 클러스터를 시작할 수 있습니다.
클러스터를 시작할 때 전초 기지와 관련된 서브넷을 지정하기만 하면 됩니다. 전초 기지에서 실행되는 EMR 클러스터는 클라우드에서 실행되는 클러스터와 마찬가지로 EMR 콘솔에 나타납니다.
AWS re:Invent 2019: Insert, upsert, and delete data in Amazon S3 using Amazon EMR (ANT239)
Amazon S3에서 데이터 레이크를 구축하면 오픈 소스 데이터 형식에 대한 확장 성과 안정성을 제공하며 빅 데이터 분석 및 ML/AI 뿐만 아니라 보고 및 BI 모두에 대한 공통 데이터 저장소가 제공됩니다.
그러나 가장 일반적으로 사용되는 빅 데이터 프레임워크는 고객이 개별 레코드의 증분 변경을 처리하기 위해 대량의 데이터를 복원하도록 합니다.
Apache Hudi는 레코드를 작성, 업 세션 및 삭제하는 기능을 제공하며 변경 데이터 캡처 처리 및 실시간 스트림 처리를 단순화합니다.
이 세션에서는 Amazon EMR과 함께 Apache Hudi를 사용하고 기본 개념, 일반적인 시나리오 및 Hudi를 사용하여 워크 플로를 최적화하는 방법을 심층적으로 살펴 봅니다.
AWS re:Invent 2019: Migrating Apache Spark and Hive from on-premises to Amazon EMR (ANT327-R1)
이 세션에서는 Intuit 담당자가 Apache Hive 및 Spark에서 실행되는 회사의 분석, 데이터 처리 (ETL) 및 데이터 과학 워크로드를 Amazon EMR로 마이그레이션하여 비용을 줄이고 가용성을 높이고 성능을 개선하는 방법에 대해 들었습니다.
이 세션에서는 주요 동기와 클라우드로의 전환의 이점에 중점을두고 주요 아키텍처 변경 및 모범 사례에 대한 세부 정보를 제공합니다.
Amazon Elasticsearch Service
AWS re:Invent 2019: Intuit : Moving from monitoring to observability using Amazon ES (ANT330)
Intuit는 Amazon EC2 (Amazon Elastic Compute Cloud), 컨테이너 및 서버리스 애플리케이션을 포함하는 클라우드 호스팅 아키텍처로 전환함에 따라 애플리케이션의 상태를 모니터링하는 방식을 혁신하기위한“관찰”과정을 밟고 있습니다.
관찰을 위해서는 로그, 메트릭, 추적 등의 상관 관계가 필요합니다. 이는 시스템이 더욱 분산됨에 따라 복잡해집니다.
이 세션에서이 회사는 OpenTelemetry, Amazon Elasticsearch Service (Amazon ES), Amazon Kinesis 및 Jaeger와 같은 도구를 활용하여 관찰 솔루션을 구축하고 컨테이너에서 서버리스 애플리케이션에 이르기까지 플랫폼 전반에 대한 가시성을 제공함으로써 이 솔루션이 제공하는 이점에 대해 논의합니다.
또한 향후 몇 년 동안 관측 성이 어떻게 발전하고 있는지에 대해 논의합니다.
AWS re:Invent 2019: Simplifying and modernizing home search at Compass with Amazon ES (ANT207-R1)
Compass는 업계 최고의 소프트웨어를 활용하여 부동산 전문가가 주택을 찾고, 마케팅하고, 판매하는 데 도움이되는 검색 및 분석 도구를 구축함으로써 Real Estate를 변화시키고 있습니다.
이 세션에서 Compass 엔지니어는 회사 카탈로그의 모든 주택 (목록)을 소비자 및 Compass Real Estate 전문가가 검색 할 수있게 만드는 방법에 대해 논의합니다.
또한 검색 인프라를 확장한 방법과 Amazon Elasticsearch Service (Amazon ES)를 포함한 다른 AWS 구성 요소를 활용하여 완벽하고 확장 가능한 홈 검색 솔루션을 제공하는 방법에 대해서도 설명합니다.
Keynote with Andy Jassy - Elasticsearch Service
Announcing UltraWarm (Preview) for Amazon Elasticsearch Service
Amazon Elasticsearch Service를 위한 완전 관리형 저비용 웜 스토리지 계층인 UltraWarm을 발표하게 되어 기쁩니다.
이제 UltraWarm을 미리 볼 수 있으며 Amazon Elasticsearch Service에서 핫 웜 티어링을 제공하는 새로운 접근 방식을 사용하여 기존 옵션에 비해 거의 90%의 비용 절감으로 최대 900TB의 스토리지를 제공합니다.
UltraWarm은 Amazon Elasticsearch Service 환경을 완벽하게 확장하므로 익숙한 Kibana 인터페이스에서 핫 및 UltraWarm 데이터를 쿼리하고 시각화 할 수 있습니다.
UltraWarm 데이터는 현재 사용하는 것과 동일한 API 및 도구를 사용하여 쿼리 할 수 있으며, 휴지 및 비행 중 암호화, 통합 경고, SQL 쿼리 등과 같은 널리 사용되는 Amazon Elasticsearch Service 기능도 지원합니다.
Amazon Elasticsearch Service 고객에게 널리 사용되는 사례는 대량의 머신 생성 로그 데이터를 수집하고 증가시키는 것입니다.
그러나 이러한 고객은 더 많은이 데이터에 대해 실시간 분석을 수행하려고하므로 운영 및 보안 문제를 신속하게 해결하는 데 사용할 수 있습니다.
몇 달 또는 몇 년에 이르는 데이터의 저장 및 분석은 규모에 따라 막대한 비용이 소요되어 일부는 여러 분석 도구를 사용하게하는 반면, 일부는 단순히 귀중한 데이터를 삭제하고 통찰력을 잃어 버렸습니다.
Amazon Simple Storage Service (S3)가 지원하는 비용 효율적인 스토리지를 갖춘 UltraWarm은 이 문제를 해결하는 데 도움이되므로 고객은 분석을 위해 수년간의 데이터를 유지할 수 있습니다.
Retain more for less with UltraWarm for Amazon Elasticsearch Service
AWS Data Exchange
AWS re:Invent 2019: AWS Data Exchange: Find & subscribe to third-party data in the cloud (ANT238-R)
AWS Data Exchange를 사용하면 클라우드에서 타사 데이터를 쉽게 찾고 구독하고 사용할 수 있습니다.
이 세션에서는 AWS Data Exchange가 데이터 세트의 찾기, 라이센스 및 사용에 따른 마찰을 제거하는 방법을 살펴 봅니다.
데이터가 없으면 데이터를 라이센싱하고 분석을 강화하기 위해 필요한 곳으로 옮길 수 있습니다.
AWS Data Exchange를 사용하여 Amazon Athena 및 Amazon QuickSight와 같은 AWS 서비스로 내부 분석을 강화하는 방법을 배웁니다.
데이터 제공 업체의 경우 데이터 스토리지, 전송, 청구 및 적용을위한 인프라를 구축하고 유지 관리 할 필요가 없어져 AWS Data Exchange가 클라우드로 마이그레이션하는 수백만 고객에게 어떻게 쉽게 접근 할 수 있는지 알아보십시오.
AWS re:Invent 2019: Easily find & subscribe to third-party data in the cloud (ANT238-R1)
AWS Data Exchange를 사용하면 클라우드에서 타사 데이터를 쉽게 찾고 구독하고 사용할 수 있습니다.
이 세션에서는 AWS Data Exchange가 데이터 세트의 찾기, 라이센스 및 사용에 따른 마찰을 제거하는 방법을 살펴 봅니다.
데이터가 없으면 데이터를 라이센스하고 분석을 강화하기 위해 필요한 곳으로 옮길 수 있습니다.
AWS Data Exchange를 사용하여 Amazon Athena 및 Amazon QuickSight와 같은 AWS 서비스로 내부 분석을 강화하는 방법을 배웁니다.
데이터 제공 업체의 경우 데이터 스토리지, 전송, 청구 및 적용을위한 인프라를 구축하고 유지 관리 할 필요가 없어져 AWS Data Exchange가 클라우드로 마이그레이션하는 수백만 고객에게 어떻게 쉽게 접근 할 수 있는지 알아보십시오.