반응형

Amazon SAA-C03 Dump 문제풀이 (Q1~Q5)

반응형

 

Q1

A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection. The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity. Which solution meets these requirements?

 

A.

Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.

 

B.

Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.

 

C.

Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.

 

D.

Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.

 

번역

 

한 회사는 여러 대륙의 도시들에서 온도, 습도 및 대기압 데이터를 수집하고 있습니다. 이 회사는 각 사이트에서 매일 평균 500GB의 데이터를 수집합니다. 각 사이트에는 고속 인터넷 연결이 있습니다. 회사는 이러한 글로벌 사이트의 데이터를 가능한 한 빨리 단일 Amazon S3 버킷에 집계하고자 합니다. 이 솔루션은 운영 복잡성을 최소화해야 합니다. 이 요구 사항을 충족하는 솔루션은 무엇입니까?

 

A.

대상 S3 버킷에서 S3 전송 가속(S3 Transfer Acceleration)을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷으로 직접 업로드합니다.

 

B.

각 사이트의 데이터를 가장 가까운 지역(Region)의 S3 버킷에 업로드합니다. S3 교차 지역 복제(S3 Cross-Region Replication)를 사용하여 객체를 대상 S3 버킷으로 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.

 

C.

매일 AWS Snowball Edge Storage Optimized 장비 작업을 예약하여 각 사이트의 데이터를 가장 가까운 지역으로 전송합니다. S3 교차 지역 복제를 사용하여 객체를 대상 S3 버킷으로 복사합니다.

 

D.

각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. 데이터를 Amazon Elastic Block Store (Amazon EBS) 볼륨에 저장합니다. 정기적으로 EBS 스냅샷을 찍고 이를 대상 S3 버킷이 있는 지역으로 복사합니다. 그 지역에서 EBS 볼륨을 복원합니다.

 

더보기

문제풀이

 

요구사항 : 글로벌 사이트에서 수집된 데이터를 가능한 한 빠르게 단일 S3 버킷으로 집계하는 것 해당 과정에서 운영 복잡성을 최소화 하는 것

 

A

  • S3 Transfer Acceleration은 글로벌 사이트에서 S3 버킷으로 데이터를 빠르게 전송하는데 도움
  • 멀티파트 업로드 (multipart upload)는 대용량 파일을 효율적으로 업로드 하는 방법

→ 설정이 간단하며 운영 복잡성이 낮아서 가장 적합

 

B

  • 데이터를 각 사이트에 가장 가까운 지역으로 업로드
    → Cross-Region Replication 사용하여 대상 버킷으로 복사하는 방법
  • 두번의 업로드 과정이 필요
  • 운영 복잡성이 높아짐

C

  • Snowball Edge Storage Optimized 장치를 사용하여 데이터를 전송하는 방법
  • 일반적으로 대용량에 유리하지만, 매일작업예약/관리 필요하여 운영 복잡성 증가

D

  • EC2 인스턴스와 EBS 사용하여 데이터를 전송 후 스냅샷 복사
  • 여러 단계의 작업이 필요하여 운영 복잡성이 상당히 높아짐

정답 : A
S3 Transfer Accerleration 을 사용하여 글로벌 사이트에서 데이터를 빠르게 전송, 멀티파트 업로드로 대용량 데이터 효율적으로 업로드 운영복잡성을 최소하하며 요구사항을 충족함

 


Q2

A company needs the ability to analyze the log files of its proprietary application. The logs are stored in JSON format in an Amazon S3 bucket. Queries will be simple and will run on-demand. A solutions architect needs to perform the analysis with minimal changes to the existing architecture.

What should the solutions architect do to meet these requirements with the LEAST amount of operational overhead?

 

A. 
Use Amazon Redshift to load all the content into one plce and run the SQL queries as needed.

 

B. 
Use Amazon CloudWatch Logs to store the logs. Run SQL queries as needed from the Amazon CloudWatch console.

 

C. 
Use Amazon Athena directly with Amazon S3 to run the queries as needed.

 

D. 
Use AWS Glue to catalog the logs. Use a transient Apache Spark cluster on Amazon EMR to run the SQL queries as needed.

 

번역

 

한 회사는 자체 애플리케이션의 로그 파일을 분석할 수 있는 능력이 필요합니다. 이 로그는 json 형식으로 Amazon S3 버킷에 저장되어있습니다. 쿼리는 간단하며 필요에 따라 실행 될 예정입니다. 솔루션 아키텍트는 기존 아키텍처에 최소한의 변경을 가하면서 분석을 수행해야합니다.

이 요구사항을 충족하면서 운영 오버헤드를 최소화 하려면 솔루션 아키텍트가 무엇을 해야합니까?

 

A.
Redshift를 사용하여 모든 내용을 한 곳에 로드하고, 필요에따라 SQL 쿼리를 실행한다.

 

B.
CloudWatch 사용하여 로그를 저장합니다. 필요에따라 CloudWatch 콘솔에서 SQL 쿼리를 실행합니다.

 

C.
Athena 를 사용하여 S3와 직접적으로 쿼리를 실행합니다.

 

D.
Glue를 사용하여 로그를 카탈로그화 합니다. EMR의 일시적인 Apache Spark 클러스터를 사용하여 필요에따라 SQL 쿼리를 실행합니다.

 

더보기

문제풀이

 

요구사항

  • S3에 저장된 JSON 형식의 로그파일을 간단하게 분석 할 수 있는 방법을 찾는 것
  • 작업 수행시 운영 오버헤드 최소화

A.

  • Redshift는 대규모 데이터 분석을 위한 데이터 웨어하우스 서비스
  • (단점) 모든 데이터를 Redshift로 로드해야함 이로인해 설정과 관리에 있어 상당한 오버헤드 초래

B.

  • Cloudwatch Logs는 로그를 저장하고 모니터링하는데 유용
  • 쿼리 실행을 위해 CloudWatch에 먼저 로드가 필요함
  • JSON 로그 분석을 위한 SQL 쿼리 기능이 CloudWatch 에서 제한적임

C.

  • Athena는 S3에 직접 쿼리를 실행할 수 있는 서비스
  • JSON 데이터 분석 가능, 추가적인 데이터 이동/설정 불필요 ➔ 운영 오버헤드 매우 낮음
  • 기존 아키텍처에 최소한의 변경으로 요구사항 충족

D.

  • Glue와 EMR 사용하면 복잡한 데이터 처리 및 분석 가능
  • 설정과 관리가 복잡해지고 운영 오버헤드 증가
정답 : C
Athena 를 사용하여 S3에 저장된 JSON 로그파일에 직접 쿼리를 실행하여 추가적인 설정 및 데이터 이동이 필요없어 운영 오버헤드를 최소화 할 수 있습니다.

 

 


Q3

A company uses AWS Organizations to manage multiple AWS accounts for different departments. The management account has an Amazon S3 bucket that contains project reports. The company wants to limit access to this S3 bucket to only users of accounts within the organization in AWS Organizations.

Which solution meets these requirements with the LEAST amount of operational overhead?

 

A. 

Add the aws PrincipalOrgID global condition key with a reference to the organization ID to the S3 bucket policy.

 

B. 

Create an organizational unit (OU) for each department. Add the aws:PrincipalOrgPaths global condition key to the S3 bucket policy.

 

C. 

Use AWS CloudTrail to monitor the CreateAccount, InviteAccountToOrganization, LeaveOrganization, and RemoveAccountFromOrganization events. Update the S3 bucket policy accordingly.

 

D. 

Tag each user that needs access to the S3 bucket. Add the aws:PrincipalTag global condition key to the S3 bucket policy.

 

번역

 

한 회사는 AWS Organizations를 사용하여 여러 AWS 계정을 다른 부서에서 관리하고 있습니다. 관리 계정에는 프로젝트 보고서를 포함하는 AWS S3 버킷이 있습니다. 이 회사는 S3 버킷에 대한 접근을 AWS Organizations 내의 계정 사용자들로 제한하고자 합니다.

이 요구사항을 운영 오버헤드를 최소화하면서 충족할 수 있는 솔루션은 무엇입니까?

 

A.

S3 버킷 정책에 조직 ID를 참조하는 ‘aws.principalOrgID’ 글로벌 조건 키를 추가합니다.

 

B.

각 부서를 위한 조직 단위 (OU)를 생성합니다. S3 버킷 정책에 ‘aws:PrincipalOrgPaths’ 글로벌 조건 키를 추가합니다.

 

C.

AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization, 그리고 RemoveAccountFromOrganization 이벤트를 모니터링 합니다. 이에 따라 S3 버킷 정책을 업데이트 합니다.

 

D.

S3 버킷에 접근이 필요한 각 사용자에게 태그를 추가합니다. S3 버킷 정책에 ‘aws:PrincipalTag’ 글로벌 조건 키를 추가합니다.

 

 

더보기

문제풀이

 

요구사항

  • AWS Organizations 내의 계정 사용자만이 S3 버킷에 접근 할 수 있도록 제한
  • 운영 오버헤드 최소화

A.

  • ‘aws:PrincipalOrgID’ 조건 키를 S3 버킷 정책에 추가하면 AWS Organizations 내의 계정들에 대한 접근을 간단하게 제한 할 수 있음
  • 설정이 간단하고 유지 관리가 거의 필요하지 않기 때문에 운영 오버헤드가 낮음

B.

  • ‘aws:PrincipalOrgPaths’ 조건 키는 조직 단위(OU) 경로를 기반으로 접근 제어
  • 각 부서를 위한 OU를 생성하고 관리하는 것은 추가적인 관리작업이 필요
  • 운영 오버헤드가 높아질 수 있음

C.

  • AWS CloudTrail을 사용하여 계정 관련 이벤트 모니터링
  • 그에 따라 S3 버킷 정책 업데이트 하는것은 매우 복잡
  • 지속적인 모니터링과 관리가 필요
  • 운영 오버헤드가 크게 증가 할 수 있음

D.

  • 각 사용자에게 태그를 추가, 이를 기반으로 접근을 제어하는 방법은 태그관리에 추가적인 작업 필요
  • 운영 오버헤드가 증가 할 수 있음

정답 : A
’aws:PrincipalOrgID’ 조건 키를 사용하면 Organizations 내 계정들만 S3 버킷에 접근 하도록 쉽게 제한 가능


Q4

An application runs on an Amazon EC2 instance in a VPC. The application processes logs that are stored in an Amazon S3 bucket. The EC2 instance needs to access the S3 bucket without connectivity to the internet.

Which solution will provide private network connectivity to Amazon S3?

 

A. 

Create a gateway VPC endpoint to the S3 bucket.

 

B. 

Stream the logs to Amazon CloudWatch Logs. Export the logs to the S3 bucket.

 

C. 

Create an instance profile on Amazon EC2 to allow S3 access.

 

D. 

Create an Amazon API Gateway API with a private link to access the S3 endpoint.

 

 

번역

 

VPC내 EC2 인스턴스에서 애플리케이션이 실행됩니다. 그 애플리케이션은 S3버킷 안에 저장된 로그들을 처리합니다. EC2 인스턴스는 인터넷 연결없이 S3 버킷에 접근해야합니다.

S3에 대한 프라이빗 네트워크 연결을 제공할 솔루션은 무엇입니까?

 

A. S3버킷에 VPC 엔드포인트 게이트웨이를 생성합니다.

 

B. 로그들을 CloudWatch Logs로 스트리밍하고, S3버킷으로 로그들을 내보냅니다.

 

C. EC2에서 S3 접근을 허용하는 인스턴스 프로파일을 생성합니다.

 

D. S3 엔드포인트에 접근하기위해 프라이빗 링크가 포함된 Amazon API gateway API를 생성합니다.

 

 

더보기

문제풀이

 

요구사항

  • 인터넷 연결없이 VPC내 EC2 인스턴스가 S3 버킷에 접근 할 수 있는 방법을 찾는 것

 

A.

  • 게이트웨이 VPC 엔드포인트는 VPC 내 리소스가 인터넷이 아닌 프라이빗 네트워크를 통해 직접 S3에 접근할 수 있게 합니다.
  • 해당 방법은 인터넷이 필요하지 않음. 요구사항에 정확히 부합

B.

  • 로그를 CloudWatch Logs 로 스트리밍하고, S3 로 내보내는 것은 S3에 대한 접근성을 직접 해결하지 못함
  • 이 방법은 추가적인 서비스 사용과 설정이 필요하여 문제의 요구 사항과는 맞지 않음

C.

  • 인스턴스 프로파일을 사용하여 EC2 인스턴스에 S3 접근할 권한을 부여
  • 이것만으로는 인터넷 연결 없이 S3 접근이 불가능
  • 이 옵션은 요구 사항을 충족하지 않음

D.

  • API Gateway 를 통해 S3 접근하는 방법은 가능
  • 이 방법은 설정이 복잡, 운영 오버헤드가 높음
  • 굳이 API Gateway를 사용할 필요가 없음
  • 최적의 솔루션이 아님

정답 : A

 


Q5

A company is hosting a web application on AWS using a single Amazon EC2 instance that stores user-uploaded documents in an Amazon EBS volume. For better scalability and availability, the company duplicated the architecture and created a second EC2 instance and EBS volume in another Availability Zone, placing both behind an Application Load Balancer. After completing this change, users reported that, each time they refreshed the website, they could see one subset of their documents or the other, but never all of the documents at the same time.

What should a solutions architect propose to ensure users see all of their documents at once?

 

A. 

Copy the data so both EBS volumes contain all the documents

 

B. 

Configure the Application Load Balancer to direct a user to the server with the documents

 

C. 

Copy the data from both EBS volumes to Amazon EFS. Modify the application to save new documents to Amazon EFS

 

D. 

Configure the Application Load Balancer to send the request to both servers. Return each document from the correct server

 

번역

 

한 회사가 AWS에서 웹 애플리케이션을 호스팅 하고 있으며, Amazon EC2 인스턴스를 사용하여 업로드 문서를 Amazon EBS 볼륨에 저장하고 있습니다.

더 나은 확장성과 가용성을 위해 회사는 아키텍처를 복제하여 다른 가용 영역(Availability Zone)에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하고, 두 인스턴스를 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자들은 웹 사이트를 새로고침할 때마다 문서의 일부만 보이거나 다른 부분만 보이지미나, 한 번에 모든 문서를 볼 수 없다고 보고했습니다.

솔루션 아키텍트는 사용가자 한 번에 모든 문서를 볼 수 있도록 하기 위해 어떤 제안을 해야 합니까?

 

A. 데이터를 복사하여 두 EBS 볼륨이 모든 문서를 포함하도록 합니다.

 

B. Application Load Balancer 를 구성하여 사용자를 문서가 있는 서버로 안내하는 것은 사용자가 계속해서 한 서버에만 연결되어야 함을 의미하는데, 이는 문제가 완전히 해결되지 않으며 로드 밸런싱의 목적에 맞지 않습니다.

 

C. Amazon EFS (Elastic File System)를 사용하면 두 EC2 인스턴스가 동일한 파일 시스템을 공유할 수 있습니다. 따라서 모든 문서가 하나의 중앙 저장소에 저장되어 두 서버에서 동일한 데이터를 접근할 수 있습니다. 이는 문제를 효과적으로 해결할 수 있는 방법입니다.

 

D. Application Load Balancer 를 구성하여 요청을 두 서버로 보내고 각 서버에서 올바른 문서를 반환하는 것은 매우 복잡하며, 데이터의 일관성을 보장하기 어렵습니다.

 

더보기

문제풀이

 

문제의 핵심 : 두 개의 EC2 인스턴스가 서로 다른 볼륨을 사용하고 있으며, 각 EBS 볼륨에 저장된 문서가 서로 다르기 때문에 사용자들이 모든 문서를 한 번에 볼 수 없다는 점

해결방안 : 두 서버가 동일한 데이터를 공유할 수 있도록 해야 함

 

A.

  • 데이터를 복사하여 EBS 볼륨이 모든 문서를 포함하도록 하는 방법
  • 유지관리, 확장성 측면에서 비효율적
  • 각 인스턴스에서 별도로 데이터를 관리해야하기때문에 문제 해결 안 됨.

B.

  • Application Load Balancer를 구성하여 사용자를 문서가 있는 서버로 안내하는 것 → 사용자가 계속해서 한 서버에만 연결되어야 함
  • 문제가 완전히 해결되지 않으며, 로드 밸런싱의 목적에 부합함

C.

  • Amazon EFS (Elastic File System)를 사용하면 두 EC2 인스턴스가 동일한 파일시스템을 공유
  • 모든 문서가 하나의 중앙 저장소에 저장되어 두 서버에서 동일한 데이터에 접근 가능
  • 해당 문제를 효과적으로 해결 할 수 있는 방법

D.

  • Application Load Balancer를 구성하여 요청을 두 서버로 보내고, 각 서버에서 올바른 문서를 반환하는 것 = 매우 복잡, 데이터의 일관성 보장하기 어려움

정답 : C
Amazon EFS (Elastic File System) 으로 동일한 파일 시스템을 공유하여 동일한 데이터를 제공

 

 

반응형

이 글을 공유하기

댓글

Designed by JB FACTORY