본문 바로가기
Etc/AWS

[AWS] [Q21~Q40]DVA-C01 AWS Certified Developer Associate

by 오이가지아빠 2022. 6. 17.
한글 번역은 파파고 번역이기 때문에 어색할 수 있습니다.
단어 하나하나 보다는 맥락을 이해하시면 도움이 될 것 같습니다.

 

Q.21

Amazon DynamoDB is used by a corporation to manage and track orders. The order date is used to split the DynamoDB table. During a sales event, the company receives a large spike in orders, forcing DynamoDB writes to choke, and the used throughput is considerably lower than the permitted throughput.
How can this issue be rectified with MINIMAL expenses, according to AWS best practices?

  • A. Create a new DynamoDB table for every order date.
  • B. Increase the read and write capacity units of the DynamoDB table.
  • C. Add a random number suffix to the partition key values.
  • D. Add a global secondary index to the DynamoDB table.

Amazon DynamoDB는 주문을 관리하고 추적하는 데 사용됩니다. 주문 날짜는 DynamoDB 테이블을 분할하는 데 사용됩니다. 판매 이벤트 동안 이 회사는 큰 주문 스파이크를 받아 DynamoDB 쓰기가 강제로 중단되고, 사용된 처리량은 허용된 처리량보다 상당히 낮습니다.
AWS 모범 사례에 따라 최소 비용으로 이 문제를 해결할 수 있는 방법은 무엇입니까?

  • A. 모든 주문 날짜에 대해 새 DynamoDB 테이블을 만듭니다.
  • B. DynamoDB 테이블의 읽기 및 쓰기 용량 단위를 늘립니다.
  • C. 파티션 키 값에 임의의 숫자 접미사를 추가합니다.
  • D. DynamoDB 테이블에 글로벌 보조 인덱스를 추가합니다.
Amazon DynamoDB의 파티션 키 공간에 더 효과적으로 쓰기 작업을 배포하는 방법 중 하나는 공간 확장입니다.
여러 파티션 키 공간에 로드를 더 골고루 배포할 수 있는 전략 중 하나는 파티션 키 값 끝에 난수(임의의 수)를 추가하는 것입니다. 그러면 더 큰 공간으로 쓰기를 무작위화 할 수 있습니다.

효과적으로 파티션 키를 설계해 사용하는 모범 사례 - Amazon DynamoDB

 

효과적으로 파티션 키를 설계해 사용하는 모범 사례 - Amazon DynamoDB

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.22

An Amazon S3 bucket is used to host a static website. JavaScript is used on many HTML pages on the site to retrieve photos from another Amazon S3 bucket. When people explore the site, certain photos are not shown.

What may be the underlying source of the problem?

  • A. The referenced Amazon S3 bucket is in another region.
  • B. The images must be stored in the same Amazon S3 bucket.
  • C. Port 80 must be opened on the security group in which the Amazon S3 bucket is located.
  • D. Cross Origin Resource Sharing must be enabled on the Amazon S3 bucket.

Amazon S3 버킷은 정적 웹 사이트를 호스팅하는 데 사용됩니다. 자바스크립트는 다른 아마존 S3 버킷에서 사진을 검색하기 위해 사이트의 많은 HTML 페이지에 사용된다. 사람들이 그 사이트를 탐험할 때, 특정 사진들은 보여지지 않는다.

그 문제의 근본적인 원인은 무엇일까요?

  • A. 참조된 Amazon S3 버킷이 다른 영역에 있습니다.
  • B. 이미지는 동일한 Amazon S3 버킷에 저장되어야 합니다.
  • C. Amazon S3 버킷이 있는 Security Group에서 포트 80을 열어야 합니다.
  • D. Amazon S3 버킷에서 오리진 간 리소스 공유를 사용하도록 설정해야 합니다.
CORS는 헤더를 사용하여 브라우저가 웹 서버가 다른 출처에서 요청한 콘텐츠를 표시하도록 허용하는 HTTP 기능입니다.
교차 오리진 요청을 허용하도록 버킷을 구성하려면 해당 버킷에 CORS 구성을 추가합니다.

교차 오리진 리소스 공유(CORS) 구성 - Amazon Simple Storage Service

 

교차 오리진 리소스 공유(CORS) 구성 - Amazon Simple Storage Service

교차 오리진 리소스 공유(CORS) 구성 CORS(Cross-origin 리소스 공유)는 한 도메인에서 로드되어 다른 도메인에 있는 리소스와 상호 작용하는 클라이언트 웹 애플리케이션에 대한 방법을 정의합니다. C

docs.aws.amazon.com

Amazon S3에서 CORS 구성 및 확인

 

Amazon S3에서 CORS 구성 및 확인

CORS는 헤더를 사용하여 브라우저가 웹 서버가 다른 출처에서 요청한 콘텐츠를 표시하도록 허용하는 HTTP 기능입니다. CORS 규칙으로 정의되지 않은 Amazon S3 버킷에 교차 오리진 요청을 하면, CORS 헤

aws.amazon.com


Q.23

Amazon Elastic Container Service is used to deploy a microservices application across several containers (Amazon ECS). A developer want to collect trace information across microservices and view the microservices architecture in order to optimize performance.

Which solution will satisfy these criteria?

  • A. Build the container from the amazon/aws-xray-daemon base image. Use the AWS X-Ray SDK to instrument the application.
  • B. Install the Amazon CloudWatch agent on the container image. Use the CloudWatch SDK to publish custom metrics from each of the microservices.
  • C. Install the AWS X-Ray daemon on each of the ECS instances.
  • D. Configure AWS CloudTrail data events to capture the traffic between the microservices.

Amazon Elastic Container Service(Amazon ECS)는 여러 컨테이너에 걸쳐 마이크로 서비스 애플리케이션을 배포하는 데 사용됩니다. 한 개발자는 성능을 최적화하기 위해 마이크로 서비스 전반에서 추적 정보를 수집하고 마이크로 서비스 아키텍처를 확인하려고 합니다.

어떤 솔루션이 이러한 기준을 충족할 것인가?

  • A. amazon/aws-xray-daemon 기본 이미지로 컨테이너를 작성합니다. AWS X-Ray SDK를 사용하여 애플리케이션을 계측합니다.
  • B. 컨테이너 이미지에 Amazon CloudWatch 에이전트를 설치합니다. CloudWatch SDK를 사용하여 각 마이크로 서비스의 사용자 지정 메트릭을 게시합니다.
  • C. 각 ECS 인스턴스에 AWS X-Ray 데몬을 설치합니다.
  • D. 마이크로 서비스 간의 트래픽을 캡처하도록 AWS CloudTrail 데이터 이벤트를 구성합니다.
Amazon ECS에서 X-Ray 데몬을 실행하는 도커 이미지를 생성하여 도커 이미지 리포지토리에 업로드한 다음 Amazon ECS 클러스터에 배포합니다. 작업 정의 파일의 포트 매핑 및 네트워크 모드 설정을 사용하여 애플리케이션이 데몬 컨테이너와 통신하도록 할 수 있습니다.
X-Ray는 애플리케이션과 함께 배포할 수 있는 도커 컨테이너 이미지를 제공합니다.

Amazon ECS에서 X-Ray 데몬 실행 - AWS X-Ray

 

Amazon ECS에서 X-Ray 데몬 실행 - AWS X-Ray

데비안 파생물의 경우 설치 프로그램을 다운로드할 때 문제가 발생하지 않도록 CA (인증 기관) 인증서를 설치해야 합니다. FROM ubuntu:16.04 RUN apt-get update && apt-get install -y --force-yes --no-install-recommends

docs.aws.amazon.com


Q.24

Each hour, a business must consume terabytes of data from hundreds of sources, which arrive practically continuously throughout the day. The quantity of texts produced changes during the day. For fraud detection and live operating dashboards, messages must be sent in real time.

Which strategy will satisfy these criteria?

  • A. Send the messages to an Amazon SQS queue, then process the messages by using a fleet of Amazon EC2 instances
  • B. Use the Amazon S3 API to write messages to an S3 bucket, then process the messages by using Amazon Redshift
  • C. Use AWS Data Pipeline to automate the movement and transformation of data
  • D. Use Amazon Kinesis Data Streams with Kinesis Client Library to ingest and deliver messages

기업은 매 시간 수백 개의 소스에서 테라바이트의 데이터를 소비해야 하며, 이러한 데이터는 사실상 하루 종일 지속적으로 공급됩니다. 하루 동안 생성되는 텍스트의 양이 변경됩니다. 부정 행위 탐지 및 실시간 운영 대시보드를 위해 메시지를 실시간으로 전송해야 합니다.

어떤 전략이 이러한 기준을 충족할 것인가?

  • A. 메시지를 Amazon SQS 대기열로 보낸 다음 Amazon EC2 인스턴스 집합을 사용하여 메시지를 처리합니다.
  • B. Amazon S3 API를 사용하여 S3 버킷에 메시지를 작성한 다음 Amazon Redshift를 사용하여 메시지를 처리합니다.
  • C. AWS 데이터 파이프라인을 사용하여 데이터 이동 및 변환 자동화
  • D. Kinesis 클라이언트 라이브러리와 함께 Amazon Kinesis 데이터 스트림을 사용하여 메시지 수집 및 배달
실시간 지표 및 데이터분석을 위해 Kinesis Data Streams 를 사용할 수 있습니다.
AWS에 가입한 후 AWS 관리 콘솔 또는 CreateStream 작업을 통해 Kinesis 데이터 스트림을 생성하여 Kinesis Data Streams 사용을 시작할 수 있습니다. 그 후 데이터 스트림에 지속적으로 데이터를 추가하도록 데이터 생산자를 구성합니다. 선택적으로 AWS 서비스의 기존 리소스에서 데이터를 보낼 수 있습니다. 

관리형 스트리밍 데이터 서비스 - Amazon Kinesis Data Streams FAQ - Amazon Web Services

 

관리형 스트리밍 데이터 서비스 - Amazon Kinesis Data Streams FAQ - Amazon Web Services

 

aws.amazon.com


Q.25

A business processes papers that arrive through an Amazon S3 bucket. Through a web user interface, users may upload documents to an S3 bucket. When files are received in S3, an AWS Lambda function is executed to handle them, however the Lambda function periodically times out.

What happens to the S3 event if the Lambda function is setup with the default settings?

  • A. Notification of a failed S3 event is send as an email through Amazon SNS.
  • B. The S3 event is sent to the default Dead Letter Queue.
  • C. The S3 event is processed until it is successful.
  • D. The S3 event is discarded after the event is retried twice.

회사는 아마존 S3 버킷을 통해 도착한 서류를 처리합니다. 웹 사용자 인터페이스를 통해 사용자는 S3 버킷에 문서를 업로드할 수 있습니다. S3에서 파일을 수신하면 AWS Lambda 함수가 실행되어 파일을 처리하지만, Lambda 함수는 주기적으로 시간 초과됩니다.

람다 기능이 기본 설정으로 설정된 경우 S3 이벤트는 어떻게 됩니까?

  • A. S3 이벤트 실패 알림이 아마존 SNS를 통해 이메일로 전송됩니다.
  • B. S3 이벤트는 기본 배달 오류 대기열로 전송됩니다.
  • C. S3 이벤트는 성공할 때까지 처리됩니다.
  • D. S3 이벤트는 이벤트가 두 번 재시도된 후 삭제됩니다.
Lambda는 함수의 비동기 이벤트 대기열을 관리하고 오류를 다시 시도합니다. 함수가 오류를 반환하면 Lambda는 함수를 두 번 더 실행하려 합니다.
이벤트가 만료되거나 모든 처리 시도에 실패하면 Lambda는 이벤트를 삭제합니다. 

비동기식 호출 - AWS Lambda

 

비동기식 호출 - AWS Lambda

비동기식 호출 Amazon Simple Storage Service(Amazon S3), Amazon Simple Notification Service(Amazon SNS)와 같은 여러 AWS 서비스가 함수를 비동기적으로 호출하여 이벤트를 처리합니다. 비동기적으로 함수를 호출하면

docs.aws.amazon.com


Q.26

On AWS Elastic Beanstalk, a gaming firm has created a web portal. Occasionally, the organization must deliver new versions three or four times every day.
The organization must rapidly roll out new features to all users. The solution's performance effect must be kept to a minimum and its availability must be maximized.

Which solution will satisfy these criteria?

  • A. Use a rolling deployment policy to deploy to Amazon EC2 instances.
  • B. Use an immutable deployment policy to deploy to Amazon EC2 instances.
  • C. Use an all-at-once deployment policy to deploy to Amazon EC2 instances.
  • D. Use a canary deployment strategy to deploy changes to Amazon EC2 instances.

AWS Elastic Beanstalk에서 한 게임 회사가 웹 포털을 만들었습니다. 때때로 조직은 매일 서너 번씩 새로운 버전을 제공해야 합니다.
조직은 모든 사용자에게 새로운 기능을 신속하게 제공해야 합니다. 솔루션의 성능 효과를 최소화하고 가용성을 극대화해야 합니다.

어떤 솔루션이 이러한 기준을 충족할 것인가?

  • A. 롤링 배포 정책을 사용하여 Amazon EC2 인스턴스에 배포합니다.
  • B. 불변 배포 정책을 사용하여 Amazon EC2 인스턴스에 배포합니다.
  • C. 일괄 배포 정책을 사용하여 Amazon EC2 인스턴스에 배포합니다.
  • D. Canary 배포 전략을 사용하여 Amazon EC2 인스턴스에 변경 사항을 배포합니다.
"모든 사용자에게 신속하게" 가 핵심입니다.
롤링 정책은 모든 사용자에게 즉각적인 가용성을 보장하지는 않습니다.
불변 업데이트는 롤링 업데이트의 대안입니다. 불변 배포 정책을 통해 인스턴스 교체가 필요한 구성 변경이 효율적이고 안전하게 적용됩니다.

정책 및 설정 배포 - AWS Elastic Beanstalk

 

정책 및 설정 배포 - AWS Elastic Beanstalk

정책 및 설정 배포 AWS Elastic Beanstalk는 배포가 처리되는 방법에 대한 여러 옵션을 제공합니다. 그 중에는 배포 정책(한 번에 모두, 롤링, 추가 배치를 사용한 롤링, 변경 불가능, 트래픽 분할)과 배

docs.aws.amazon.com


Q.27

A considerable amount of read capacity is being used by queries to an Amazon DynamoDB database. There are a high number of huge characteristics in the table. The program does not need the whole set of attribute data.

How may DynamoDB expenses be lowered while application performance be maximized?

  • A. Batch all the writes, and perform the write operations when no or few reads are being performed.
  • B. Create a global secondary index with a minimum set of projected attributes.
  • C. Implement exponential backoffs in the application.
  • D. Load balance the reads to the table using an Application Load Balancer.

Amazon DynamoDB 데이터베이스에 대한 쿼리에서 상당한 양의 읽기 용량이 사용되고 있습니다. 테이블에는 많은 수의 거대한 특성들이 있다. 이 프로그램에는 전체 속성 데이터 집합이 필요하지 않습니다.

애플리케이션 성능을 극대화하면서 DynamoDB 비용을 어떻게 절감할 수 있습니까?

  • A. 모든 쓰기를 일괄 처리하고 읽기가 전혀 수행되지 않을 때 쓰기 작업을 수행합니다.
  • B. 최소한의 프로젝션 속성 집합으로 글로벌 보조 인덱스를 만듭니다.
  • C. 응용 프로그램에서 지수 백오프를 구현합니다.
  • D. 애플리케이션 로드 밸런서를 사용하여 테이블에 대한 읽기의 로드 밸런싱을 수행합니다.
키가 아닌 속성에 대한 쿼리 속도를 높이기 위해 글로벌 보조 인덱스를 만들 수 있습니다. 글로벌 보조 인덱스는 기본 테이블의 속성 중 일부를 포함하지만 테이블과 다른 기본 키를 기준으로 구성됩니다. 인덱스 키는 테이블의 키 속성을 가져야 할 필요가 없습니다.

DynamoDB에서 글로벌 보조 인덱스 사용 - Amazon DynamoDB

 

DynamoDB에서 글로벌 보조 인덱스 사용 - Amazon DynamoDB

잠재적 조절을 피하기 위해서 글로벌 보조 인덱스용 프로비저닝된 쓰기 용량은 새로운 업데이트로 기본 테이블과 글로벌 보조 인덱스가 모두 쓰여지기 때문에 기본 테이블의 쓰기 용량 이상이

docs.aws.amazon.com


Q.28

Data is stored in an S3 bucket by an application operating on EC2 instances. All data must be encrypted in transit, according to security rules.

How can the developer encrypt all traffic to the S3 bucket?

  • A. Install certificates on the EC2 instances.
  • B. Create a bucket policy that allows traffic where SecureTransport is true.
  • C. Create an HTTPS redirect on the EC2 instances.
  • D. Create a bucket policy that denies traffic where SecureTransport is false.

데이터는 EC2 인스턴스에서 작동하는 응용 프로그램에 의해 S3 버킷에 저장됩니다. 모든 데이터는 보안 규칙에 따라 전송 중에 암호화되어야 합니다.

개발자는 어떻게 S3 버킷에 대한 모든 트래픽을 암호화할 수 있습니까?

  • A. EC2 인스턴스에 인증서를 설치합니다.
  • B. SecureTransport가 true인 트래픽을 허용하는 버킷 정책을 만듭니다.
  • C. EC2 인스턴스에서 HTTPS 리디렉션을 생성합니다.
  • D. SecureTransport가 false인 트래픽을 거부하는 버킷 정책을 만듭니다.
Amazon S3는 전송 중 암호화와 유휴 시 암호화를 제공합니다. 전송 중 암호화는 HTTPS를 나타냅니다.
s3-bucket-ssl-requests-only 규칙을 준수하려면 요청이 "aws: SecureTransport": "false" 조건을 충족할 때 액세스를 명시적으로 거부하는 버킷 정책을 생성합니다.

s3-bucket-ssl-requests-only에 대한 S3 버킷 정책 생성

 

s3-bucket-ssl-requests-only에 대한 S3 버킷 정책 생성

반면에 다음 버킷 정책은 규칙을 준수하지 않습니다. 이 정책은 명시적 거부문을 사용하는 대신 "aws: SecureTransport": "true" 조건을 충족하는 요청에 대한 액세스를 허용합니다. 이 문은 요청에 HTTPS

aws.amazon.com


Q.29

A corporation is employing an Amazon CloudFront distribution to provide private media content from Amazon S3. A developer must use the signed URL to encrypt the media content.

What should the developer do to comply with this stipulation?

  • A. Use an access Key and a secret access key to generate an S3 presigned URL. Replace the S3 hostname with a CloudFront distribution name in the URL.
  • B. Create an SSH-2 RSA key pair. Upload the public key to CloudFront, and assign the public key to a trusted signer. Use a public key and key ID to sign the CloudFront URL.
  • C. Create an SSH-2 DSA key pair. Upload the public key to CloudFront, and assign the public key to a trusted signer. Use a private key and key ID to sign the CloudFront URL.
  • D. Create an SSH-2 RSA key pair. Upload the public key to CloudFront, and assign the public key to a trusted signer. Use a private key and key ID to sign the CloudFront URL.

회사는 아마존 S3의 개인 미디어 콘텐츠를 제공하기 위해 아마존 클라우드프론트 배포를 채용하고 있다. 개발자는 서명된 URL을 사용하여 미디어 콘텐츠를 암호화해야 합니다.

개발자는 이 규정을 준수하기 위해 무엇을 해야 합니까?

  • A. 액세스 키와 비밀 액세스 키를 사용하여 S3 사전 서명 URL을 생성합니다. S3 호스트 이름을 URL의 CloudFront 배포 이름으로 바꿉니다.
  • B. SSH-2 RSA 키 쌍을 생성합니다. 공개 키를 CloudFront에 업로드하고 신뢰할 수 있는 서명자에게 공개 키를 할당합니다. 공개 키와 키 ID를 사용하여 CloudFront URL에 서명합니다.
  • C. SSH-2 DSA 키 쌍을 만듭니다. 공개 키를 CloudFront에 업로드하고 신뢰할 수 있는 서명자에게 공개 키를 할당합니다. 개인 키와 키 ID를 사용하여 CloudFront URL에 서명합니다.
  • D. SSH-2 RSA 키 쌍을 생성합니다. 공개 키를 CloudFront에 업로드하고 신뢰할 수 있는 서명자에게 공개 키를 할당합니다. 개인 키와 키 ID를 사용하여 CloudFront URL에 서명합니다.
CloudFront 서명된 URL 또는 서명된 쿠키를 만드는 데 사용하는 각 서명자에게는 퍼블릭–프라이빗 키 페어가 있어야 합니다. 서명자는 프라이빗 키를 사용하여 URL 또는 쿠키에 서명하고 CloudFront는 퍼블릭 키를 사용하여 서명을 확인합니다.
생성하는 키 페어는 SSH-2 RSA 키 페어여야 합니다.

서명된 URL 및 서명된 쿠키를 생성할 수 있는 서명자 지정 - Amazon CloudFront

 

서명된 URL 및 서명된 쿠키를 생성할 수 있는 서명자 지정 - Amazon CloudFront

CloudFront 키 페어의 프라이빗 키를 안전한 위치에 저장하고 파일에 대한 권한을 설정하여 원하는 관리자만 읽을 수 있도록 합니다. 다른 사람이 프라이빗 키를 가지게 되면 이들이 유효한 서명된

docs.aws.amazon.com


Q.30

A business is processing records from an Amazon Kinesis data stream using an AWS Lambda function. The firm suddenly noticed that records were being processed slowly. A developer finds that the function's iterator age metric is growing and the Lambda run time is consistently more than expected.

Which activities should the developer do to boost the performance of the processor? (Select two.)

  • A. Increase the number of shards of the Kinesis data stream.
  • B. Decrease the timeout of the Lambda function.
  • C. Increase the memory that is allocated to the Lambda function.
  • D. Decrease the number of shards of the Kinesis data stream.
  • E. Increase the timeout of the Lambda function.

회사는 AWS 람다 함수를 사용하여 아마존 키네시스 데이터 스트림에서 레코드를 처리하고 있다. 그 회사는 갑자기 기록이 느리게 처리되고 있다는 것을 알아차렸다. 한 개발자는 함수의 반복기 수명이 증가하고 람다 실행 시간이 예상보다 일관되게 많다는 것을 발견했습니다.

개발자는 프로세서의 성능을 향상시키기 위해 어떤 활동을 해야 하는가? (2개 선택)

  • A. Kinesis 데이터 스트림의 샤드 수를 늘립니다.
  • B. 람다 함수의 시간 초과를 줄입니다.
  • C. 람다 함수에 할당된 메모리를 늘립니다.
  • D. Kinesis 데이터 스트림의 샤드 수를 줄입니다.
  • E. 람다 함수의 시간 초과를 늘립니다.
함수의 Iterator age(반복기 수명) 지표를 줄이려면 스트림 처리 처리량을 늘려야 합니다.
해결방법 : 함수의 런타임 기간 단축 - 함수에 할당된 메모리 양을 늘립니다.
스트림의 샤드 개수 늘리기 - 함수의 처리량이 증가하여 반복기 수명이 감소합니다.

Lambda 함수의 IteratorAge 지표 감소

 

Lambda 함수의 IteratorAge 지표 감소

AWS Lambda 함수의 IteratorAge 지표가 증가하거나 급증합니다. 함수의 반복기 수명이 증가하는 이유는 무엇이며 줄이려면 어떻게 해야 합니까?

aws.amazon.com


Q.31

An program overwrites an item in Amazon S3, then reads the identical object instantaneously.

Why might the program sometimes get an object's previous version?

  • A. S3 overwrite PUTS are eventually consistent, so the application may read the old object.
  • B. The application needs to add extra metadata to label the latest version when uploading to Amazon S3.
  • C. All S3 PUTS are eventually consistent, so the application may read the old object.
  • D. The application needs to explicitly specify latest version when retrieving the object.

프로그램은 아마존 S3의 항목을 덮어쓴 다음 동일한 개체를 즉시 읽습니다.

프로그램이 때때로 개체의 이전 버전을 가져올 수 있는 이유는 무엇입니까?

  • A. S3 덮어쓰기 PUT는 결국 일관성이 있으므로 응용 프로그램이 이전 개체를 읽을 수 있습니다.
  • B. 애플리케이션은 Amazon S3에 업로드할 때 최신 버전에 레이블을 붙일 추가 메타데이터를 추가해야 합니다.
  • C. 모든 S3 PUT는 결국 일관성이 있으므로, 애플리케이션은 이전 객체를 읽을 수 있다.
  • D. 응용 프로그램에서 개체를 검색할 때 최신 버전을 명시적으로 지정해야 합니다.
버킷 구성에는 최종 일관성 모델이 있습니다.
버킷을 삭제하고 즉시 모든 버킷을 나열하면 목록에 삭제된 버킷이 여전히 표시될 수 있습니다.

Amazon S3란 무엇인가요? - Amazon Simple Storage Service

 

Amazon S3란 무엇인가요? - Amazon Simple Storage Service

Amazon S3란 무엇인가요? Amazon Simple Storage Service(Amazon S3)는 업계 최고의 확장성, 데이터 가용성, 보안 및 성능을 제공하는 객체 스토리지 서비스입니다. 모든 규모와 업종의 고객은 Amazon S3를 사용하

docs.aws.amazon.com


Q.32

A legacy service has a SOAP interface that is XML-based. The developer want to use the Amazon API Gateway to expose the service's capabilities to external customers.

Which approach is necessary to do this?

  • A. Create a RESTful API with the API Gateway; transform the incoming JSON into a valid XML message for the SOAP interface using mapping templates.
  • B. Create a RESTful API with the API Gateway; pass the incoming JSON to the SOAP interface through an Application Load Balancer.
  • C. Create a SOAP API with the API Gateway; pass the incoming XML to the SOAP interface through an Application Load Balancer.
  • D. Create a SOAP API with the API Gateway; transform the incoming XML into a valid message for the SOAP interface using mapping templates.

레거시 서비스에는 XML 기반 SOAP 인터페이스가 있습니다. 개발자는 Amazon API Gateway를 사용하여 외부 고객에게 서비스 기능을 노출하려고 합니다.

이를 위해 어떤 접근법이 필요한가?

  • A. API Gateway를 사용하여 RESTful API를 만들고 매핑 템플릿을 사용하여 들어오는 JSON을 SOAP 인터페이스에 대한 유효한 XML 메시지로 변환합니다.
  • B. API Gateway를 사용하여 RESTful API를 생성하고 애플리케이션 로드 밸런서를 통해 들어오는 JSON을 SOAP 인터페이스에 전달합니다.
  • C. API Gateway를 사용하여 SOAP API를 생성하고 애플리케이션 로드 밸런서를 통해 들어오는 XML을 SOAP 인터페이스에 전달합니다.
  • D. API Gateway를 사용하여 SOAP API를 만들고 매핑 템플릿을 사용하여 수신 XML을 SOAP 인터페이스에 대한 유효한 메시지로 변환합니다.
API 게이트웨이는 들어오는 요청과 나가는 응답을 해당 콘텐츠 유형에 매핑하는 역할을 담당합니다.
XML인 들어오는 요청 콘텐츠를 JSON에 매핑합니다. 반대로 실제 SOAP 응답을 에뮬레이트하기 위해 나가는 응답 내용을 XML에 매핑합니다. 
메소드 실행 단계에서 콘텐츠 타입 및 매핑 템플릿을 정의합니다.

Amazon API Gateway – Build and Run Scalable Application Backends | AWS News Blog

 

Amazon API Gateway – Build and Run Scalable Application Backends | Amazon Web Services

I like to think of infrastructure as the part of a system that everyone needs and no one likes to work on! It is often undifferentiated & messy, tedious to work on, difficult to manage, critical to the success of whatever relies on it, and generally taken

aws.amazon.com


Q.33

As a big state machine, the existing design makes use of several Lambda functions calling one another. This state machine's coordination is handled by old bespoke code that is prone to failure.

Which AWS Service can assist with state machine refactoring and management?

  • A. AWS Data Pipeline
  • B. AWS SNS with AWS SQS
  • C. Amazon Elastic MapReduce
  • D. AWS Step Functions

큰 상태 기계로서, 기존 설계는 서로 호출하는 여러 람다 함수를 사용한다. 이 상태 시스템의 조정은 오류가 발생하기 쉬운 오래된 맞춤형 코드로 처리됩니다.

상태 시스템 리팩토링 및 관리를 지원할 수 있는 AWS 서비스는 무엇입니까?

  • A. AWS 데이터 파이프라인
  • B. AWS SQS가 있는 AWS SNS
  • C. Amazon Elastic MapReduce
  • D. AWS 단계 함수
Step Functions의 기본 제공 컨트롤을 사용하여 워크플로의 각 단계의 상태를 검사하여 애플리케이션이 예상대로 순서대로 실행되는지 확인합니다. 

통합 서비스로 AWS Step Functions 실행 관리 - AWS Step Functions

 

통합 서비스로 AWS Step Functions 실행 관리 - AWS Step Functions

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com

 


Q.34

A business is building a new online game using the Amazon ECS platform. The design will have four separate Amazon ECS services, each of which will need unique permissions to various AWS services. By bin packing the containers depending on memory reservation, the business hopes to optimize the utilization of the underlying Amazon EC2 instances.

Which configuration would enable the Development team to accomplish these criteria in the most secure manner possible?

  • A. Create a new Identity and Access Management (IAM) instance profile containing the required permissions for the various ECS services, then associate that instance role with the underlying EC2 instances.
  • B. Create four distinct IAM roles, each containing the required permissions for the associated ECS service, then configure each ECS service to reference the associated IAM role.
  • C. Create four distinct IAM roles, each containing the required permissions for the associated ECS service, then, create an IAM group and configure the ECS cluster to reference that group.
  • D. Create four distinct IAM roles, each containing the required permissions for the associated ECS service, then configure each ECS task definition to referenׁe the associated IAM role.

회사는 아마존 ECS 플랫폼을 활용한 새로운 온라인 게임을 구축하고 있다. 이 설계에는 4개의 별도의 Amazon ECS 서비스가 있으며, 각 서비스에는 다양한 AWS 서비스에 대한 고유한 권한이 필요합니다. 메모리 예약에 따라 컨테이너를 bin packing함으로써 기업은 기본 Amazon EC2 인스턴스의 활용도를 최적화하고자 합니다.

개발 팀이 이러한 기준을 최대한 안전하게 달성할 수 있는 구성은 무엇입니까?

  • A. 다양한 ECS 서비스에 필요한 권한이 포함된 새 IAM(ID 및 액세스 관리) 인스턴스 프로파일을 생성한 다음 해당 인스턴스 역할을 기본 EC2 인스턴스와 연결합니다.
  • B. 각각 연결된 ECS 서비스에 필요한 권한을 포함하는 4개의 고유한 IAM 역할을 생성한 다음 연결된 IAM 역할을 참조하도록 각 ECS 서비스를 구성합니다..
  • C. 각각 연결된 ECS 서비스에 필요한 권한을 포함하는 4개의 고유한 IAM 역할을 생성한 다음, IAM 그룹을 생성하고 해당 그룹을 참조하도록 ECS 클러스터를 구성합니다.
  • D. 각각 연결된 ECS 서비스에 필요한 권한을 포함하는 4개의 고유한 IAM 역할을 생성한 다음 연결된 IAM 역할을 참조하도록 각 ECS 작업 정의를 구성합니다.
ECS 서비스와 상호 작용하는 데 필요한 최소한의 IAM권한을 작업에 부여한 후 이를 JSON을 통해 작업 정의로 구성합니다.

Help Secure Container-Enabled Applications with IAM Roles for ECS Tasks | AWS Compute Blog

 

Help Secure Container-Enabled Applications with IAM Roles for ECS Tasks | Amazon Web Services

In Amazon ECS, you have always had the benefit of being able to use IAM roles for Amazon EC2 in order to simplify API requests from your containers. This also allows you to follow AWS best practices by not storing your AWS credentials in your code or confi

aws.amazon.com


Q.35

A developer wishes to search and filter log data in order to troubleshoot an application. Amazon CloudWatch Logs stores the application logs. To count exceptions in the application logs, the Developer sets a new metric filter. The logs, on the other hand, return no results.
What is the cause for the absence of filtered results?

  • A. A setup of the Amazon CloudWatch interface VPC endpoint is required for filtering the CloudWatch Logs in the VPC
  • B. CloudWatch Logs only publishes metric data for events that happen after the filter is created
  • C. The log group for CloudWatch Logs should be first streamed to Amazon Elasticsearch Service before metric filtering returns the results
  • D. Metric data points for logs groups can be filtered only after they are exported to an Amazon S3 bucket

개발자는 응용 프로그램의 문제를 해결하기 위해 로그 데이터를 검색하고 필터링하려고 합니다. Amazon CloudWatch 로그는 애플리케이션 로그를 저장합니다. 응용 프로그램 로그에서 예외를 계산하기 위해 개발자는 새 메트릭 필터를 설정합니다. 반면 로그는 결과를 반환하지 않습니다.
필터링된 결과가 없는 원인은 무엇입니까?

  • A. VPC에서 CloudWatch 로그를 필터링하려면 Amazon CloudWatch 인터페이스 VPC 끝점을 설정해야 합니다.
  • B. CloudWatch 로그는 필터 생성 후 발생하는 이벤트에 대한 메트릭 데이터만 게시합니다.
  • C. 메트릭 필터링이 결과를 반환하기 전에 CloudWatch 로그에 대한 로그 그룹을 Amazon Elasticsearch Service로 먼저 스트리밍해야 합니다.
  • D. 로그 그룹의 메트릭 데이터 지점은 Amazon S3 버킷으로 내보낸 후에만 필터링할 수 있습니다.
필터는 데이터를 소급해서 필터링하지 않습니다. 필터는 필터가 생성된 이후에 발생한 이벤트에 대한 지표 데이터 요소만 게시합니다. 필터링된 결과는 처음 50개 줄을 반환하는데, 필터링된 결과에 대한 타임스탬프가 지표 생성 시간보다 이른 경우에는 결과가 표시되지 않습니다.

필터를 사용하여 로그 이벤트에서 지표 생성 - Amazon CloudWatch Logs

 

필터를 사용하여 로그 이벤트에서 지표 생성 - Amazon CloudWatch Logs

필터를 사용하여 로그 이벤트에서 지표 생성 지표 필터를 한 개 이상 생성하여 CloudWatch Logs로 들어오는 로그 데이터를 검색하고 필터링할 수 있습니다. 지표 필터는 CloudWatch Logs 로그로 전송될

docs.aws.amazon.com


Q.36

The processing of an Amazon SQS message by an application takes longer than planned.

What should the developer do to ensure that other instances of the program do not get the same message?

  • A. Make a ReceiveMessage call to get the same message again from the queue
  • B. Issue a DeleteMessage call to delete the message from the queue
  • C. Use SendMessage to pass the message to the dead letter queue
  • D. Send a ChangeMessageVisibility call to extend VisibilityTimeout

응용 프로그램에서 Amazon SQS 메시지를 처리하는 데 계획보다 시간이 오래 걸립니다.

개발자가 프로그램의 다른 인스턴스가 동일한 메시지를 받지 않도록 하려면 어떻게 해야 합니까?

  • A. ReceiveMessage 호출을 수행하여 대기열에서 동일한 메시지를 다시 가져옵니다.
  • B. 메시지 삭제 호출을 실행하여 대기열에서 메시지를 삭제합니다.
  • C. SendMessage를 사용하여 배달 못한 편지 대기열에 메시지를 전달합니다.
  • D. VisibilityTimeout을 확장하기 위해 ChangeMessageVisibility 호출을 보냅니다.
동일한 메시지가 여러 번 처리되지 않도록 하기 위해 제한 시간 초과를 늘려 Amazon EC2가 제한 시간 초과가 만료되기 전에 메시지를 처리할 수 있도록 할 수 있습니다.

Amazon SQS 제한 시간 초과 - Amazon Simple Queue Service

 

Amazon SQS 제한 시간 초과 - Amazon Simple Queue Service

새로운 제한 시간은 ChangeMessageVisibility 작업을 호출한 시간부터 적용됩니다. 또한, 새 제한 시간은 특정 메시지 수신에만 적용됩니다. ChangeMessageVisibility는 메시지 수신이나 이후 대기열의 제한

docs.aws.amazon.com


Q.37

For its application database tier, a corporation uses Amazon RDS MySQL instances, and for its web tier, Apache Tomcat servers. Repeated read requests make up the majority of database queries from web apps.
Which AWS service would benefit from the addition of an in-memory store for repeated read queries?

  • A. Amazon RDS Multi-AZ
  • B. Amazon SQS
  • C. Amazon ElastiCache
  • D. Amazon RDS read replica

애플리케이션 데이터베이스 계층에는 Amazon RDS MySQL 인스턴스를 사용하고 웹 계층에는 Apache Tomcat 서버를 사용합니다. 반복된 읽기 요청은 웹 앱의 데이터베이스 쿼리의 대부분을 차지한다.
반복 읽기 쿼리를 위한 메모리 내 저장소를 추가하면 어떤 AWS 서비스가 도움이 될까요?

  • A. Amazon RDS Multi-AZ
  • B. 아마존 SQS
  • C. 아마존 엘라스티캐시
  • D. Amazon RDS 읽기 복제본
반복되는 읽기 요청에 ElastiCache를 사용하여 캐시된 데이터를 훨씬 더 빠르게 제공할 수 있습니다.

일반적인 ElastiCache 사용 사례 및 ElastiCache 활용 방법 - Amazon ElastiCache

 

일반적인 ElastiCache 사용 사례 및 ElastiCache 활용 방법 - Amazon ElastiCache

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.38

A business is deploying AWS resources using AWS CloudFormation templates. The organization requires an upgrade to one of its Amazon Web Services CloudFormation stacks.

What can the business do to ascertain the effect of the adjustments on the operating resources?

  • A. Investigate the change sets.
  • B. Investigate the stack policies.
  • C. Investigate the Metadata section.
  • D. Investigate the Resources section.

한 기업이 AWS CloudFormation 템플릿을 사용하여 AWS 리소스를 배포하고 있습니다. 조직은 Amazon Web Services CloudFormation 스택 중 하나로 업그레이드해야 합니다.

운영 리소스에 대한 조정의 효과를 확인하기 위해 비즈니스가 할 수 있는 일은 무엇입니까?

  • A. 변경 사항 세트를 조사합니다.
  • B. 스택 정책을 조사합니다.
  • C. 메타데이터 섹션을 조사합니다.
  • D. 리소스 섹션을 조사합니다.
변경 세트를 사용하면 AWS CloudFormation에서 스택에 대해 변경한 사항을 미리 보고 이러한 변경 사항을 적용할지 여부를 결정할 수 있습니다. 변경 세트는 JSON 형식 문서로, AWS CloudFormation에서 스택에 대해 변경한 사항이 요약되어 있습니다. 

AWS CloudFormation 스택 업데이트 - AWS CloudFormation

 

AWS CloudFormation 스택 업데이트 - AWS CloudFormation

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.39

A developer is trying to upload an object to an S3 bucket that has default encryption enabled using the Amazon S3 PutObject API action. A 400 Bad Request error is sent to the developer.

Which of the following is the most probable source of this error?

  • A. The API operation cannot access the encryption key.
  • B. The HTTP Content-Length header is missing.
  • C. The object exceeds the maximum object size that is allowed.
  • D. The S3 bucket exceeds the maximum storage capacity that is allowed.

개발자가 Amazon S3 PutObject API 작업을 사용하여 기본 암호화가 활성화된 S3 버킷에 개체를 업로드하려고 합니다. 400 Bad Request 오류가 개발자에게 전송됩니다.

다음 중 이 오류의 가장 가능성이 높은 원인은 무엇입니까?

  • A. API 작업에서 암호화 키에 액세스할 수 없습니다.
  • B. HTTP Content-Length 헤더가 없습니다.
  • C. 개체가 허용된 최대 개체 크기를 초과합니다.
  • D. S3 버킷이 허용된 최대 저장 용량을 초과합니다.
S3 버킷에 업로드시 발생하는 400 에러는 업로드가 허용하는 최소 크기보다 작거나, 최대 크기를 초과할때 일반적으로 발생합니다.

Error Responses - Amazon Simple Storage Service

 

Error Responses - Amazon Simple Storage Service

SOAP support over HTTP is deprecated, but it is still available over HTTPS. New Amazon S3 features will not be supported for SOAP. We recommend that you use either the REST API or the AWS SDKs.

docs.aws.amazon.com


Q.40

As a big state machine, the existing design makes use of several Lambda functions calling one another. This state machine's coordination is handled by old bespoke code that is prone to failure.

Which AWS Service can assist with state machine refactoring and management?

  • A. AWS Data Pipeline
  • B. AWS SNS with AWS SQS
  • C. Amazon Elastic MapReduce
  • D. AWS Step Functions

큰 상태 기계로서, 기존 설계는 서로 호출하는 여러 람다 함수를 사용한다. 이 상태 시스템의 조정은 오류가 발생하기 쉬운 오래된 맞춤형 코드로 처리됩니다.

상태 시스템 리팩토링 및 관리를 지원할 수 있는 AWS 서비스는 무엇입니까?

  • A. AWS 데이터 파이프라인
  • B. AWS SQS가 있는 AWS SNS
  • C. Amazon Elastic MapReduce
  • D. AWS 단계 함수
Step Functions의 기본 제공 컨트롤을 사용하여 워크플로의 각 단계의 상태를 검사하여 애플리케이션이 예상대로 순서대로 실행되는지 확인합니다. 

통합 서비스로 AWS Step Functions 실행 관리 - AWS Step Functions

 

통합 서비스로 AWS Step Functions 실행 관리 - AWS Step Functions

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


 

 

반응형

댓글