본문 바로가기
Etc/AWS

[AWS] [Q1~Q20]DVA-C01 AWS Certified Developer Associate

by 오이가지아빠 2022. 6. 15.
한글 번역은 파파고 번역이기 때문에 어색할 수 있습니다.
단어 하나하나 보다는 맥락을 이해하시면 도움이 될 것 같습니다.

 

Q1.

When launching containers in Amazon ECS, where may PortMapping be defined?

  • A. Security groups
  • B. Amazon Elastic Container Registry (Amazon ECR)
  • C. Container agent
  • D. Task definition

Amazon ECS에서 컨테이너를 실행할 때 PortMapping은 어디에서 정의될 수 있습니까?

  • A. 보안 그룹
  • B. Amazon Elastic Container 레지스트리(Amazon ECR)
  • C. 컨테이너 에이전트
  • D. 작업 정의
작업정의(Task definition) 에서 아래와 같이 포트 매핑을 정의할 수 있습니다.
"portMappings": [
    {
        "containerPort": 80, 
        "hostPort": 80, 
        "protocol": "tcp"
    }
],

태스크 정의 파라미터 - Amazon Elastic Container Service

 

태스크 정의 파라미터 - Amazon Elastic Container Service

태스크 정의 파라미터 태스크 정의는 태스크 패밀리, IAM 태스크 역할, 네트워크 모드, 컨테이너 정의, 볼륨, 태스크 배치 제약, 시작 유형 등의 부분으로 나뉩니다. 패밀리 및 컨테이너 정의는 태

docs.aws.amazon.com


Q2.

How should access keys be handled in AWS according to best practices? (Select two.)

  • A. Use the same access key in all applications for consistency.
  • B. Delete all access keys for the account root user.
  • C. Leave unused access keys in the account for tracking purposes.
  • D. Embed and encrypt access keys in code for continuous deployment.
  • E. Use Amazon IAM roles instead of access keys where possible.

모범 사례에 따라 AWS에서 액세스 키를 어떻게 처리해야 합니까? (2개 선택)

  • A. 일관성을 위해 모든 응용프로그램에서 동일한 액세스 키를 사용합니다.
  • B. 계정 루트 사용자의 모든 액세스 키를 삭제합니다.
  • C. 추적을 위해 사용하지 않는 액세스 키를 계정에 남겨 둡니다.
  • D. 지속적인 배포를 위해 코드에 액세스 키를 포함 및 암호화합니다.
  • E. 가능한 경우 액세스 키 대신 Amazon IAM 역할을 사용합니다.
보안 모범사례에 따르면, AWS 계정 루트 사용자에 대한 액세스 키가 있다면 삭제하고, 계속 유지해야 할 경우 주기적으로 액세스 키를 교체(변경)하는 것을 요구하고 있습니다.
또한, AWS Security Token Service 작업 또는 AWS Management Console의 역할로 전환을 사용해 IAM 역할 수임하여 임시 자격 증명 역할 세션을 수신합니다. 이는 장기 암호 또는 액세스 키 자격 증명을 사용하는 것보다 안전합니다.

IAM의 보안 모범 사례 - AWS Identity and Access Management (amazon.com)

 

IAM의 보안 모범 사례 - AWS Identity and Access Management

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q3.

What is the run order of the hooks for in-place deployments in an AWS CodeDeploy deployment?

  • A. Before Install -> Application Stop -> Application Start -> After Install
  • B. Application Stop -> Before Install -> After Install -> Application Start
  • C. Before Install -> Application Stop -> Validate Service -> Application Start
  • D. Application Stop -> Before Install -> Validate Service -> Application Start

AWS CodeDeploy 배포에서 인플레이스 배포에 대한 후크의 실행 순서는 무엇입니까?

  • A. 설치 전 -> 애플리케이션 중지 -> 애플리케이션 시작 -> 설치 후
  • B. 애플리케이션 중지 -> 설치 전 -> 설치 후 -> 애플리케이션 시작
  • C. 설치 전 -> 애플리케이션 중지 -> 서비스 확인 -> 애플리케이션 시작
  • D. 애플리케이션 중지 -> 설치 전 -> 서비스 확인 -> 애플리케이션 시작
hook섹션에서 in-place배포에 대한 절차가 상세히 기술되어 있습니다.
Application Stop -> Before Install -> After Install -> Application Start -> Validate Service
블루/그린 배포의 경우에도 크게 다르지 않습니다.

AppSpec 'hooks' 섹션 - AWS CodeDeploy

 

AppSpec 'hooks' 섹션 - AWS CodeDeploy

배포의 Start, DownloadBundle, Install, BlockTraffic, AllowTraffic 및 End 이벤트는 스크립팅할 수 없기 때문에 이 다이어그램에서 회색으로 표시됩니다. 그러나 AppSpec 파일의 'files' 섹션을 편집하여 Install 이벤

docs.aws.amazon.com


Q4.

Data is read from an Amazon DynamoDB database by an application. The program gets several ProvisionedThroughputExceeded errors many times a day for a duration of 15 seconds.

What should be done with this exception?

  • A. Create a new global secondary index for the table to help with the additional requests.
  • B. Retry the failed read requests with exponential backoff.
  • C. Immediately retry the failed read requests.
  • D. Use the DynamoDB ג€UpdateItemג€ API to increase the provisioned throughput capacity of the table.

응용 프로그램에서 Amazon DynamoDB 데이터베이스에서 데이터를 읽습니다. 프로그램이 여러 개 프로비저닝됨Throughput 15초 동안 하루에 여러 번 오류가 발생했습니다.

이 예외로 무엇을 해야 하는가?

  • A. 테이블에 대한 새 글로벌 보조 인덱스를 만들어 추가 요청을 지원합니다.
  • B. 실패한 읽기 요청을 지수 백오프로 다시 시도하십시오.
  • C. 실패한 읽기 요청을 즉시 다시 시도합니다.
  • D. DynamoDB -UpdateItem - API를 사용하여 테이블의 프로비저닝된 처리량을 늘립니다.
DynamoDB 관련 오류 중 ProvisionedThroughputExceeded 에러는 단기간에 많은 요청이 들어온 경우나 Batch update 하는 경우 발생합니다. AWS에서는 자동으로 재시도를 하여 성공을 시키지만 재시도 횟수 및 지수 백오프(Exponential backoff) 를 통해 조절하는 것을 권장하고 있습니다.
지수 백오프는 같은 오류에 대해 재시도 횟수가 증가할 수록 대기 시간을 점진적으로 늘리는 방법입니다.
(첫번째 재시도시에는 50ms, 두번째 재시도에는 100ms, 세번째 재시도에서는 200ms)

DynamoDB 관련 오류 처리 - Amazon DynamoDB

 

DynamoDB 관련 오류 처리 - Amazon DynamoDB

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q5.

All data in transit between an EC2 instance and an Amazon EBS volume must be secured for a physician's office management application.

Which one of the following strategies satisfies this criterion? (Select two.)

  • A. Create encrypted snapshots into Amazon S3.
  • B. Use Amazon RDS with encryption.
  • C. Use IAM roles to limit access to the Amazon EBS volume.
  • D. Enable EBS encryption.
  • E. Leverage OS-level encryption.

EC2 인스턴스와 Amazon EBS 볼륨 간에 전송 중인 모든 데이터는 의사의 사무실 관리 응용 프로그램에 대해 보호되어야 합니다.

다음 중 이 기준을 충족하는 전략은 무엇입니까? (2개 선택)

  • A. Amazon S3에 암호화된 스냅샷을 생성합니다.
  • B. 암호화와 함께 Amazon RDS를 사용합니다.
  • C. IAM 역할을 사용하여 Amazon EBS 볼륨에 대한 액세스를 제한합니다.
  • D. EBS 암호화를 사용합니다.
  • E. OS 레벨 암호화 활용
EC2 인스턴스와 연결된 EBS 리소스를 위한 간단한 암호화 솔루션으로 Amazon EBS 암호화를 사용할 수 있습니다. Amazon EBS 암호화를 사용하면 자체 키 관리 인프라를 구축, 유지 관리 및 보호할 필요가 없습니다. Amazon EBS 암호화는 암호화된 볼륨 및 스냅샷을 생성할 때 AWS KMS keys를 사용합니다.
KMS 키을(를) EBS 암호화의 기본 키로 구성하면, 기본 KMS 키 정책은 필수 KMS 작업에 대한 액세스 권한이 있는 IAM 사용자가 이 KMS 키을(를) 사용하여 EBS 리소스를 암호화하거나 해독하도록 허용합니다.

Amazon EBS 암호화 |에 대해 반드시 알아야 할 모범 사례 AWS 컴퓨팅 블로그

 

Must-know best practices for Amazon EBS encryption | Amazon Web Services

This blog post covers common encryption workflows on Amazon EBS. Examples of these workflows are: setting up permissions policies, creating encrypted EBS volumes, running Amazon EC2 instances, taking snapshots, and sharing your encrypted data using custome

aws.amazon.com

Amazon EBS 암호화 - Amazon Elastic Compute Cloud

 

Amazon EBS 암호화 - Amazon Elastic Compute Cloud

API 또는 AWS CLI를 사용하여 KMS 키를 지정하는 경우 AWS는 KMS 키를 비동기식으로 인증합니다. 유효하지 않은 KMS 키 ID, 별칭 또는 ARN을 지정하면 작업이 완료된 것처럼 보이지만 결국 실패합니다.

docs.aws.amazon.com


Q6.

What section of the document root must be included in an AWS CloudFormation template to include objects specified by the AWS Serverless Application Model (SAM) in addition to Resources?

  • A. Conditions
  • B. Globals
  • C. Transform
  • D. Properties

리소스 외에 AWS SAM(Serverless Application Model)에서 지정한 개체를 포함하려면 AWS CloudFormation 템플릿에 문서 루트의 어떤 섹션을 포함해야 합니까?

  • A. 조건
  • B. 글로벌
  • C. 변환
  • D. 속성
서버리스 애플리케이션(Lambda 기반 애플리케이션이라고도 함)의 경우, 사용할 AWS Serverless Application Model (AWS SAM) 의 버전도 지정합니다.

 

// Start of processable content for MyMacro and AWS::Serverless
Transform:
  - MyMacro
  - 'AWS::Serverless'

템플릿 구조 - AWS CloudFormation

 

템플릿 구조 - AWS CloudFormation

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q7.

A developer recognizes the need for centralized storage of application-level logs while designing an application that runs on Amazon EC2 in an Amazon VPC.

Which AWS service can be utilized to store these logs securely?

  • A. Amazon EC2 VPC Flow Logs
  • B. Amazon CloudWatch Logs
  • C. Amazon CloudSearch
  • D. AWS CloudTrail

개발자는 Amazon VPC의 Amazon EC2에서 실행되는 애플리케이션을 설계하면서 애플리케이션 레벨 로그의 중앙 집중식 저장소의 필요성을 인식합니다.

이러한 로그를 안전하게 저장하는 데 사용할 수 있는 AWS 서비스는 무엇입니까?

  • A. Amazon EC2 VPC 흐름 로그
  • B. Amazon CloudWatch 로그
  • C. Amazon 클라우드 검색
  • D. AWS 클라우드 추적
다음 AWS 서비스는 로그를 CloudWatch Logs에 게시합니다.
Amazon API Gateway, AWS CodeBuild, Amazon Cognito, AWS Elastic Beanstalk, AWS Lambda, Amazon Route 53, Amazon VPC

Amazon CloudWatch란 무엇인가요? - Amazon CloudWatch Logs

 

Amazon CloudWatch란 무엇인가요? - Amazon CloudWatch Logs

Amazon CloudWatch란 무엇인가요? Amazon CloudWatch Logs를 사용하여 Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스, AWS CloudTrail, Route 53 및 다른 원본에서 시스템, 애플리케이션 및 사용자 지정 로그 파일을 모니

docs.aws.amazon.com


Q8.

What are the requirements for configuring container instances in an AWS Elastic Beanstalk multi-container Docker environment?

  • A. An Amazon ECS task definition
  • B. An Amazon ECS cluster
  • C. A Dockerfile in an application package
  • D. A CLI for Elastic Beanstalk

AWS Elastic Benstalk 다중 컨테이너 Docker 환경에서 컨테이너 인스턴스를 구성하기 위한 요구 사항은 무엇입니까?

  • A. Amazon ECS 태스크 정의
  • B. Amazon ECS 클러스터
  • C. 응용 프로그램 패키지의 도커 파일
  • D. Elastic Beanstalk를 위한 CLI
Amazon ECS 작업 정의 - Elastic Beanstalk는 프로젝트의 Dockerrun.aws.json v2를 사용하여 환경의 컨테이너 인스턴스를 구성하는 데 사용되는 Amazon ECS 작업 정의를 생성합니다.

Amazon ECS 플랫폼 브랜치 사용 - AWS Elastic Beanstalk

 

Amazon ECS 플랫폼 브랜치 사용 - AWS Elastic Beanstalk

Elastic Beanstalk의 ECS 관리형 Docker 플랫폼에서는 Dockerfile을(를) 사용하여 배포 중에 사용자 지정 이미지를 빌드할 수 없습니다. Elastic Beanstalk 환경을 생성하기 전에 이미지를 빌드한 후 이를 온라인

docs.aws.amazon.com


Q9.

A developer must install a serverless RESTful API on AWS regularly and consistently.

Which strategies will be effective? (Select two.)

  • A. Define a Swagger file. Use AWS Elastic Beanstalk to deploy the Swagger file.
  • B. Define a Swagger file. Use AWS CodeDeploy to deploy the Swagger file.
  • C. Deploy a SAM template with an inline Swagger definition.
  • D. Define a Swagger file. Deploy a SAM template that references the Swagger file.
  • E. Define an inline Swagger definition in a Lambda function. Invoke the Lambda function.

개발자는 AWS에 서버리스 RESTful API를 정기적으로 그리고 지속적으로 설치해야 한다.

어떤 전략이 효과적일까요? (두 가지 선택)

  • A. Swagger 파일을 정의합니다. AWS Elastic Beanstalk를 사용하여 Swagger 파일을 배포합니다.
  • B. Swagger 파일을 정의합니다. AWS CodeDeploy를 사용하여 Swagger 파일을 배포합니다.
  • C. 인라인 스웨거 정의가 있는 SAM 템플릿을 배포합니다.
  • D. Swagger 파일을 정의합니다. Swagger 파일을 참조하는 SAM 템플릿을 배포합니다.
  • E. 람다 함수에서 인라인 스웨거 정의를 정의합니다. 람다 함수를 호출합니다.
AWS환경에서 서버리스 애플리케이션은 SAM 템플릿을 배포하여 구축 가능합니다.
아래와 같이 Resource 프로퍼티에 swagger 파일을 참조할 수도 있고, In-line 스웨거로 지정할 수도 있습니다.

 

Resources:
  ApiGatewayApi:
    Type: AWS::Serverless::Api
    Properties:
      StageName: Prod
      ...
          Parameters:
            Location: s3://bucket/swagger.yaml

AWS::Serverless::Api - AWS Serverless Application Model

 

AWS::Serverless::Api - AWS Serverless Application Model

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q10.

Amazon Kinesis is used to load data into a stock market monitoring application. The Kinesis stream cannot keep up with the incoming data during simulated peak data rates testing.

What step will enable Kinesis to handle peak-hour traffic?

  • A. Install the Kinesis Producer Library (KPL) for ingesting data into the stream.
  • B. Reduce the data retention period to allow for more data ingestion using DecreaseStreamRetentionPeriod.
  • C. Increase the shard count of the stream using UpdateShardCount.
  • D. Ingest multiple records into the stream in a single call using PutRecords.

아마존 키네시스는 주식 시장 모니터링 애플리케이션에 데이터를 로드하는 데 사용된다. Kinesis 스트림은 시뮬레이션된 최대 데이터 속도 테스트 동안 들어오는 데이터를 따라갈 수 없습니다.

Kinesis가 피크 타임의 트래픽을 처리할 수 있게 하는 단계는 무엇입니까?

  • A. 스트림에 데이터를 수집하기 위한 Kinesis Producer Library(KPL)를 설치합니다.
  • B. DelosedStreamRetentionPeriod를 사용하여 더 많은 데이터를 수집할 수 있도록 데이터 보존 기간을 줄입니다.
  • C. UpdateShardCount를 사용하여 스트림의 샤드 수를 늘립니다.
  • D. PutRecords를 사용하여 한 번의 호출로 여러 레코드를 스트림에 수집합니다.
UpdateShardCount API작업을 사용하면 스트림 샤드 용량을 자동으로 확장하여 스트리밍 데이터 요구 사항의 변화에 실시간으로 대응할 수 있습니다. 시간당 테라바이트 단위의 데이터를 캡쳐, 저장 및 분석 합니다.

UpdateShardCount - Amazon Kinesis Data Streams Service

 

UpdateShardCount - Amazon Kinesis Data Streams Service

Thanks for letting us know this page needs work. We're sorry we let you down. If you've got a moment, please tell us how we can make the documentation better.

docs.aws.amazon.com


Q11.

AWS services must be accessed and API calls must be made by an application running on an Amazon EC2 instance.
What is the SAFEST approach to grant access to AWS services with the least amount of administration overhead?

  • A. Use AWS KMS to store and retrieve credentials.
  • B. Use EC2 instance profiles.
  • C. Use AWS root user to make requests to the application.
  • D. Store and retrieve credentials from AWS CodeCommit.

AWS 서비스에 액세스하고 Amazon EC2 인스턴스에서 실행 중인 응용 프로그램에서 API 호출을 수행해야 합니다.
관리 오버헤드가 가장 적은 AWS 서비스에 대한 액세스를 허용하는 가장 안전한 방법은 무엇입니까?

  • A. AWS KMS를 사용하여 자격 증명을 저장하고 검색합니다.
  • B. EC2 인스턴스 프로파일을 사용합니다.
  • C. AWS 루트 사용자를 사용하여 응용 프로그램에 요청을 합니다.
  • D. AWS CodeCommit에서 자격 증명을 저장하고 검색합니다.
EC2 인스턴스에서 실행되는 애플리케이션에 AWS 역할 및 관련 권한을 할당하고 이를 그 애플리케이션에도 사용가능하게 사용하려면 인스턴스에 연결된 instance profiles를 생성하면 됩니다.
이 인스턴스 프로파일은 해당 역할을 포함하게 되고 임시 자격증명을 제공할 수 있습니다.

IAM 역할을 사용하여 Amazon EC2 인스턴스에서 실행되는 애플리케이션에 권한 부여 - AWS Identity and Access Management

 

IAM 역할을 사용하여 Amazon EC2 인스턴스에서 실행되는 애플리케이션에 권한 부여 - AWS Identity and Acc

IAM 콘솔을 사용하는 경우, 인스턴스 프로파일은 콘솔에서 관리하고 대개 사용자가 파악하기 쉽습니다. 그러나 AWS CLI 또는 API를 사용하여 역할 및 EC2 인스턴스를 만들고 관리하는 경우 사용자는

docs.aws.amazon.com


Q12.

With production-distributed applications created as AWS Lambda functions, a developer must investigate performance issues. Other components of the applications are invoked by these distributed Lambda applications.
What is the best way for a developer to discover and resolve the root cause of production performance issues?

  • A. Add logging statements to the Lambda functions, then use Amazon CloudWatch to view the logs.
  • B. Use AWS CloudTrail and then examine the logs.
  • C. Use AWS X-Ray, then examine the segments and errors.
  • D. Run Amazon Inspector agents and then analyze performance.

AWS Lambda 함수로 생성된 프로덕션 분산 애플리케이션을 통해 개발자는 성능 문제를 조사해야 합니다. 응용 프로그램의 다른 구성 요소는 이러한 분산된 람다 응용 프로그램에 의해 호출됩니다.
개발자가 생산 성능 문제의 근본 원인을 발견하고 해결하는 가장 좋은 방법은 무엇입니까?

  • A. Lambda 함수에 로깅 문을 추가한 다음 Amazon CloudWatch를 사용하여 로그를 봅니다.
  • B. AWS CloudTrail을 사용한 다음 로그를 조사합니다.
  • C. AWS X-Ray을 사용한 다음 세그먼트와 오류를 검사합니다.
  • D. Amazon Inspector 에이전트를 실행하고 성능을 분석합니다.
X-Ray Analytics를 사용하면 분산 응용프로그램을 분석하고 디버그할 수 있습니다.
X-Ray 분석을 사용하여 근본 원인과 최종 사용자에게 미치는 영향을 탐색할 수 있습니다.

AWS Lambda와 함께 AWS X-Ray 사용 - AWS Lambda

 

AWS Lambda와 함께 AWS X-Ray 사용 - AWS Lambda

Lambda에서는 X-Ray SDK를 사용하여 Invocation 하위 세그먼트를 다운스트림 호출, 주석 및 메타데이터에 대한 추가 하위 세그먼트로 확장할 수 있습니다. 함수 세그먼트에 직접 액세스하거나 핸들러

docs.aws.amazon.com


Q13.

What is the advantage of instantiating AWS clients outside the scope of the handler when constructing a Lambda function?

  • A. Legibility and stylistic convention
  • B. Taking advantage of connection re-use
  • C. Better error handling
  • D. Creating a new instance per invocation

람다 함수를 구성할 때 핸들러의 범위를 벗어난 AWS 클라이언트를 인스턴스화하는 이점은 무엇입니까?

  • A. 가독성과 문체 관습
  • B. 연결 재사용 활용
  • C. 오류 처리 개선
  • D. 호출당 새 인스턴스 만들기
모범사례에 따르면, 핵심 로직에서 Lambda 핸들러를 분리하는 것을 가이드 하고 있습니다.
실행환경 재사용을 통해서 함수 성능을 향상 시킵니다. 또한, 지속적인 연결을 유지하여 유휴연결을 재사용하려 할때 발생하는 연결 오류를 발생시키지 않을 수 있습니다.

AWS Lambda 함수 작업의 모범 사례 - AWS Lambda

 

AWS Lambda 함수 작업의 모범 사례 - AWS Lambda

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q14.

Thousands of sensitive audio and video data must be stored in an Amazon S3 bucket. All data written to this bucket must be encrypted according to organizational security rules.

How can this policy's compliance be ensured?

  • A. Use AWS Lambda to send notifications to the security team if unencrypted objects are pun in the bucket.
  • B. Configure an Amazon S3 bucket policy to prevent the upload of objects that do not contain the x-amz-server-side-encryption header.
  • C. Create an Amazon CloudWatch event rule to verify that all objects stored in the Amazon S3 bucket are encrypted.
  • D. Configure an Amazon S3 bucket policy to prevent the upload of objects that contain the x-amz-server-side-encryption header.

수천 개의 중요한 오디오 및 비디오 데이터가 Amazon S3 버킷에 저장되어야 합니다. 이 버킷에 기록된 모든 데이터는 조직 보안 규칙에 따라 암호화되어야 합니다.

이 정책의 준수를 어떻게 보장할 수 있습니까?

  • A. 버킷에 암호화되지 않은 객체가 있는 경우 AWS Lambda를 사용하여 보안 팀에 알림을 보냅니다.
  • B. x-amz-server-side-encryption 헤더를 포함하지 않는 개체의 업로드를 방지하도록 Amazon S3 버킷 정책을 구성합니다.
  • C. Amazon CloudWatch 이벤트 규칙을 생성하여 Amazon S3 버킷에 저장된 모든 개체가 암호화되어 있는지 확인합니다.
  • D. x-amz-server-side-encryption 헤더가 포함된 개체가 업로드되지 않도록 Amazon S3 버킷 정책을 구성합니다.
암호화되지 않은 객체가 S3 버킷에 업로드되는 것을 방지하는 기본 목표는 해당 버킷에 저장된 객체의 기밀성과 무결성을 보호하는 것입니다. 모든 사용자에게 제한적인 IAM 정책을 할당하는 대신, 사용자가 객체를 업로드할 때 암호화 요구사항을 적용할 수 있습니다.
서버측 암호화를 사용하지 않는 한 사용자가 암호화되지 않은 객체를 업로드하지 못하도록 S3버킷 정책을 생성할 수 있습니다.
객체 암호화를 적용하려면 x-amz-server-side-encryption 헤더를 포함하지 않는 S3 Put 요청을 거부하는 S3 버킷 정책을 생성합니다. 

Amazon S3가 관리하는 암호화 키(SSE-S3)를 사용하는 서버 측 암호화로 데이터 보호 - Amazon Simple Storage Service

 

Amazon S3가 관리하는 암호화 키(SSE-S3)를 사용하는 서버 측 암호화로 데이터 보호 - Amazon Simple Storage

Amazon S3가 관리하는 암호화 키(SSE-S3)를 사용하는 서버 측 암호화로 데이터 보호 서버 측 암호화를 사용하여 저장된 데이터를 보호합니다. Amazon S3는 각 객체를 고유한 키로 암호화합니다. 또한 추

docs.aws.amazon.com


Q15.

Before code is released into the production environment, the release process workflow of an application needs human review.

What is the MOST EFFECTIVE method to do this using AWS CodePipeline?

  • A. Use multiple pipelines to allow approval
  • B. Use an approval action in a stage
  • C. Disable the stage transition to allow manual approval
  • D. Disable a stage just prior the deployment stage

코드가 프로덕션 환경으로 릴리스되기 전에 응용 프로그램의 릴리스 프로세스 워크플로는 사람의 검토가 필요합니다.

AWS CodePipeline을 사용하여 이 작업을 수행하는 가장 효과적인 방법은 무엇입니까?

  • A. 여러 파이프라인을 사용하여 승인 허용
  • B. 단계에서 승인 작업 사용
  • C. 수동 승인을 허용하도록 단계 전환을 비활성화합니다.
  • D. 배포 단계 직전에 단계 사용 안 함
다른 사용자가 작업을 수동으로 승인하거나 거부할 수 있도록 파이프라인의 단계에 승인작업을 추가할 수 있습니다.

CodePipeline의 파이프라인에 수동 승인 작업 추가 - AWS CodePipeline

 

CodePipeline의 파이프라인에 수동 승인 작업 추가 - AWS CodePipeline

승인 작업은 소스 단계에 추가할 수 없습니다. 소스 단계는 소스 작업만 포함할 수 있습니다.

docs.aws.amazon.com


Q16.

When attempting to start or stop an Amazon EC2 instance using a boto3 script, the developer gets the following error message.

boto.exception.BotoServerError: BotoServerError: 503 Service Unavailable
<?xml version="1.0" encoding="UTF-8"?>
<Response><Errors><Error><Code>RequestLimitExceeded</Code>
<Message>Request limit exceeded.</Message></Error></Errors>
<RequestId>bfdded84-53b3-4701-b728-dceefb696ced</RequestId>
</Response>


What is the developer's responsibility in resolving this error message?

  • A. Assign an IAM role to the EC2 instance to allow necessary API calls on behalf of the client.
  • B. Implement an exponential backoff algorithm for optimizing the number of API requests made to Amazon EC2.
  • C. Increase the overall network bandwidth to handle higher API request rates.
  • D. Upgrade to the latest AWS CLI version so that boto3 can handle higher request rates.

boto3 스크립트를 사용하여 Amazon EC2 인스턴스를 시작하거나 중지하려고 하면 개발자에게 다음 오류 메시지가 표시됩니다.

이 오류 메시지를 해결한 개발자의 책임은 무엇입니까?

  • A. 클라이언트를 대신하여 필요한 API 호출을 허용하도록 EC2 인스턴스에 IAM 역할을 할당합니다.
  • B. Amazon EC2에 대한 API 요청 수를 최적화하기 위한 지수 백오프 알고리즘을 구현합니다.
  • C. 더 높은 API 요청률을 처리하려면 전체 네트워크 대역폭을 늘립니다.
  • D. 최신 AWS CLI 버전으로 업그레이드하여 boto3가 더 높은 요청률을 처리할 수 있도록 합니다.
503 Request limit Exceeded 오류는 일반적으로 요청속도제한 또는 리소스 속도 제한 API를 나타냅니다. 이 문제를 해결하려면 재시도 로직과 지수 백오프 전략을 조합하여 사용할 수 있습니다.

여러 Amazon EC2 인스턴스를 시작할 때 RequestLimitExceeded 오류 방지

 

여러 Amazon EC2 인스턴스를 시작할 때 RequestLimitExceeded 오류 방지

여러 Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스를 시작하려고 할 때 RequestLimitExceeded 오류가 발생하는 경우가 있습니다. 이 오류를 방지하려면 어떻게 해야 합니까? 

aws.amazon.com


Q17.

On an EC2 instance, an application is executing. The developer wishes to keep a statistic about his program in Amazon CloudWatch.

How should this requirement be implemented optimally?

  • A. Use the PUT Object API call to send data to an S3 bucket. Use an event notification to invoke a Lambda function to publish data to CloudWatch.
  • B. Publish the metric data to an Amazon Kinesis Stream using a PutRecord API call. Subscribe a Lambda function that publishes data to CloudWatch.
  • C. Use the CloudWatch PutMetricData API call to submit a custom metric to CloudWatch. Provide the required credentials to enable the API call.
  • D. Use the CloudWatch PutMetricData API call to submit a custom metric to CloudWatch. Launch the EC2 instance with the required IAM role to enable the API call.

EC2 인스턴스에서 응용 프로그램이 실행 중입니다. 그 개발자는 Amazon CloudWatch에서 자신의 프로그램에 대한 통계를 유지하기를 원한다.

이 요구사항을 어떻게 최적으로 구현해야 하는가?

  • A. PUT Object API 호출을 사용하여 S3 버킷으로 데이터를 전송합니다. 이벤트 알림을 사용하여 Lambda 함수를 호출하여 CloudWatch에 데이터를 게시합니다.
  • B. PutRecord API 호출을 사용하여 메트릭 데이터를 Amazon Kinesis Stream에 게시합니다. CloudWatch에 데이터를 게시하는 람다 기능을 구독하십시오.
  • C. CloudWatch PutMetricData API 호출을 사용하여 CloudWatch에 사용자 지정 메트릭을 제출합니다. API 호출을 사용하도록 설정하는 데 필요한 자격 증명을 제공합니다.
  • D. CloudWatch PutMetricData API 호출을 사용하여 CloudWatch에 사용자 지정 메트릭을 제출합니다. 필요한 IAM 역할로 EC2 인스턴스를 시작하여 API 호출을 활성화합니다.
PutMetricData API를 통해 지표 데이터를 CloudWatch에 게시합니다.
EC2 인스턴스에 CloudeWatchAgentServerRole IAM 역할을 연결해야 인스턴스에서 CloudWatch 에이전트를 실행할 수 있습니다.

 

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "cloudwatch:PutMetricData"
            ],
            "Resource": "*"
        },
        {
            "Effect": "Allow",
            "Action": [
                "ssm:GetParameter"
            ],
            "Resource": "arn:aws:ssm:*:*:parameter/AmazonCloudWatch-*"
        }
    ]
}

CloudWatch 에이전트를 사용하여 Amazon EC2 인스턴스 및 온프레미스 서버에서 지표 및 로그 수집 - Amazon CloudWatch

 

CloudWatch 에이전트를 사용하여 Amazon EC2 인스턴스 및 온프레미스 서버에서 지표 및 로그 수집 - Amaz

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q18.

What are the best practices for using bespoke libraries in AWS Lambda?

  • A. Host the library on Amazon S3 and reference to it from the Lambda function.
  • B. Install the library locally and upload a ZIP file of the Lambda function.
  • C. Import the necessary Lambda blueprint when creating the function.
  • D. Modify the function runtime to include the necessary library.

AWS Lambda에서 맞춤형 라이브러리를 사용하는 가장 좋은 방법은 무엇입니까?

  • A. Amazon S3에서 라이브러리를 호스팅하고 Lambda 함수에서 라이브러리를 참조합니다.
  • B. Library를 로컬에 설치하고 Lambda 기능의 ZIP 파일을 업로드합니다.
  • C. 함수를 생성할 때 필요한 람다 Blueprint를 가져옵니다.
  • D. 필요한 라이브러리를 포함하도록 함수 런타임을 수정합니다.
LD_LIBRARY_PATH 환경변수를 통해 시스템 라이브러리 경로를 참조하거나
NODE_PATH(Node.js 라이브러리 경로), PYTHONPATH(Python 라이브러리 경로)를 사용하여 라이브러리를 참조할 수 있습니다.

AWS Lambda 환경 변수 사용 - AWS Lambda

 

AWS Lambda 환경 변수 사용 - AWS Lambda

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q19.

The application components of a big firm are scattered across several AWS accounts. The organization must gather and display account-level trace data.

What materials should be utilized to achieve these specifications?

  • A. AWS X-Ray
  • B. Amazon CloudWatch
  • C. Amazon VPC flow logs
  • D. Amazon Elasticsearch Service

한 대기업의 애플리케이션 구성요소는 여러 AWS 계정에 분산되어 있습니다. 조직은 계정 수준 추적 데이터를 수집하고 표시해야 합니다.

이러한 규격을 달성하기 위해 어떤 재료를 사용해야 하는가?

  • A. AWS X-Ray
  • B. Amazon CloudWatch
  • C. Amazon VPC 흐름 로그
  • D. Amazon Elastic 검색 서비스
AWS X-Ray는 애플리케이션이 처리하는 요청에 대한 데이터를 수집하는 서비스입니다.
호스트, 요청정보, 응답, 완료된 작업, 발생하는 문제 등의 데이터를 기록하고 표시할 수 있습니다.

AWS X-Ray란 무엇입니까? - AWS X-Ray

 

AWS X-Ray란 무엇입니까? - AWS X-Ray

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다. AWS X-Ray란 무엇입니까? AWS X-Ray는 애플리케이션이 처리하는 요청에 대한 데

docs.aws.amazon.com


Q20.

Amazon DynamoDB is used by an application that is deployed on Amazon EC2. The program makes a REST API request to DynamoDB. Periodically, when the application writes to a DynamoDB table, it gets a ProvisionedThroughputExceededException error.

Which solutions will most effectively prevent this error? (Select two.)

  • A. Modify the application code to perform exponential backoff when the error is received.
  • B. Modify the application to use the AWS SDKs for DynamoDB.
  • C. Increase the read and write throughput of the DynamoDB table.
  • D. Create a DynamoDB Accelerator (DAX) cluster for the DynamoDB table.
  • E. Create a second DynamoDB table. Distribute the reads and writes between two tables.

Amazon DynamoDB는 Amazon EC2에 배포된 애플리케이션에서 사용됩니다. 프로그램이 DynamoDB에 REST API 요청을 합니다. 애플리케이션이 DynamoDB 테이블에 주기적으로 쓸 때 프로비저닝됨처리량 초과예외 오류입니다.

이 오류를 가장 효과적으로 방지할 수 있는 솔루션은 무엇입니까? (두 가지 선택)

  • A. 오류가 수신될 때 지수 백오프를 수행하도록 응용 프로그램 코드를 수정합니다.
  • B. DynamoDB용 AWS SDK를 사용하도록 응용 프로그램을 수정합니다.
  • C. DynamoDB 테이블의 읽기 및 쓰기 처리량을 늘립니다.
  • D. DynamoDB 테이블에 대한 DAX(DynamoDB Accelerator) 클러스터를 만듭니다.
  • E. 두 번째 DynamoDB 테이블을 만듭니다. 두 테이블 사이에 읽기 및 쓰기를 분산합니다.
ProvisionedThroughputExceededException 에러는 요청량이 너무 높은 경우 발생합니다. 자동으로 재시도 하지만
오류 재시도 횟수 및 지수 백오프를 사용하여 요청빈도를 줄이는것이 권장됩니다.

DynamoDB 관련 오류 처리 - Amazon DynamoDB

 

DynamoDB 관련 오류 처리 - Amazon DynamoDB

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com

 

반응형

댓글