본문 바로가기
Etc/AWS

[AWS] [Q81~Q100]DVA-C01 AWS Certified Developer Associate

by 오이가지아빠 2022. 8. 11.
한글 번역은 파파고 번역이기 때문에 어색할 수 있습니다.
단어 하나하나 보다는 맥락을 이해하시면 도움이 될 것 같습니다.

 

Q.81

A Linux EC2 instance operating on Amazon Web Services requires management of the AWS architecture.

How may an Amazon EC2 instance be configured to perform secure AWS API calls?

  • A. Sign the AWS CLI command using the signature version 4 process.
  • B. Run the aws configure AWS CLI command and specify the access key id and secret access key.
  • C. Specify a role for the EC2 instance with the necessary privileges.
  • D. Pass the access key id and secret access key as parameters for each AWS CLI command.

Amazon Web Services에서 작동하는 Linux EC2 인스턴스에는 AWS 아키텍처 관리가 필요합니다.

안전한 AWS API 호출을 수행하도록 Amazon EC2 인스턴스를 구성하려면 어떻게 해야 합니까?

  • A. signature version 4 프로세스를 사용하여 AWS CLI 명령에 서명합니다.
  • B. aws configure AWS CLI 명령을 실행하고 액세스 키 ID와 보안 액세스 키를 지정합니다.
  • C. 필요한 권한이 있는 EC2 인스턴스의 역할을 지정합니다.
  • D. 액세스 키 ID와 보안 액세스 키를 각 AWS CLI 명령에 대한 파라미터로 전달합니다.
애플리케이션이 사용하는 보안 자격 증명을 직접 관리할 필요 없이 인스턴스의 애플리케이션에서 안전하게 API 요청을 전송할 수 있도록 IAM 역할을 설계했습니다. AWS 자격 증명을 생성하고 배포하는 대신 IAM 역할을 사용하여 API 요청 전송 권한을 위임할 수 있습니다.

Amazon EC2의 IAM 역할 - Amazon Elastic Compute Cloud

 

Amazon EC2의 IAM 역할 - Amazon Elastic Compute Cloud

IAM 역할과 함께 인스턴스 메타데이터를 사용하는 서비스를 사용하는 경우 서비스에서 사용자 대신 HTTP 호출을 수행할 때 자격 증명이 노출되지 않도록 주의하세요. 자격 증명이 노출될 수 있는

docs.aws.amazon.com


Q.82

What is needed to use AWS X-Ray to trace Lambda-based applications?

  • A. Send logs from the Lambda application to an S3 bucket; trigger a Lambda function from the bucket to send data to AWS X-Ray.
  • B. Trigger a Lambda function from the application logs in Amazon CloudWatch to submit tracing data to AWS X-Ray.
  • C. Use an IAM execution role to give the Lambda function permissions and enable tracing.
  • D. Update and add AWS X-Ray daemon code to relevant parts of the Lambda function to set up the trace.

AWS X-Ray를 사용하여 Lambda 기반 애플리케이션을 추적하려면 무엇이 필요합니까?

  • A. Lambda 애플리케이션에서 S3 버킷으로 로그를 보냅니다. 버킷에서 Lambda 함수를 트리거하여 AWS X-Ray로 데이터를 보냅니다.
  • B. Amazon CloudWatch의 애플리케이션 로그에서 Lambda 함수를 트리거하여 추적 데이터를 AWS X-Ray에 제출합니다.
  • C. IAM 실행 역할을 사용하여 Lambda 함수 권한을 부여하고 추적을 활성화합니다.
  • D. AWS X-Ray 데몬 코드를 업데이트하고 Lambda 함수의 관련 부분에 추가하여 추적을 설정합니다.
함수에 추적 데이터를 X-Ray로 업로드할 권한이 있어야 합니다. Lambda 콘솔에서 추적을 활성화하면 Lambda가 필요한 권한을 함수의 실행 역할에 추가합니다. 

AWS Lambda와 함께 AWS X-Ray 사용 - AWS Lambda (amazon.com)

 

AWS Lambda와 함께 AWS X-Ray 사용 - AWS Lambda

Lambda에서는 X-Ray SDK를 사용하여 Invocation 하위 세그먼트를 다운스트림 호출, 주석 및 메타데이터에 대한 추가 하위 세그먼트로 확장할 수 있습니다. 함수 세그먼트에 직접 액세스하거나 핸들러

docs.aws.amazon.com


Q.83

A developer wishes to lower the execution time of a complete Amazon DynamoDB database scan during off-peak hours without impairing typical workloads. During non-peak hours, workloads average around half of the highly constant read capacity units.

How would the Developer optimize this scan if he or she were the developer?

  • A. Use parallel scans while limiting the rate
  • B. Use sequential scans
  • C. Increase read capacity units during the scan operation
  • D. Change consistency to eventually consistent during the scan operation

개발자는 일반적인 워크로드를 손상시키지 않으면서 사용량이 적은 시간에 전체 Amazon DynamoDB 데이터베이스 스캔의 실행 시간을 낮추기를 원합니다. 사용량이 많지 않은 시간 동안 워크로드는 평균적으로 매우 일정한 읽기 용량 단위의 절반 정도입니다.

개발자가 개발자라면 이 스캔을 어떻게 최적화할까요?

  • A. 속도를 제한하면서 병렬 스캔 사용
  • B. 순차 스캔 사용
  • C. 스캔 작업 중 읽기 용량 단위 늘리기
  • D. 스캔 작업 중 일관성을 최종 일관성으로 변경
테이블의 프로비저닝된 처리량을 최대한 활용하려면 병렬 스캔 API 작업을 사용하여 스캔이 테이블의 파티션에 분산되도록 해야 합니다. 그러나 검색이 테이블의 프로비저닝된 처리량을 소비하지 않고 응용 프로그램의 중요한 부분을 제한하지 않도록 주의해야 합니다. 제한을 피하려면 클라이언트 응용 프로그램의 속도 제한을 적용해야 합니다.

데이터 쿼리 및 스캔 모범 사례 - Amazon DynamoDB

 

데이터 쿼리 및 스캔 모범 사례 - Amazon DynamoDB

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com

Amazon DynamoDB의 속도 제한 스캔 | AWS 개발자 도구 블로그

 

Rate-Limited Scans in Amazon DynamoDB | Amazon Web Services

Today we’re lucky to have another guest post by David Yanacek from the Amazon DynamoDB team. David is sharing his deep knowledge on Amazon DynamoDB to help explain how to manage performance and throughput usage on your DynamoDB tables. When you scan your

aws.amazon.com


Q.84

A developer has an on-premises legacy application. Other AWS-hosted apps rely on the on-premises application for optimal operation.
In the event of any application failures, the Developer want to be able to monitor and debug all apps from a single location using Amazon CloudWatch.

How is this accomplished by the Developer?

  • A. Install an AWS SDK on the on-premises server to automatically send logs to CloudWatch.
  • B. Download the CloudWatch agent to the on-premises server. Configure the agent to use IAM user credentials with permissions for CloudWatch.
  • C. Upload log files from the on-premises server to Amazon S3 and have CloudWatch read the files.
  • D. Upload log files from the on-premises server to an Amazon EC2 instance and have the instance forward the logs to CloudWatch.

개발자에게 온프레미스 레거시 애플리케이션이 있습니다. 다른 AWS 호스팅 앱은 최적의 운영을 위해 온프레미스 애플리케이션에 의존합니다.
애플리케이션 오류가 발생하는 경우 개발자는 Amazon CloudWatch를 사용하여 단일 위치에서 모든 앱을 모니터링하고 디버그할 수 있기를 원합니다.

이것은 개발자가 어떻게 수행합니까?

  • A. 온프레미스 서버에 AWS SDK를 설치하면 CloudWatch에 자동으로 로그가 전송됩니다.
  • B. CloudWatch 에이전트를 온프레미스 서버에 다운로드합니다. CloudWatch에 대한 권한이 있는 IAM 사용자 자격 증명을 사용하도록 에이전트를 구성합니다.
  • C. 온프레미스 서버에서 Amazon S3로 로그 파일을 업로드하고 CloudWatch에서 파일을 읽도록 합니다.
  • D. 온프레미스 서버에서 Amazon EC2 인스턴스로 로그 파일을 업로드하고 인스턴스가 로그를 CloudWatch로 전달하도록 합니다.
한 컴퓨터에 CloudWatch 에이전트를 다운로드하고 원하는 에이전트 구성 파일을 생성한 경우 해당 구성 파일을 사용하여 다른 온프레미스 서버에 에이전트를 설치할 수 있습니다.
CloudWatch 에이전트가 온프레미스 서버의 데이터를 보낼 수 있도록 하려면 이전에 생성한 IAM 사용자의 액세스 키 및 보안 키를 지정해야 합니다.

온프레미스 서버에 CloudWatch 에이전트 설치 - Amazon CloudWatch

 

온프레미스 서버에 CloudWatch 에이전트 설치 - Amazon CloudWatch

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.85

Amazon API Gateway is being used by a developer to act as an HTTP proxy for a backend endpoint. Three distinct settings exist: development, testing, and production. Each environment has a step in the API that corresponds to it.
Without building a new API for each step, the developer must route traffic to distinct backend destinations.

Which solution will satisfy these criteria?

  • A. Add a model to the API. Add a schema to differentiate the different backend endpoints
  • B. Create stage variables. Configure the variables in the HTTP integration request of the API.
  • C. Use API custom authorizers to create an authorizer for each of the different stages.
  • D. Update the integration response of the API to add different backend endpoint.

Amazon API Gateway는 백엔드 엔드포인트에 대한 HTTP 프록시 역할을 하기 위해 개발자가 사용하고 있습니다. 개발, 테스트 및 프로덕션의 세 가지 설정이 있습니다. 각 환경에는 해당하는 API의 단계가 있습니다.
각 단계에 대해 새 API를 빌드하지 않고 개발자는 트래픽을 고유한 백엔드 대상으로 라우팅해야 합니다.

이러한 기준을 충족하는 솔루션은 무엇입니까?

  • A. API에 모델을 추가합니다. 다양한 백엔드 엔드포인트를 구분하기 위한 스키마 추가
  • B. 단계 변수를 생성합니다. API의 HTTP 통합 요청에서 변수를 구성합니다.
  • C. API 사용자 지정 권한 부여자를 사용하여 서로 다른 각 단계에 대한 권한 부여자를 만듭니다.
  • D. API의 통합 응답을 업데이트하여 다른 백엔드 엔드포인트를 추가합니다.
API Gateway의 배포 단계에서 각 API에 대한 여러 릴리스 단계(예: 알파, 베타 및 프로덕션)를 관리할 수 있습니다. 단계 변수를 사용하여 API 배포 단계가 다양한 백엔드 엔드포인트와 상호 작용하도록 구성할 수 있습니다.

REST API 배포에 대한 스테이지 변수 설정 - Amazon API Gateway

 

REST API 배포에 대한 스테이지 변수 설정 - Amazon API Gateway

REST API 배포에 대한 스테이지 변수 설정 단계 변수는 REST API의 배포 단계와 연결된 구성 속성으로 정의되는 이름-값 페어입니다. 환경 변수와 비슷한 역할을 하며 API 설정 및 매핑 템플릿에 사용

docs.aws.amazon.com


Q.86

A development team has released ten applications that are operating on Amazon EC2 instances. A graphical representation of the data is required by the Operations team.
For each application, there is one critical performance metric. For convenient monitoring, all of these metrics should be presented on a single screen.
Which actions should the developer take to use Amazon CloudWatch to do this?

  • A. Create a custom namespace with a unique metric name for each application.
  • B. Create a custom dimension with a unique metric name for each application.
  • C. Create a custom event with a unique metric name for each application.
  • D. Create a custom alarm with a unique metric name for each application.

개발 팀은 Amazon EC2 인스턴스에서 작동하는 10개의 애플리케이션을 출시했습니다. 운영 팀은 데이터를 그래픽으로 표현해야 합니다.
각 애플리케이션에 대해 하나의 중요한 성능 메트릭이 있습니다. 편리한 모니터링을 위해 이러한 모든 메트릭이 단일 화면에 표시되어야 합니다.
개발자는 Amazon CloudWatch를 사용하여 이를 수행하기 위해 어떤 조치를 취해야 합니까?

  • A. 각 애플리케이션에 대해 고유한 메트릭 이름을 사용하여 사용자 지정 네임스페이스를 만듭니다.
  • B. 각 애플리케이션에 대해 고유한 메트릭 이름을 사용하여 사용자 지정 차원을 만듭니다.
  • C. 각 애플리케이션에 대해 고유한 메트릭 이름을 사용하여 사용자 지정 이벤트를 만듭니다.
  • D. 각 애플리케이션에 대해 고유한 메트릭 이름을 사용하여 사용자 지정 경보를 생성합니다.
네임스페이스는 CloudWatch 지표의 컨테이너입니다.

Amazon CloudWatch 개념 - Amazon CloudWatch

 

Amazon CloudWatch 개념 - Amazon CloudWatch

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.87

On AWS, a business hosts a multi-tiered web application. During a recent increase in traffic, one of Amazon RDS's key relational databases was unable to handle the volume. Certain read queries for frequently visited objects failed, resulting in error messages being shown to users.

What can be done to reduce the effect of future traffic surges on database read queries most efficiently?

  • A. Use Amazon S3 to cache database query results.
  • B. Use Amazon RDS as a custom origin for Amazon CloudFront.
  • C. Use local storage and memory on Amazon EC2 instances to cache data.
  • D. Use Amazon ElastiCache in front of the primary database to cache data.

AWS에서 기업은 다계층 웹 애플리케이션을 호스팅합니다. 최근 트래픽이 증가하는 동안 Amazon RDS의 주요 관계형 데이터베이스 중 하나가 볼륨을 처리할 수 없었습니다. 자주 방문하는 개체에 대한 특정 읽기 쿼리가 실패하여 사용자에게 오류 메시지가 표시되었습니다.

데이터베이스 읽기 쿼리에 대한 향후 트래픽 급증의 영향을 가장 효율적으로 줄이기 위해 무엇을 할 수 있습니까?

  • A. Amazon S3를 사용하여 데이터베이스 쿼리 결과를 캐시합니다.
  • B. Amazon CloudFront의 사용자 지정 오리진으로 Amazon RDS를 사용합니다.
  • C. Amazon EC2 인스턴스의 로컬 스토리지 및 메모리를 사용하여 데이터를 캐시합니다.
  • D. 주 데이터베이스 앞에서 Amazon ElastiCache를 사용하여 데이터를 캐시합니다.
일부 데이터베이스 쿼리는 특히 수행하는 데 있어 많은 비용이 듭니다. 예로는 여러 표에 걸친 조인이나 복잡한 계산이 포함된 쿼리를 들 수 있습니다. 이러한 쿼리 결과를 캐시하여 쿼리 가격을 한 번만 지불합니다. 그런 다음 쿼리를 다시 실행할 필요 없이 여러 번 데이터를 빠르게 검색할 수 있습니다.

일반적인 ElastiCache 사용 사례 및 ElastiCache 활용 방법 - Amazon ElastiCache

 

일반적인 ElastiCache 사용 사례 및 ElastiCache 활용 방법 - Amazon ElastiCache

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.88

Due to increasing demand, an application is having performance challenges. This increasing demand is for read-only historical records that are extracted using bespoke views and queries from an Amazon RDS-hosted database. A developer's objective is to optimize performance without altering the database's structure.

Which technique will maximize performance while minimizing management costs?

  • A. Deploy Amazon DynamoDB, move all the data, and point to DynamoDB.
  • B. Deploy Amazon ElastiCache for Redis and cache the data for the application.
  • C. Deploy Memcached on Amazon EC2 and cache the data for the application.
  • D. Deploy Amazon DynamoDB Accelerator (DAX) on Amazon RDS to improve cache performance.

수요 증가로 인해 애플리케이션에 성능 문제가 있습니다. 이 증가하는 수요는 Amazon RDS 호스팅 데이터베이스에서 맞춤형 보기 및 쿼리를 사용하여 추출되는 읽기 전용 기록 레코드에 대한 것입니다. 개발자의 목표는 데이터베이스 구조를 변경하지 않고 성능을 최적화하는 것입니다.

관리 비용을 최소화하면서 성능을 최대화하는 기술은 무엇입니까?

  • A. Amazon DynamoDB를 배포하고 모든 데이터를 이동한 다음 DynamoDB를 가리킵니다.
  • B. Redis용 Amazon ElastiCache를 배포하고 애플리케이션에 대한 데이터를 캐시합니다.
  • C. Amazon EC2에 Memcached를 배포하고 애플리케이션에 대한 데이터를 캐시합니다.
  • D. Amazon RDS에 Amazon DynamoDB Accelerator(DAX)를 배포하여 캐시 성능을 개선합니다.
속도가 느리고 비용이 많이 드는 쿼리를 통해서만 얻을 수 있는 데이터라면 캐시가 필요합니다. 비교적 빠르고 간단한 쿼리로 얻을 수 있는 데이터라도 다른 요인에 따라 캐싱이 필요할 수 있습니다.

일반적인 ElastiCache 사용 사례 및 ElastiCache 활용 방법 - Amazon ElastiCache for Redis

 

일반적인 ElastiCache 사용 사례 및 ElastiCache 활용 방법 - Amazon ElastiCache for Redis

이 예제에서는 ZADD를 사용하여 게이머 4명과 이들의 점수를 정렬 목록에 입력합니다. ZREVRANGEBYSCORE 명령이 높은 점수에서 낮은 점수 순서로 플레이어를 나열합니다. 그런 다음 ZADD를 사용해 기존

docs.aws.amazon.com


Q.89

A business must send firmware upgrades to all of its consumers worldwide.

Which solution will provide simple and secure control of download access at the lowest possible cost?

  • A. Use Amazon CloudFront with signed URLs for Amazon S3
  • B. Create a dedicated Amazon CloudFront Distribution for each customer
  • C. Use Amazon CloudFront with AWS Lambda@Edge
  • D. Use Amazon API Gateway and AWS Lambda to control access to an S3 bucket

기업은 전 세계의 모든 소비자에게 펌웨어 업그레이드를 보내야 합니다.

가장 저렴한 비용으로 다운로드 액세스를 간단하고 안전하게 제어할 수 있는 솔루션은 무엇입니까?

  • A. Amazon S3용 서명된 URL과 함께 Amazon CloudFront 사용
  • B. 각 고객을 위한 전용 Amazon CloudFront 배포 생성
  • C. AWS Lambda@Edge와 함께 Amazon CloudFront 사용
  • D. Amazon API Gateway 및 AWS Lambda를 사용하여 S3 버킷에 대한 액세스 제어
정적 콘텐츠를 저장하고 전송하기 위한 간단한 방법은 Amazon S3 버킷을 사용하는 것입니다. S3와 CloudFront를 함께 사용하면 OAI(원본 액세스 ID)를 통해 S3 콘텐츠에 대한 액세스를 쉽게 제한할 수 있으며 이외에도 다양한 장점이 있습니다.

CloudFront 사용 사례 - Amazon CloudFront

 

CloudFront 사용 사례 - Amazon CloudFront

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.90

A business want to use Amazon API Gateway to enable authentication for its new REST service. Each request must include HTTP headers including a client ID and a user ID in order to authenticate the calls. These credentials must be matched to data stored in an Amazon DynamoDB database for authentication.

What actions MUST the company take to implement this authorization in the API global Gateway?

  • A. Implement an AWS Lambda authorizer that references the DynamoDB authentication table
  • B. Create a model that requires the credentials, then grant API Gateway access to the authentication table
  • C. Modify the integration requests to require the credentials, then grant API Gateway access to the authentication table
  • D. Implement an Amazon Cognito authorizer that references the DynamoDB authentication table

비즈니스에서 Amazon API Gateway를 사용하여 새 REST 서비스에 대한 인증을 활성화하려고 합니다. 각 요청은 호출을 인증하기 위해 클라이언트 ID와 사용자 ID를 포함하는 HTTP 헤더를 포함해야 합니다. 이러한 자격 증명은 인증을 위해 Amazon DynamoDB 데이터베이스에 저장된 데이터와 일치해야 합니다.

API 글로벌 게이트웨이에서 이 인증을 구현하기 위해 회사가 취해야 하는 조치는 무엇입니까?

  • A. DynamoDB 인증 테이블을 참조하는 AWS Lambda 권한 부여자 구현
  • B. 자격 증명이 필요한 모델을 생성한 다음 인증 테이블에 대한 API Gateway 액세스 권한 부여
  • C. 자격 증명을 요구하도록 통합 요청을 수정한 다음 인증 테이블에 대한 API Gateway 액세스 권한 부여
  • D. DynamoDB 인증 테이블을 참조하는 Amazon Cognito 권한 부여자 구현
Lambda 권한 부여자는 Lambda 함수를 사용하여 API 메서드에 대한 액세스를 제어하는 API Gateway 기능입니다.

API Gateway Lambda 권한 부여자 사용 - Amazon API Gateway

 

API Gateway Lambda 권한 부여자 사용 - Amazon API Gateway

프로덕션 코드에서는 권한 부여를 허용하기 전에 사용자를 인증해야 할 수 있습니다. 이 경우, 해당 공급자의 설명서에서 설명한 대로 인증 공급자를 호출하여 Lambda 함수에 인증 로직을 추가할

docs.aws.amazon.com


Q.91

A developer is in the process of transferring legacy apps to AWS. These apps will be launched on Amazon EC2 instances and will utilize MongoDB as their main data storage. Management expects developers to make minimal modifications to apps while using AWS services.

Which option should the developer use to host MongoDB on Amazon Web Services (AWS)?

  • A. Install MongoDB on the same instance where the application is running.
  • B. Deploy Amazon DocumentDB in MongoDB compatibility mode.
  • C. Use Amazon API Gateway to translate API calls from MongoDB to Amazon DynamoDB.
  • D. Replicate the existing MongoDB workload to Amazon DynamoDB.

개발자가 레거시 앱을 AWS로 이전하는 과정에 있습니다. 이러한 앱은 Amazon EC2 인스턴스에서 시작되며 MongoDB를 기본 데이터 스토리지로 활용합니다. 경영진은 개발자가 AWS 서비스를 사용하는 동안 앱을 최소한으로 수정하기를 기대합니다.

개발자는 Amazon Web Services(AWS)에서 MongoDB를 호스팅하기 위해 어떤 옵션을 사용해야 합니까?

  • A. 애플리케이션이 실행되는 동일한 인스턴스에 MongoDB를 설치합니다.
  • B. MongoDB 호환 모드에서 Amazon DocumentDB를 배포합니다.
  • C. Amazon API Gateway를 사용하여 MongoDB에서 Amazon DynamoDB로 API 호출을 변환합니다.
  • D. 기존 MongoDB 워크로드를 Amazon DynamoDB에 복제합니다.
Amazon DocumentDB (MongoDB 호환성 포함) 는 MongoDB API와 호환되는 완전관리형 데이터베이스 서비스입니다.

Amazon DocumentDB - Amazon DocumentDB

 

Amazon DocumentDB - Amazon DocumentDB

AWS DMS 작업은 현재 단일 데이터베이스만 마이그레이션할 수 있습니다. MongoDB 원본에 데이터베이스가 매우 많을 경우 마이그레이션 작업 생성을 자동화하거나 오프라인 방법의 사용을 고려해야

docs.aws.amazon.com


Q.92

Through an API, a company's fleet of Amazon EC2 instances collects data from millions of consumers. To guarantee high access rates, the servers batch the data, create an object for each user, and upload the objects to an S3 bucket. Customer ID, Server ID, TS-Server (TimeStamp and Server ID), the object's size, and a timestamp are the object's properties. A developer wishes to locate all items gathered for a particular user during a certain time period.

How can the developer accomplish this need after establishing an S3 object created event?

  • A. Run an AWS Lambda function in response to the S3 object creation events that creates an Amazon DynamoDB record for every object with the Customer ID as the partition key and the Server ID as the sort key. Retrieve all the records using the Customer ID and Server ID attributes.
  • B. Run an AWS Lambda function in response to the S3 object creation events that creates an Amazon Redshift record for every object with the Customer ID as the partition key and TS-Server as the sort key. Retrieve all the records using the Customer ID and TS-Server attributes.
  • C. Run an AWS Lambda function in response to the S3 object creation events that creates an Amazon DynamoDB record for every object with the Customer ID as the partition key and TS-Server as the sort key. Retrieve all the records using the Customer ID and TS-Server attributes.
  • D. Run an AWS Lambda function in response to the S3 object creation events that creates an Amazon Redshift record for every object with the Customer ID as the partition key and the Server ID as the sort key. Retrieve all the records using the Customer ID and Server ID attributes.

API를 통해 회사의 Amazon EC2 인스턴스 집합은 수백만 명의 소비자로부터 데이터를 수집합니다. 높은 액세스 속도를 보장하기 위해 서버는 데이터를 일괄 처리하고 각 사용자에 대한 객체를 생성하고 객체를 S3 버킷에 업로드합니다. 고객 ID, 서버 ID, TS-Server(TimeStamp 및 서버 ID), 개체의 크기 및 타임스탬프는 개체의 속성입니다. 개발자는 특정 기간 동안 특정 사용자에 대해 수집된 모든 항목을 찾으려고 합니다.

개발자는 S3 객체 생성 이벤트를 설정한 후 이 요구 사항을 어떻게 달성할 수 있습니까?

  • A. 고객 ID를 파티션 키로, 서버 ID를 정렬 키로 사용하여 모든 객체에 대해 Amazon DynamoDB 레코드를 생성하는 S3 객체 생성 이벤트에 대한 응답으로 AWS Lambda 함수를 실행합니다. 고객 ID 및 서버 ID 속성을 사용하여 모든 레코드를 검색합니다.
  • B. 고객 ID를 파티션 키로, TS-Server를 정렬 키로 사용하여 모든 객체에 대해 Amazon Redshift 레코드를 생성하는 S3 객체 생성 이벤트에 대한 응답으로 AWS Lambda 함수를 실행합니다. 고객 ID 및 TS-서버 속성을 사용하여 모든 레코드를 검색합니다.
  • C. 고객 ID를 파티션 키로, TS-Server를 정렬 키로 사용하여 모든 객체에 대해 Amazon DynamoDB 레코드를 생성하는 S3 객체 생성 이벤트에 대한 응답으로 AWS Lambda 함수를 실행합니다. 고객 ID 및 TS-서버 속성을 사용하여 모든 레코드를 검색합니다.
  • D. 고객 ID를 파티션 키로, 서버 ID를 정렬 키로 사용하여 모든 객체에 대해 Amazon Redshift 레코드를 생성하는 S3 객체 생성 이벤트에 대한 응답으로 AWS Lambda 함수를 실행합니다. 고객 ID 및 서버 ID 속성을 사용하여 모든 레코드를 검색합니다.
고객ID를 PK로 설정하고, TS-Server를 정렬키로 설정하면 특정 고객에 대해 수집된 항목을 begins_with, between, >, < 등 연산자를 사용하는 범위 쿼리를 사용하여 특정 기간동안 수집된 항목의 필요한 그룹을 검색할 수 있습니다. 

DynamoDB를 사용한 설계 및 아키텍처 설계 모범 사례 - Amazon DynamoDB

 

DynamoDB를 사용한 설계 및 아키텍처 설계 모범 사례 - Amazon DynamoDB

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.93

A business need a fully managed source control solution that is compatible with AWS. By sharing sets of changes peer-to-peer, the service must guarantee that revision control synchronizes various dispersed repositories. All users must be productive regardless of whether they are connected to a network.

Which version control system should I use?

  • A. Subversion
  • B. AWS CodeBuild
  • C. AWS CodeCommit
  • D. AWS CodeStar

비즈니스에는 AWS와 호환되는 완전 관리형 소스 제어 솔루션이 필요합니다. 변경 사항 집합을 P2P로 공유함으로써 서비스는 개정 제어가 다양한 분산 리포지토리를 동기화하도록 보장해야 합니다. 모든 사용자는 네트워크 연결 여부에 관계없이 생산성을 유지해야 합니다.

어떤 버전 관리 시스템을 사용해야 합니까?

  • A. Subversion
  • B. AWS CodeBuild
  • C. AWS CodeCommit
  • D. AWS CodeStar
AWS CodeCommit는 클라우드에서 자산 (예: 문서, 소스 코드, 바이너리 파일) 을 비공개로 저장하여 관리하는 데 사용할 수 있도록 Amazon Web Services Services에서 호스팅되는 버전 관리 서비스입니다.

AWS CodeCommit란 무엇입니까? - AWS CodeCommit (amazon.com)

 

AWS CodeCommit란 무엇입니까? - AWS CodeCommit

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.94

A developer is tasked with the responsibility of creating a cache layer in front of Amazon RDS. In the event of a service outage, it is costly to regenerate cached material.

Which of the following implementations would work best in terms of uptime?

  • A. Implement Amazon ElastiCache Redis in Cluster Mode
  • B. Install Redis on an Amazon EC2 instance.
  • C. Implement Amazon ElastiCache Memcached.
  • D. Migrate the database to Amazon Redshift.

개발자는 Amazon RDS 앞에 캐시 계층을 생성할 책임이 있습니다. 서비스 중단 시 캐시된 자료를 재생성하는 데 비용이 많이 듭니다.

다음 중 가동 시간 측면에서 가장 잘 작동하는 구현은 무엇입니까?

  • A. 클러스터 모드에서 Amazon ElastiCache Redis 구현
  • B. Amazon EC2 인스턴스에 Redis를 설치합니다.
  • C. Amazon ElastiCache Memcached를 구현합니다.
  • D. 데이터베이스를 Amazon Redshift로 마이그레이션합니다.
Memcached는 노드간의 복제를 허용하지 않는 반면, Redis는 Failover기능을 지원하여 복구가 가능합니다.

Redis vs. Memcached | AWS (amazon.com)

 

Redis vs. Memcached | AWS

Redis and Memcached are popular, open-source, in-memory data stores. Although they are both easy to use and offer high performance, there are important differences to consider when choosing an engine. Memcached is designed for simplicity while Redis offer

aws.amazon.com


Q.95

On an Amazon EC2 instance, a developer is executing an application. When the program attempts to read from an Amazon S3 bucket, it fails. The developer discovers that the S3 read permission is missing from the related IAM role. The developer must enable the application to read from the S3 bucket.

Which solution satisfies this need with the MINIMUM amount of application downtime?

  • A. Add the permission to the role. Terminate the existing EC2 instance. Launch a new EC2 instance
  • B. Add the permission to the role so that the change will take effect automatically
  • C. Add the permission to the role. Hibernate and restart the existing EC2 instance.
  • D. Add the permission to the S3 bucket. Restart the EC2 instance.

Amazon EC2 인스턴스에서 개발자가 애플리케이션을 실행하고 있습니다. 프로그램이 Amazon S3 버킷에서 읽으려고 하면 실패합니다. 개발자는 관련 IAM 역할에서 S3 읽기 권한이 누락되었음을 발견합니다. 개발자는 애플리케이션이 S3 버킷에서 읽을 수 있도록 해야 합니다.

최소 애플리케이션 가동 중지 시간으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 역할에 권한을 추가합니다. 기존 EC2 인스턴스를 종료합니다. 새 EC2 인스턴스 시작
  • B. 변경 사항이 자동으로 적용되도록 역할에 권한 추가
  • C. 역할에 권한을 추가합니다. 기존 EC2 인스턴스를 최대 절전 모드로 전환하고 다시 시작합니다.
  • D. S3 버킷에 권한을 추가합니다. EC2 인스턴스를 다시 시작합니다.
IAM역할에 권한을 추가하고, 다시 시작할 필요가 없습니다.

S3 버킷에 대한 EC2 인스턴스 액세스 권한 부여 (amazon.com)

 

S3 버킷에 대한 EC2 인스턴스 액세스 권한 부여

Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스에서 Amazon Simple Storage Service(Amazon S3) 버킷에 액세스할 수 없습니다. EC2 인스턴스에서 S3 버킷에 대한 읽기/쓰기 액세스를 활성화하려면 어떻게 해야 하나

aws.amazon.com


Q.96

A developer wishes to get a list of objects from an Amazon DynamoDB table's global secondary index.

Which DynamoDB API call should the developer use to utilize the fewest read capacity units possible?

  • A. Scan operation using eventually-consistent reads
  • B. Query operation using strongly-consistent reads
  • C. Query operation using eventually-consistent reads
  • D. Scan operation using strongly-consistent reads

개발자가 Amazon DynamoDB 테이블의 글로벌 보조 인덱스에서 객체 목록을 가져오려고 합니다.

개발자는 가능한 가장 적은 읽기 용량 단위를 활용하기 위해 어떤 DynamoDB API 호출을 사용해야 합니까?

  • A. 최종 일관성 읽기를 사용한 스캔 작업
  • B. 강력하게 일관된 읽기를 사용한 쿼리 작업
  • C. 최종 일관성 읽기를 사용한 쿼리 작업
  • D. 강력하게 일관된 읽기를 사용한 스캔 작업
쿼리 작업은 스캔 작업보다 가볍습니다. 또한, 일관된 읽기보다 강력하게 일관된 읽기 작업이 더 많은 처리량을 사용합니다.

데이터 쿼리 및 스캔 모범 사례 - Amazon DynamoDB

 

데이터 쿼리 및 스캔 모범 사례 - Amazon DynamoDB

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.97

A corporation is deploying one of their apps using AWS CodePipeline. The delivery pipeline is triggered by modifications to the master branch of an AWS CodeCommit repository and utilizes AWS CodeBuild for the test and build phases, as well as AWS CodeDeploy for application deployment.
For many months, the pipeline has operated effectively with no adjustments. AWS CodeDeploy failed to deploy the updated application as planned after a recent modification to the application's source code.

What may be the underlying causes? (Select two.)

  • A. The change was not made in the master branch of the AWS CodeCommit repository.
  • B. One of the earlier stages in the pipeline failed and the pipeline has terminated.
  • C. One of the Amazon EC2 instances in the company's AWS CodePipeline cluster is inactive.
  • D. The AWS CodePipeline is incorrectly configured and is not executing AWS CodeDeploy.
  • E. AWS CodePipeline does not have permissions to access AWS CodeCommit.

기업에서 AWS CodePipeline을 사용하여 앱 중 하나를 배포하고 있습니다. 전달 파이프라인은 AWS CodeCommit 리포지토리의 마스터 브랜치에 대한 수정으로 트리거되며 테스트 및 빌드 단계에는 AWS CodeBuild를 사용하고 애플리케이션 배포에는 AWS CodeDeploy를 활용합니다.
수개월 동안 파이프라인은 조정 없이 효과적으로 운영되었습니다. AWS CodeDeploy는 최근 애플리케이션 소스 코드를 수정한 후 업데이트된 애플리케이션을 계획대로 배포하지 못했습니다.

근본적인 원인은 무엇입니까? (2개를 선택하세요.)

  • A. AWS CodeCommit 리포지토리의 마스터 브랜치에서 변경 사항이 적용되지 않았습니다.
  • B. 파이프라인의 초기 단계 중 하나가 실패하여 파이프라인이 종료되었습니다.
  • C. 회사의 AWS CodePipeline 클러스터에 있는 Amazon EC2 인스턴스 중 하나가 비활성 상태입니다.
  • D. AWS CodePipeline이 잘못 구성되어 AWS CodeDeploy를 실행하지 않습니다.
  • E. AWS CodePipeline에는 AWS CodeCommit에 액세스할 수 있는 권한이 없습니다.
수개월 동안 운영되었기 때문에 권한이나 pipeline구성 문제는 아닐 것입니다.

EC2 인스턴스에서 실패한 CodeDeploy 배포 문제 해결 (amazon.com)

 

EC2 인스턴스에서 실패한 CodeDeploy 배포 문제 해결

AWS Systems Manager AWSSupport-TroubleshootCodeDeploy Automation 런북을 사용해 실패한 배포 문제를 해결할 수 있습니다. 런북은 다음과 같은 이유로 인한 배포 실패를 식별하는 데 도움이 됩니다. CodeDeploy 에이

aws.amazon.com


Q.98

A developer is attempting to use the SDK to perform API requests. The application's IAM user credentials need multi-factor authentication for all API requests.

Which mechanism does the developer use to get access to the API that is protected by multi-factor authentication?

  • A. GetFederationToken
  • B. GetCallerIdentity
  • C. GetSessionToken
  • D. DecodeAuthorizationMessage

개발자가 SDK를 사용하여 API 요청을 수행하려고 합니다. 애플리케이션의 IAM 사용자 자격 증명에는 모든 API 요청에 대해 다단계 인증이 필요합니다.

개발자는 다단계 인증으로 보호되는 API에 액세스하기 위해 어떤 메커니즘을 사용합니까?

  • A. GetFederationToken
  • B. GetCallerIdentity
  • C. GetSessionToken
  • D. DecodeAuthorizationMessage
일반적으로 MFA를 사용하여 특정 AWS API에 대한 프로그래밍 방식의 호출을 보호하려는 경우 GetSessionToken을 사용합니다

GetSessionToken에 대한 권한 - AWS Identity and Access Management (amazon.com)

 

GetSessionToken에 대한 권한 - AWS Identity and Access Management

GetSessionToken에 대한 권한 GetSessionToken API 작업 또는 get-session-token CLI 명령을 호출해야 하는 기본적인 경우는 사용자가 멀티 팩터 인증(MFA)으로 인증되어야 할 때입니다. MFA로 인증된 사용자가 요

docs.aws.amazon.com


Q.99

There are two categories of members on a video-hosting website: those who pay a charge and those who do not. Each video upload creates a message in Amazon Simple Queue Service (SQS). Each video is processed by a fleet of Amazon EC2 instances that poll Amazon SQS.
The developer must guarantee that the developer processes the films submitted by paying users first.

How is the developer to achieve this criterion?

  • A. Create two SQS queues: one for paying members, and one for non-paying members. Poll the paying member queue first and then poll the non-paying member queue.
  • B. Use SQS to set priorities on individual items within a single queue; give the paying members' videos the highest priority.
  • C. Use SQS to set priorities on individual items within a single queue and use Amazon SNS to encode the videos.
  • D. Create two Amazon SNS topics: one for paying members and one for non-paying members. Use SNS topic subscription priorities to differentiate between the two types of members.

비디오 호스팅 웹사이트에는 두 가지 범주의 회원이 있습니다. 비용을 지불하는 사람과 지불하지 않는 사람입니다. 각 비디오 업로드는 Amazon Simple Queue Service(SQS)에 메시지를 생성합니다. 각 비디오는 Amazon SQS를 폴링하는 Amazon EC2 인스턴스 집합에서 처리됩니다.
개발자는 유료 사용자가 제출한 영화를 먼저 개발자가 처리하도록 보장해야 합니다.

개발자는 이 기준을 어떻게 달성합니까?

  • A. 두 개의 SQS 대기열을 만듭니다. 하나는 유료 회원용이고 다른 하나는 비회원용입니다. 먼저 유료 회원 대기열을 폴링한 다음 비지불 회원 대기열을 폴링합니다.
  • B. SQS를 사용하여 단일 대기열 내의 개별 항목에 대한 우선 순위를 설정합니다. 유료 회원의 동영상에 가장 높은 우선 순위를 부여합니다.
  • C. SQS를 사용하여 단일 대기열 내의 개별 항목에 대한 우선 순위를 설정하고 Amazon SNS를 사용하여 비디오를 인코딩합니다.
  • D. 두 개의 Amazon SNS 주제를 생성합니다. 하나는 유료 회원용이고 다른 하나는 비회원용입니다. SNS 주제 구독 우선순위를 사용하여 두 가지 유형의 구성원을 구분합니다.
2개의 큐를 각각 만들고, 각 큐의 대기열에 우선순위를 지정합니다.

Amazon Simple Queue Service(SQS) | 분산 애플리케이션 및 마이크로 서비스를 위한 메시지 대기열 서비스 | AWS

 

Amazon Simple Queue Service(SQS) | 분산 애플리케이션 및 마이크로 서비스를 위한 메시지 대기열 서비스

 

aws.amazon.com


Q.100

A development team is composed of ten individuals. The manager want to offer access to user-specific folders in an Amazon S3 bucket, similar to a home directory for each team member. The sample of the IAM policy for the team member with the username TeamMemberX is as follows:

{
"Sid": "AllowS3ActionToFolders",
"Effect": "Allow",
"Action": ["s3:*"],
"Resource": ["arn:aws:s3:::company-name/home/TeamMemberX/*"]
}

Rather of generating unique policies for each team member, how may this policy excerpt be made general for all team members?

  • A. Use IAM policy condition
  • B. Use IAM policy principal
  • C. Use IAM policy variables
  • D. Use IAM policy resource

개발 팀은 10명의 개인으로 구성됩니다. 관리자는 각 팀 구성원의 홈 디렉터리와 유사한 Amazon S3 버킷의 사용자별 폴더에 대한 액세스를 제공하려고 합니다. 사용자 이름이 TeamMemberX인 팀 구성원에 대한 IAM 정책 샘플은 다음과 같습니다.

각 팀 구성원에 대해 고유한 정책을 생성하는 대신 어떻게 이 정책 발췌문을 모든 팀 구성원에게 일반화할 수 있습니까?

  • A. IAM 정책 조건 사용
  • B. IAM 정책 주체 사용
  • C. IAM 정책 변수 사용
  • D. IAM 정책 리소스 사용
사용자마다 고유한 정책 사본을 만들 필요 없이 여러 사용자에게 작용하도록 정책을 일반화해야 할 수 있습니다.
해당 그룹의 모든 사용자에 대해 작동하는 단일 그룹 정책을 만듭니다.
이때는 정책에 자리 표시자를 지정할 수 있는 정책 변수 기능을 사용하면 가능합니다. 

IAM 정책 요소: 변수 및 태그 - AWS Identity and Access Management (amazon.com)

 

IAM 정책 요소: 변수 및 태그 - AWS Identity and Access Management

키 이름은 대/소문자를 구분하지 않습니다. 예를 들어, aws:CurrentTime은 AWS:currenttime과 같습니다.

docs.aws.amazon.com


 

반응형

댓글