본문 바로가기
Etc/AWS

[AWS] [Q61~Q80]DVA-C01 AWS Certified Developer Associate

by 오이가지아빠 2022. 6. 23.
한글 번역은 파파고 번역이기 때문에 어색할 수 있습니다.
단어 하나하나 보다는 맥락을 이해하시면 도움이 될 것 같습니다.

 

Q.61

A multi-Amazon EC2 instance application reads messages from a typical Amazon SQS queue. All communications must be encrypted at rest as a requirement of the program.
When feasible, developers are urged to employ approaches that enable centralized key management and reduce support needs.

Which of the following solutions adheres to these specifications?

  • A. Encrypt individual messages by using client-side encryption with customer managed keys, then write to the SQS queue.
  • B. Encrypt individual messages by using SQS Extended Client and the Amazon S3 encryption client.
  • C. Create an SQS queue, and encrypt the queue by using server-side encryption with AWS KMS.
  • D. Create an SQS queue, and encrypt the queue by using client-side encryption.

다중 Amazon EC2 인스턴스 응용 프로그램은 일반적인 Amazon SQS 대기열에서 메시지를 읽습니다. 모든 통신은 프로그램의 요구 사항으로 유휴 상태에서 암호화되어야 한다.
가능한 경우 개발자는 중앙 집중식 키 관리를 가능하게 하고 지원 요구를 줄이는 접근 방식을 채택해야 합니다.

다음 중 이러한 사양을 준수하는 솔루션은 무엇입니까?

  • A. 고객 관리 키와 함께 클라이언트 측 암호화를 사용하여 개별 메시지를 암호화한 다음 SQS 대기열에 씁니다.
  • B. SQS Extended Client 및 Amazon S3 암호화 클라이언트를 사용하여 개별 메시지를 암호화합니다.
  • C. SQS 큐를 만들고 AWS KMS에서 서버 측 암호화를 사용하여 큐를 암호화합니다.
  • D. SQS 큐를 만들고 클라이언트 측 암호화를 사용하여 대기열을 암호화합니다.
server-side encryption(SSE)는 SQS가 메시지를 수신하는 즉시 메시지를 암호화 합니다.
메시지는 암호화된 형식으로 저장되며, 허가된(Authorized) 사용자에게 전송될 때만 복호화 합니다.
SSE는 AWS KMS에서 관리되는 키를 사용해서 큐의 메시지를 보호합니다.

Encryption at rest - Amazon Simple Queue Service

 

Encryption at rest - Amazon Simple Queue Service

In the unlikely event of being unable to reach AWS KMS, Amazon SQS continues to use the cached data key until a connection is reestablished.

docs.aws.amazon.com


Q.62

A business operates an e-commerce website that makes use of Amazon DynamoDB to dynamically adjust the price of products in real time. At any one moment, numerous changes to price information for a specific product may occur concurrently. This results in the overwriting of the original editor's modifications without a thorough review procedure.

Which write option in DynamoDB should be used to avoid this overwriting?

  • A. Concurrent writes
  • B. Conditional writes
  • C. Atomic writes
  • D. Batch writes

A사는 아마존 다이나모DB를 활용해 실시간으로 제품 가격을 동적으로 조정하는 전자상거래 웹사이트를 운영하고 있다. 한 순간에 특정 제품의 가격 정보에 대한 수많은 변경이 동시에 발생할 수 있습니다. 따라서 철저한 검토 절차 없이 원본 편집기의 수정 내용을 덮어쓸 수 있습니다.

이 덮어쓰기를 방지하려면 DynamoDB에서 어떤 쓰기 옵션을 사용해야 합니까?

  • A. 동시 쓰기
  • B. 조건부 쓰기
  • C. 원자 기록
  • D. 일괄 쓰기
기본적으로 DynamoDB 쓰기작업은 지정된 기본 키가 있는 기존항목을 덮어씁니다.
하지만 선택적으로 이러한 작업의 조건부 쓰기를 지원합니다.
조건부쓰기는 여러 사용자가 동일한 항목을 수정하려고 시도하는 경우에 유용합니다.

항목 및 속성 작업 - Amazon DynamoDB

 

항목 및 속성 작업 - Amazon DynamoDB

항목 및 속성 작업 Amazon DynamoDB에서 항목은 속성 모음입니다. 각 속성마다 이름과 값이 있습니다. 속성 값은 스칼라, 세트 또는 문서 유형일 수 있습니다. 자세한 정보는 Amazon DynamoDB: 작동 방식을

docs.aws.amazon.com


Q.63

A developer must use an AWS CloudFormation template to launch a new AWS Lambda function.

Which processes are responsible for deploying Lambda functions? (Select two.)

  • A. Upload the code to an AWS CodeCommit repository, then add a reference to it in an AWS::Lambda::Function resource in the template.
  • B. Create an AWS::Lambda::Function resource in the template, then write the code directly inside the CloudFormation template.
  • C. Upload a .ZIP file containing the function code to Amazon S3, then add a reference to it in an AWS::Lambda::Function resource in the template.
  • D. Upload a .ZIP file to AWS CloudFormation containing the function code, then add a reference to it in an AWS::Lambda::Function resource in the template.
  • E. Upload the function code to a private Git repository, then add a reference to it in an AWS::Lambda::Function resource in the template.

개발자는 AWS CloudFormation 템플릿을 사용하여 새로운 AWS Lambda 함수를 실행해야 합니다.

Lambda 함수 배포를 담당하는 프로세스는 무엇입니까? (2개 선택)

  • A. 코드를 AWS CodeCommit 리포지토리에 업로드한 다음 템플릿의 AWS::Lambda::Function 리소스에 코드에 대한  참조를 추가합니다.
  • B. 템플릿에서 AWS::Lambda::Function 리소스를 생성한 다음 CloudFormation 템플릿에 직접 코드를 작성합니다.
  • C. 함수 코드가 포함된 ZIP 파일을 Amazon S3에 업로드한 다음 템플릿의 AWS::Lambda::Function 리소스에 이 파일에 대한 참조를 추가합니다.
  • D. 함수 코드가 포함된 ZIP 파일을 AWS CloudFormation에 업로드한 다음 AWS::Lambda::Function 리소스에 이 파일에 대한 참조를 추가합니다.
  • E. 함수 코드를 개인 Git 저장소에 업로드한 다음 AWS::Lambda::Function 리소스에 이 파일에 대한 참조를 추가합니다.
.ZIP 파일을 S3에 업로드 하고 location을 지정해도 되고
Node.js 나 Python은 템플릿에서 인라인 코드로 작성해도 됩니다.
  MyFunction:
    DependsOn: CopyZips
    Type: AWS::Lambda::Function
    Properties:
      Code:
        S3Bucket: !Ref 'LambdaZipsBucket'
        S3Key: !Sub '${QSS3KeyPrefix}functions/packages/MyFunction/lambda.zip'
      ...
Resources:
  MyFunction:
    Type: AWS::Lambda::Function
    Properties:
      Code:
        ZipFile: |
          import json
          def handler(event, context):
              print("Event: %s" % json.dumps(event))
      ...

AWS::Lambda::Function Code - AWS CloudFormation

 

AWS::Lambda::Function Code - AWS CloudFormation

AWS::Lambda::Function Code The deployment package for a Lambda function. To deploy a function defined as a container image, you specify the location of a container image in the Amazon ECR registry. For a .zip file deployment package, you can specify the lo

docs.aws.amazon.com

Deploying AWS Lambda functions using AWS CloudFormation (the portable way) | Integration & Automation

 

Deploying AWS Lambda functions using AWS CloudFormation (the portable way) | Amazon Web Services

AWS Lambda requires its source code to be hosted in an Amazon S3 bucket in the same AWS Region as the Lambda function, which poses challenges when writing AWS CloudFormation templates that are portable across different regions. This post discusses three pa

aws.amazon.com


Q.64

A developer want to utilize AWS X-Ray to monitor the end-to-end performance of a user request across the whole software stack. The developer modified the program, tested it, and discovered that it is capable of sending traces to AWS X-Ray. The traces, on the other hand, are not accessible when the program is deployed to an EC2 instance.

Which of the following is most likely to result in this situation? (Select two.)

  • A. The traces are reaching X-Ray, but the Developer does not have access to view the records.
  • B. The X-Ray daemon is not installed on the EC2 instance.
  • C. The X-Ray endpoint specified in the application configuration is incorrect.
  • D. The instance role does not have xray:BatchGetTraces and xray:GetTraceGraph permissions.
  • E. The instance role does not have xray:PutTraceSegments and xray:PutTelemetryRecords permissions.

한 개발자가 AWS X-Ray를 사용하여 전체 소프트웨어 스택에서 사용자 요청의 엔드 투 엔드 성능을 모니터링하려고 합니다. 개발자는 프로그램을 수정하고 테스트한 후 AWS X-Ray로 트레이스를 전송할 수 있음을 발견했다. 반면에 프로그램이 EC2 인스턴스에 배포될 때는 추적에 액세스할 수 없습니다.

다음 중 이러한 상황이 발생할 가능성이 가장 높은 것은 무엇입니까? (2개 선택)

  • A. 추적이 X-Ray에 도달하고 있지만 개발자가 레코드를 볼 수 있는 액세스 권한이 없습니다.
  • B. EC2 인스턴스에 X-Ray 데몬이 설치되어 있지 않습니다.
  • C. 애플리케이션 구성에 지정된 X-Ray endpoint 가 잘못되었습니다.
  • D. 인스턴스 역할에 xray:BatchGetTraces 및 xray:GetTraceGraph 권한이 없습니다.
  • E. 인스턴스 역할에 xray:PutTraceSegments 및 xray:PutTelemetryRecords 권한이 없습니다.
X-Ray에 추적 데이터를 보내려면 Lambda에 다음 권한이 필요합니다. 이러한 권한을 함수의 실행 역할에 추가합니다.
xray:PutTraceSegments
xray:PutTelemetryRecords
이러한 권한은 AWSXRayDaemonWriteAccess 관리형 정책에 포함됩니다.

AWS Lambda와 함께 AWS X-Ray 사용 - AWS Lambda

 

AWS Lambda와 함께 AWS X-Ray 사용 - AWS Lambda

Lambda에서는 X-Ray SDK를 사용하여 Invocation 하위 세그먼트를 다운스트림 호출, 주석 및 메타데이터에 대한 추가 하위 세그먼트로 확장할 수 있습니다. 함수 세그먼트에 직접 액세스하거나 핸들러

docs.aws.amazon.com


Q.65

An application extracts metadata from files uploaded to an S3 bucket using Lambda functions; the information is then saved in Amazon DynamoDB. The program begins to behave strangely, and the developer want to investigate the Lambda function code's logs for faults.

Where would the Developer look for logs based on this system configuration?

  • A. Amazon S3
  • B. AWS CloudTrail
  • C. Amazon CloudWatch
  • D. Amazon DynamoDB

응용 프로그램은 람다 함수를 사용하여 S3 버킷에 업로드된 파일에서 메타데이터를 추출합니다. 그러면 정보가 Amazon DynamoDB에 저장된다. 프로그램이 이상하게 동작하기 시작하고 개발자는 람다 함수 코드의 로그에서 오류를 조사하려고 합니다.

개발자가 이 시스템 구성을 기준으로 로그를 찾는 위치는 어디입니까?

  • A. 아마존 S3
  • B. AWS 클라우드 트레일
  • C. Amazon CloudWatch
  • D. 아마존 다이너모DB
람다 함수를 모니터링한다고 하면 무조건 CloudWatch라고 보면 됩니다. 함수에서 처리하는 모든 요청을 기록하고 코드로 생성된 로그를 Amazon CloudWatch Logs를 통해 자동으로 저장합니다.
Lambda함수의 로그는 Lambda 콘솔, CloudWatch 콘솔, AWS Command Line Interface(AWS CLI) 또는 CloudWatch API.를 사용해 확인할 수 있습니다.

AWS Lambda에 대한 Amazon CloudWatch logs 액세스 - AWS Lambda

 

AWS Lambda에 대한 Amazon CloudWatch logs 액세스 - AWS Lambda

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.66

What is the purpose of an Amazon SQS delay queue?

  • A. Messages are hidden for a configurable amount of time when they are first added to the queue.
  • B. Messages are hidden for a configurable amount of time after they are consumed from the queue.
  • C. The consumer can poll the queue for a configurable amount of time before retrieving a message.
  • D. Message cannot be deleted for a configurable amount of time after they are consumed from the queue.

Amazon SQS 지연 대기열의 목적은 무엇입니까?

  • A. 메시지는 처음 큐에 추가될 때 구성 가능한 시간 동안 숨겨집니다.
  • B. 메시지는 대기열에서 사용된 후 구성 가능한 시간 동안 숨겨집니다.
  • C. 사용자는 메시지를 검색하기 전에 구성 가능한 시간 동안 큐를 폴링할 수 있습니다.
  • D. 메시지는 대기열에서 사용된 후 구성 가능한 시간 동안 삭제할 수 없습니다.
지연 대기열을 사용하면 새 메시지를 소비자에게 전송하는 것을 특정시간(초) 동안 연기할 수 있습니다.
(애플리케이션에서 메시지를 처리하기 위해 추가 시간이 필요한 경우)
대기열의 기본(최소)지연시간은 0초, 최대값은 15분 입니다.

Amazon SQS 지연 대기열 - Amazon Simple Queue Service

 

Amazon SQS 지연 대기열 - Amazon Simple Queue Service

표준 대기열의 경우 대기열당 지연 설정은 다음과 같습니다.소급 아님—설정을 변경할 경우, 이것은 대기열에 이미 있는 메시지의 지연에 영향을 주지 않습니다. FIFO 대기열의 경우 대기열당 지

docs.aws.amazon.com


Q.67

A business is developing an ecommerce website, and the static data will be stored on Amazon S3. The business anticipates roughly 1,000 GET and PUT requests per second (TPS). All queries must be logged and maintained for auditing reasons.

Which approach is the MOST cost-effective?

  • A. Enable AWS CloudTrail logging for the S3 bucket-level action and create a lifecycle policy to move the data from the log bucket to Amazon S3 Glacier in 90 days.
  • B. Enable S3 server access logging and create a lifecycle policy to expire the data in 90 days.
  • C. Enable AWS CloudTrail logging for the S3 bucket-level action and create a lifecycle policy to expire the data in 90 days.
  • D. Enable S3 server access logging and create a lifecycle policy to move the data to Amazon S3 Glacier in 90 days.

A사는 전자상거래 웹사이트를 개발하고 있으며, 정적 데이터는 아마존 S3에 저장될 것이다. 이 기업은 초당 약 1,000회의 GET 및 PUT 요청을 예상하고 있습니다. 모든 쿼리는 감사상의 이유로 기록되고 유지 관리되어야 합니다.

가장 비용 효율적인 접근 방식은 무엇입니까?

  • A. S3 버킷 수준 작업에 대해 AWS CloudTrail 로깅을 사용하도록 설정하고 90일 이내에 로그 버킷에서 Amazon S3 Glacier로 데이터를 이동하는 수명 주기 정책을 생성합니다.
  • B. S3 서버 액세스 로깅을 실행하고 수명 주기 정책을 생성하여 데이터를 90일 후에 만료합니다.
  • C. S3 버킷 수준 작업에 대해 AWS CloudTrail 로깅을 사용하도록 설정하고 수명 주기 정책을 생성하여 데이터를 90일 후에 만료합니다.
  • D. S3 서버 액세스 로깅을 사용하도록 설정하고 수명 주기 정책을 생성하여 90일 이내에 데이터를 Amazon S3 Glacier로 이동합니다.
Amazon S3 리소스에 대해 사용자, 역할 또는 AWS 서비스가 수행하는 작업을 기록하고 감사 및 규정 준수 목적으로 로그 레코드를 유지 관리할 수 있습니다. 서버 액세스 로깅, AWS CloudTrail 로깅 또는 둘 다를 사용할 수 있습니다.
A와 D중에 골라야 하는데, 일단 AWS권장 방식은 A입니다. 다만 비용 효율적인 방식을 고르자면 D가 됩니다.
서버 액세스 로깅은 무료, CloudTrail은 로그 저장 이외에 데이터 이벤트에도 요금이 발생합니다.

Amazon S3 액세스 로그를 사용하여 요청 식별 - Amazon Simple Storage Service

 

Amazon S3 액세스 로그를 사용하여 요청 식별 - Amazon Simple Storage Service

Athena 쿼리에서 Amazon S3 위치를 지정하려면 로그가 S3 URI로 전송되는 대상 버킷 이름과 대상 접두사를 s3://DOC-EXAMPLE-BUCKET1-logs/prefix/ 형식으로 지정해야 합니다.

docs.aws.amazon.com

Amazon S3에 대한 로깅 옵션 - Amazon Simple Storage Service

 

Amazon S3에 대한 로깅 옵션 - Amazon Simple Storage Service

Amazon S3에 대한 로깅 옵션 Amazon S3 리소스에 대해 사용자, 역할 또는 AWS 서비스가 수행하는 작업을 기록하고 감사 및 규정 준수 목적으로 로그 레코드를 유지 관리할 수 있습니다. 서버 액세스 로

docs.aws.amazon.com


Q.68

A business has an application in which reading items from Amazon S3 is conditional on the user type. There are two sorts of users: registered and visitor. The firm now has 25,000 users and is expanding at a rapid pace. Depending on the user type, data is fetched from an S3 bucket.

Which techniques are advised for accommodating both sorts of users? (Select two.)

  • A. Provide a different access key and secret access key in the application code for registered users and guest users to provide read access to the objects.
  • B. Use S3 bucket policies to restrict read access to specific IAM users.
  • C. Use Amazon Cognito to provide access using authenticated and unauthenticated roles.
  • D. Create a new IAM user for each user and grant read access.
  • E. Use the AWS IAM service and let the application assume the different roles using the AWS Security Token Service (AWS STS) AssumeRole action depending on the type of user and provide read access to Amazon S3 using the assumed role.

A 업체는 아마존 S3에서 읽을 수 있는 항목이 사용자 유형에 따라 달라지는 애플리케이션을 가지고 있다. 사용자는 등록 사용자 및 방문자 두 가지 유형이 있습니다. 그 회사는 현재 25,000명의 사용자를 보유하고 있으며 빠른 속도로 확장하고 있다. 사용자 유형에 따라 S3 버킷에서 데이터를 가져옵니다.

두 가지 유형의 사용자를 모두 수용하기 위해 권장되는 기술은 무엇입니까? (두 가지 선택)

  • A. 등록된 사용자 및 게스트 사용자가 개체에 대한 읽기 액세스를 제공할 수 있도록 응용 프로그램 코드에 다른 액세스 키 및 비밀 액세스 키를 제공합니다.
  • B. S3 버킷 정책을 사용하여 특정 IAM 사용자로 읽기 액세스를 제한합니다.
  • C. 인증된 역할과 인증되지 않은 역할을 사용하여 액세스를 제공하려면 Amazon Cognito를 사용하십시오.
  • D. 각 사용자에 대해 새 IAM 사용자를 만들고 읽기 액세스 권한을 부여합니다.
  • E. AWS IAM 서비스를 사용하고 애플리케이션이 사용자 유형에 따라 AWS STS(Security Token Service) Assume Role 작업을 사용하여 다른 역할을 맡게 하고 가정된 역할을 사용하여 Amazon S3에 대한 읽기 액세스 권한을 제공합니다.
Cognito를 사용하여 자격 증명 풀을 통해 사용자에게 액세스할 수 있는 권한을 부여할 수 있습니다.
자격 증명 풀은 익명 게스트 사용자는 물론 사용자 인증에 사용할 수 있는 자격 증명 공급자를 지원합니다.
IAM을 사용하여 리소스를 사용하도록 인증(로그인) 및 권한 부여(권한 있음)된 대상을 제어합니다.
임시 보안 자격증명을 요청하려면 STS 작업을 사용할 수 있습니다.
AssumeRole 작업은 기존 IAM사용자가 아직 액세스 권한이 없는 AWS리소스에 액세스할 수 있도록 허용하는데 유용합니다.

Amazon Cognito란 무엇입니까? - Amazon Cognito

 

Amazon Cognito란 무엇입니까? - Amazon Cognito

Amazon Cognito란 무엇입니까? Amazon Cognito는 웹 및 모바일 앱에 대한 인증, 권한 부여 및 사용자 관리를 제공합니다. 사용자는 사용자 이름과 암호를 사용하여 직접 로그인하거나 Facebook, Amazon, Google

docs.aws.amazon.com

임시 보안 자격 증명 요청 - AWS Identity and Access Management

 

임시 보안 자격 증명 요청 - AWS Identity and Access Management

AssumeRoleWithWebIdentity에 대한 호출이 서명(암호화)되지 않았습니다. 따라서 요청이 신뢰할 수 있는 중개자를 통해 전송된 경우에만 선택적 세션 정책을 포함해야 합니다. 이러한 경우 누군가가 정

docs.aws.amazon.com


Q.69

Using Amazon API Gateway, a developer has established a REST API. The developer want to keep track of which callers and how they utilize the API. Additionally, the developer want to have control over the duration of the logs.

What actions should the developer take to ensure compliance with these requirements?

  • A. Enable API Gateway execution logging. Delete old logs using API Gateway retention settings.
  • B. Enable API Gateway access logs. Use Amazon CloudWatch retention settings to delete old logs.
  • C. Enable detailed Amazon CloudWatch metrics. Delete old logs with a recurring AWS Lambda function.
  • D. Create and use API Gateway usage plans. Delete old logs with a recurring AWS Lambda function.

한 개발자가 Amazon API Gateway를 사용하여 REST API를 설정했습니다. 개발자는 어떤 호출자가 API를 어떻게 사용하는지 추적하기를 원합니다. 또한 개발자는 로그 지속 시간을 제어하고자 합니다.

개발자는 이러한 요구 사항을 준수하기 위해 어떤 조치를 취해야 하는가?

  • A. API 게이트웨이 실행 로깅을 사용하도록 설정합니다. API Gateway 보존 설정을 사용하여 이전 로그를 삭제합니다.
  • B. API 게이트웨이 액세스 로그를 활성화합니다. Amazon CloudWatch 보존 설정을 사용하여 이전 로그를 삭제합니다.
  • C. 자세한 Amazon CloudWatch 메트릭을 사용하도록 설정합니다. 반복 AWS Lambda 기능으로 이전 로그를 삭제합니다.
  • D. API Gateway 사용 계획을 작성하고 사용합니다. 반복 AWS Lambda 기능으로 이전 로그를 삭제합니다.
CloudWatch의 API 로깅에는 실행 로깅과 액세스 로깅이라는 두 가지 유형이 있습니다. 
액세스 로깅에서 API 개발자가 원하는 것은 누가 API에 액세스했고 호출자가 API에 어떻게 액세스했는지 로깅하는 것입니다.
기본적으로 CloudWatch Logs에서 로그 데이터는 무기한으로 저장됩니다. 하지만 로그 그룹에서 로그 데이터를 저장할 기간을 구성할 수 있습니다. 현재 보존 기간 설정보다 오래된 데이터는 모두 자동으로 삭제됩니다. 언제든지 로그 그룹별로 로그 보존 기간을 변경할 수 있습니다.

API Gateway에서 REST API에 대한 CloudWatch 로깅 설정 - Amazon API Gateway

 

API Gateway에서 REST API에 대한 CloudWatch 로깅 설정 - Amazon API Gateway

이 기능은 API 문제를 해결하는 데 유용하지만 민감한 데이터를 로깅할 수 있습니다. 프로덕션 API에는 Log full requests/responses data를 활성화하지 않는 것이 좋습니다.

docs.aws.amazon.com

로그 그룹 및 로그 스트림 작업 - Amazon CloudWatch Logs

 

로그 그룹 및 로그 스트림 작업 - Amazon CloudWatch Logs

탐색 창의 즐겨찾기 및 최근 항목(Favorites and recents) 메뉴에서 대시보드와 경보뿐만 아니라 로그 그룹을 즐겨찾기에 추가할 수 있습니다. 최근 방문(Recently visited) 열에서 즐겨찾기에 추가하려는

docs.aws.amazon.com


Q.70

A huge e-commerce site is being developed that will use Amazon S3 to distribute static items. More than 300 GET requests per second will be served from the Amazon S3 bucket.

What changes should be made to improve performance? (Select two.)

  • A. Integrate Amazon CloudFront with Amazon S3.
  • B. Enable Amazon S3 cross-region replication.
  • C. Delete expired Amazon S3 server log files.
  • D. Configure Amazon S3 lifecycle rules.
  • E. Randomize Amazon S3 key name prefixes.

아마존 S3를 활용해 정적 아이템을 유통하는 거대한 전자상거래 사이트가 개발되고 있다. 아마존 S3 버킷에서 초당 300개 이상의 GET 요청이 처리될 것이다.

성능 향상을 위해 어떤 변경을 가해야 합니까? (2개 선택)

  • A. Amazon CloudFront를 Amazon S3와 통합합니다.
  • B. Amazon S3 영역 간 복제를 사용하도록 설정합니다.
  • C. 만료된 Amazon S3 서버 로그 파일을 삭제합니다.
  • D. Amazon S3 수명 주기 규칙을 구성합니다.
  • E. Amazon S3 키 이름 접두사를 랜덤화합니다.
Amazon S3 성능 최적화 모범 사례 설계 패턴에 따르면, Amazon CloudFront를 사용하는 것은 명확하게 성능향상에 도움이 됩니다.
cross-region replication(CRR) 측 주장 : 고객이 두 군데의 지리적 위치를 갖는 경우 사용자와 지리적으로 더 가까운 AWS 리전에 객체 복사본을 유지하여 객체 액세스 대기 시간을 최소화할 수 있습니다.
접두사 랜덤화 측 주장 : 병렬로 접두사를 추가 하여 더 빠른 성능을 실현할 수 있습니다.

다만, 2018년 7월 발표된 announce에 "이번 S3 요청 처리 성능 향상으로 인해 객체 접두사를 임의로 지정하여 더 빠른 성능을 실현하라는 이전의 지침은 더 이상 적용되지 않습니다." 라는 문구가 있어 판단은 보류합니다.

모범 사례 설계 패턴: Amazon S3 성능 최적화 - Amazon Simple Storage Service

 

모범 사례 설계 패턴: Amazon S3 성능 최적화 - Amazon Simple Storage Service

모범 사례 설계 패턴: Amazon S3 성능 최적화 애플리케이션은 Amazon S3의 스토리지를 업로드하고 검색할 때 요청 성능에서 초당 수천 회의 트랜잭션을 쉽게 달성할 수 있습니다. Amazon S3는 높은 요청

docs.aws.amazon.com

Amazon S3의 요청 처리 성능 개선

 

Amazon S3의 요청 처리 성능 개선

Amazon S3는 이제 초당 최소 3,500개의 데이터 추가 요청과 초당 5,500개의 데이터 검색 요청을 처리하는 향상된 성능을 제공합니다. 따라서 추가 비용 없이 처리 시간을 대폭 단축할 수 있습니다. 각

aws.amazon.com


Q.71

A business in the us-east-1 Region has installed web servers on Amazon EC2 instances running Amazon Linux. Amazon Elastic Block Store is used to back up the EC2 instances (Amazon EBS). A developer want to guarantee that all of these instances use an AWS Key Management Service (AWS KMS) key to offer encryption at rest.

How can a developer use an AWS KMS key to enable encryption at rest on existing and new instances?

  • A. Use AWS Certificate Manager (ACM) to generate a TLS certificate. Store the private key in AWS KMS. Use AWS KMS on the instances to enable TLS encryption.
  • B. Manually enable EBS encryption with AWS KMS on running instances. Then enable EBS encryption by default for new instances.
  • C. Enable EBS encryption by default. Create snapshots from the running instances. Replace running instances with new instances from snapshots.
  • D. Export the AWS KMS key to the application. Encrypt all application data by using the exported key. Enable EBS encryption by default to encrypt all other data.

us-east-1 Region의 한 기업이 Amazon Linux를 실행하는 Amazon EC2 인스턴스에 웹 서버를 설치했습니다. Amazon Elastic Block Store는 EC2 인스턴스(Amazon EBS)를 백업하는 데 사용됩니다. 한 개발자는 이러한 모든 인스턴스가 AWS KMS(Key Management Service) 키를 사용하여 암호화를 제공하는지 확인하려고 합니다.

개발자가 AWS KMS 키를 사용하여 기존 인스턴스와 새 인스턴스에서 미사용 암호화를 활성화하려면 어떻게 해야 합니까?

  • A. AWS 인증서 관리자(ACM)를 사용하여 TLS 인증서를 생성합니다. 개인 키를 AWS KMS에 저장합니다. TLS 암호화를 사용하려면 인스턴스에서 AWS KMS를 사용하십시오.
  • B. 실행 중인 인스턴스에서 AWS KMS를 사용하여 EBS 암호화를 수동으로 활성화합니다. 그런 다음 새 인스턴스에 대해 기본적으로 EBS 암호화를 사용합니다.
  • C. 기본적으로 EBS 암호화를 사용합니다. 실행 중인 인스턴스에서 스냅샷을 생성합니다. 실행 중인 인스턴스를 스냅샷의 새 인스턴스로 바꿉니다.
  • D. AWS KMS 키를 응용 프로그램으로 내보냅니다. 내보낸 키를 사용하여 모든 응용 프로그램 데이터를 암호화합니다. 다른 모든 데이터를 암호화하려면 기본적으로 EBS 암호화를 사용합니다.
Amazon EBS 암호화의 기본 설정만으로도, 볼륨과 스냅샷데이터를 암호화 할 수 있습니다.

Amazon EBS 암호화 - Amazon Elastic Compute Cloud

 

Amazon EBS 암호화 - Amazon Elastic Compute Cloud

API 또는 AWS CLI를 사용하여 KMS 키를 지정하는 경우 AWS는 KMS 키를 비동기식으로 인증합니다. 유효하지 않은 KMS 키 ID, 별칭 또는 ARN을 지정하면 작업이 완료된 것처럼 보이지만 결국 실패합니다.

docs.aws.amazon.com


Q.72

A developer is developing an application that will use Amazon S3 to store data. Before data is transmitted to Amazon S3 for storage, management requires that it be secured. The Security team is responsible for managing the encryption keys.

Which strategy should the developer use to satisfy these requirements?

  • A. Implement server-side encryption using customer-provided encryption keys (SSE-C).
  • B. Implement server-side encryption by using a client-side master key.
  • C. Implement client-side encryption using an AWS KMS managed customer master key (CMK).
  • D. Implement client-side encryption using Amazon S3 managed keys.

한 개발자는 아마존 S3를 사용하여 데이터를 저장하는 애플리케이션을 개발하고 있다. 데이터를 Amazon S3에 저장하기 위해 전송하기 전에 경영진은 데이터를 보호해야 합니다. 보안 팀은 암호화 키를 관리할 책임이 있습니다.

개발자는 이러한 요구사항을 만족시키기 위해 어떤 전략을 사용해야 하는가?

  • A. 고객이 제공한 암호화 키(SSE-C)를 사용하여 서버 측 암호화를 구현합니다.
  • B. 클라이언트측 마스터 키를 사용하여 서버측 암호화를 구현합니다.
  • C. AWS KMS 관리 고객 마스터 키(CMK)를 사용하여 클라이언트 측 암호화를 구현합니다.
  • D. Amazon S3 관리 키를 사용하여 클라이언트 측 암호화를 구현합니다.
A, C 모두 S3 암호화를 구현하기 위한 옳은 설명입니다.
다만, 문제의 핵심을 어디에 두느냐에 따라 보는 관점이 달라집니다.
전송하기 전 (Before data is transmitted) 중심 : Client-side encryption
보안팀의 암호화키 관리 책임(Security team is responsible for managing) 중심 : 고객이 제공한 암호 키(SSE-C)
여기서 고객은 AWS의 고객, 즉 기업의 보안팀이라고 간주할 수 있습니다.
전자는 C, 후자는 A가 옳은 판단입니다.(C 우세)

고객 제공 암호화 키(SSE-C)로 서버 측 암호화를 사용하여 데이터 보호 - Amazon Simple Storage Service

 

고객 제공 암호화 키(SSE-C)로 서버 측 암호화를 사용하여 데이터 보호 - Amazon Simple Storage Service

Amazon S3는 SSE-C를 사용할 때 HTTP를 통해 전송된 모든 요청을 거부합니다. 보안상의 이유로 인해, 보안에 취약할 수 있는 HTTP를 사용하여 키를 보내면 오류가 발생할 수 있음을 유의하세요. 키를 취

docs.aws.amazon.com

클라이언트 측 암호화를 사용하여 데이터 보호 - Amazon Simple Storage Service

 

클라이언트 측 암호화를 사용하여 데이터 보호 - Amazon Simple Storage Service

클라이언트 측 키와 암호화되지 않은 데이터는 AWS로 전송되지 않습니다. 따라서 암호화 키를 안전하게 관리하는 것이 중요합니다. 해당 키를 잃어버리면 데이터의 암호를 해독할 수 없습니다.

docs.aws.amazon.com


Q.73

A developer has designed a software package that will be distributed utilizing IAM roles across many EC2 servers.

What measures may be taken to validate IAM access to Amazon Kinesis Streams records? (Select two.)

  • A. Use the AWS CLI to retrieve the IAM group.
  • B. Query Amazon EC2 metadata for in-line IAM policies.
  • C. Request a token from AWS STS, and perform a describe action.
  • D. Perform a get action using the -dry-run argument.
  • E. Validate the IAM role policy with the IAM policy simulator.

한 개발자가 많은 EC2 서버에 IAM 역할을 사용하여 배포될 소프트웨어 패키지를 설계했습니다.

Amazon Kinesis Streams 레코드에 대한 IAM 액세스를 검증하기 위해 어떤 조치를 취할 수 있습니까?(2개 선택)

  • A. AWS CLI를 사용하여 IAM 그룹을 검색합니다.
  • B. 인라인 IAM 정책에 대한 Amazon EC2 메타데이터를 쿼리합니다.
  • C. AWS STS에서 토큰을 요청하고 설명 작업을 수행합니다.
  • D. --dry-run 인수를 사용하여 가져오기 작업을 수행합니다.
  • E. IAM 정책 시뮬레이터를 사용하여 IAM 역할 정책을 확인합니다.
인스턴스 메타데이터를 쿼리하여 보안 자격 증명을 검사할 수 있습니다.
IAM 정책 시뮬레이터를 통해 사용자의 유효 권한을 확인할 수 있습니다.

IAM을 사용하여 Amazon Kinesis 데이터 스트림 리소스에 대한 액세스 제어 - Amazon Kinesis Data Streams

 

IAM을 사용하여 Amazon Kinesis 데이터 스트림 리소스에 대한 액세스 제어 - Amazon Kinesis Data Streams

이 정책을 사용하면 사용자 또는 그룹이 지정된 스트림에 대해 DescribeStreamSummary, GetShardIterator 및 GetRecords를 수행할 수 있으며 모든 스트림에 대해 ListStreams를 수행할 수 있습니다. 이 정책은 특정

docs.aws.amazon.com

Amazon EC2의 IAM 역할 - Amazon Elastic Compute Cloud

 

Amazon EC2의 IAM 역할 - Amazon Elastic Compute Cloud

IAM 역할과 함께 인스턴스 메타데이터를 사용하는 서비스를 사용하는 경우 서비스에서 사용자 대신 HTTP 호출을 수행할 때 자격 증명이 노출되지 않도록 주의하세요. 자격 증명이 노출될 수 있는

docs.aws.amazon.com


Q.74

A developer must verify that an application's IAM credentials are not abused or exploited when running on Amazon EC2.

What should the developer do to ensure the security of user credentials?

  • A. Environment variables
  • B. AWS credentials file
  • C. Instance profile credentials
  • D. Command line options

개발자는 Amazon EC2에서 실행할 때 응용 프로그램의 IAM 자격 증명이 남용되거나 악용되지 않는지 확인해야 합니다.

개발자는 사용자 자격 증명의 보안을 보장하기 위해 무엇을 해야 하는가?

  • A. 환경변수
  • B. AWS 자격 증명 파일
  • C. 인스턴스 프로필 인증 정보
  • D. 명령줄 옵션
C2 인스턴스에 AWS 역할 및 관련 권한을 할당하고 이를 그 애플리케이션도 사용 가능하게 만들려면 추가 절차가 필요합니다. 여기서 추가 절차란 인스턴스에 연결된 인스턴스 프로파일을 생성하는 것입니다. 그러면 인스턴스 프로필은 해당 역할을 포함하게 되며 인스턴스에서 실행되는 애플리케이션에 이 역할의 임시 자격 증명을 제공할 수 있습니다.

인스턴스 프로파일 사용 - AWS Identity and Access Management

 

인스턴스 프로파일 사용 - AWS Identity and Access Management

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.75

A developer has created an Amazon S3 bucket to store JSON data. The developer want to share an item with a select set of individuals in a safe manner.

How can the developer allow temporary access to the items stored in the S3 bucket in a safe manner?

  • A. Set object retention on the files. Use the AWS software development kit (SDK) to restore the object before subsequent requests. Provide the bucket's S3 URL.
  • B. Use the AWS software development kit (SDK) to generate a presigned URL. Provide the presigned URL.
  • C. Set a bucket policy that restricts access after a period of time. Provide the bucket's S3 URL.
  • D. Configure static web hosting on the S3 bucket. Provide the bucket's web URL.

개발자가 JSON 데이터를 저장하기 위해 Amazon S3 버킷을 만들었습니다. 개발자는 선택한 개인 집합과 항목을 안전한 방식으로 공유하려고 합니다.

개발자가 S3 버킷에 저장된 항목에 대한 임시 액세스를 안전한 방식으로 허용하려면 어떻게 해야 합니까?

  • A. 파일에 개체 보존을 설정합니다. AWS SDK(소프트웨어 개발 키트)를 사용하여 이후 요청 전에 개체를 복원합니다. 버킷의 S3 URL을 제공합니다.
  • B. AWS SDK(Software Development Kit)를 사용하여 미리 서명된 URL을 생성합니다.
  • C. 일정 시간 후 액세스를 제한하는 버킷 정책을 설정합니다. 버킷의 S3 URL을 제공합니다.
  • D. S3 버킷에 정적 웹 호스팅을 구성합니다. 버킷의 웹 URL을 제공합니다.
S3 콘솔 또는 AWS Explorer for Visual Studio를 사용하여 코드를 작성할 필요 없이 미리 서명된 객체 URL을 만들 수 있습니다. Java용 AWS SDK, .NET, Ruby, PHP, Node.js, Python 및 Go를 사용하여 미리 서명된 URL을 프로그래밍 방식으로 생성할 수 있습니다.

미리 서명된 URL을 사용하여 객체 공유 - Amazon Simple Storage Service

 

미리 서명된 URL을 사용하여 객체 공유 - Amazon Simple Storage Service

미리 서명된 URL을 사용하여 객체 공유 기본적으로 모든 S3 객체는 비공개입니다. 객체 소유자만 액세스할 수 있습니다. 그러나 객체 소유자는 필요할 경우 자신의 보안 자격 증명을 사용하여 일

docs.aws.amazon.com


Q.76

Page load times on a website steadily increase as more people visit the system concurrently. According to the analysis, a user profile is being loaded from a database on each web page viewed by a user, which increases database load and page load delay. The developer chooses to cache the user profile data in order to remedy this problem.

Which caching approach would most effectively solve this situation?

  • A. Create a new Amazon EC2 Instance and run a NoSQL database on it. Cache the profile data within this database using the write-through caching strategy.
  • B. Create an Amazon ElastiCache cluster to cache the user profile data. Use a cache-aside caching strategy.
  • C. Use a dedicated Amazon RDS instance for caching profile data. Use a write-through caching strategy.
  • D. Create an ElastiCache cluster to cache the user profile data. Use a write-through caching strategy.

더 많은 사람들이 동시에 시스템을 방문함에 따라 웹 사이트의 페이지 로드 시간은 꾸준히 증가한다. 분석 결과 사용자가 보는 각 웹페이지의 데이터베이스에서 사용자 프로파일이 로드되고 있어 데이터베이스 로드와 페이지 로드 지연이 증가하는 것으로 나타났다. 개발자는 이 문제를 해결하기 위해 사용자 프로필 데이터를 캐시하도록 선택합니다.

이러한 상황을 가장 효과적으로 해결할 수 있는 캐싱 접근 방식은 무엇입니까?

  • A. 새 Amazon EC2 인스턴스를 생성하고 해당 인스턴스에서 NoSQL 데이터베이스를 실행합니다. 쓰기 캐싱 전략을 사용하여 이 데이터베이스 내의 프로파일 데이터를 캐시합니다.
  • B. 사용자 프로파일 데이터를 캐시할 Amazon ElastiCache 클러스터를 생성합니다. 캐시 어사이드 캐싱 전략을 사용합니다.
  • C. 프로파일 데이터를 캐싱하는 데 전용 Amazon RDS 인스턴스를 사용합니다. 쓰기 캐싱 전략을 사용합니다.
  • D. 사용자 프로필 데이터를 캐시할 ElastiCache 클러스터를 만듭니다. 쓰기 캐싱 전략을 사용합니다.
사용자 프로필 데이터를 캐시할 EalstiCashe 클러스터를 생성합니다.
캐싱전략을 선택해야 하는데, cashe-aside 전략은 필요할 때(요청 시)만 캐시에 로드하는 방식이고 write-through 전략은 데이터베이스에 쓰여질때 캐시에도 동시에 로드하는 방식입니다.
각각 방식에 따른 장단점은 존재하지만 일반적으로 사용자데이터는 Lazy-loding(cashe-aside) 전략을 취합니다.

캐싱 전략 - Amazon ElastiCache

 

캐싱 전략 - Amazon ElastiCache

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.77

A business is developing a Java application that will be deployed to Amazon Web Services. The firm creates a pipeline for the project using AWS CodePipeline. CodePipeline must build and deploy the application on the AWS Cloud whenever a team member makes changes to the source code.

Which AWS services combination does the business need to utilize to achieve these requirements?

  • A. Amazon S3, AWS CodeBuild, and AWS CodeCommit
  • B. Amazon S3, AWS CodeBuild, and Amazon Elastic Container Service (Amazon ECS)
  • C. AWS CodeCommit, AWS CodeBuild, and AWS CodeDeploy
  • D. Amazon CodeGuru, AWS CodeCommit, and AWS CodeBuild

A사는 아마존 웹 서비스에 배치될 자바 애플리케이션을 개발하고 있다. 이 회사는 AWS CodePipeline을 사용하여 프로젝트를 위한 파이프라인을 만듭니다. CodePipeline은 팀 구성원이 소스 코드를 변경할 때마다 AWS Cloud에 애플리케이션을 빌드하고 배포해야 합니다.

기업이 이러한 요구사항을 충족하기 위해 어떤 AWS 서비스 조합을 활용해야 합니까?

  • A. Amazon S3, AWS CodeBuild 및 AWS CodeCommit
  • B. Amazon S3, AWS CodeBuild 및 Amazon ECS(Amazon Elastic Container Service)
  • C. AWS CodeCommit, AWS CodeBuild 및 AWS CodeDeploy
  • D. Amazon CodeGuru, AWS CodeCommit 및 AWS CodeBuild
CodeCommit 리포지토리에 변경 사항을 푸시하면 CodePipeline이 트리거됩니다.
CodePipeline은 CodeDeploy를 배포 서비스로 사용하여 Amazon EC2 인스턴스에 변경 사항을 배포합니다.

자습서: 간단한 파이프라인 생성 (CodeCommit 리포지토리 - AWS CodePipeline

 

자습서: 간단한 파이프라인 생성 (CodeCommit 리포지토리 - AWS CodePipeline

이 자습서의 나머지 단계에서는MyDemoRepo의 이름으로 CodeCommit 리포지토리 다른 이름을 선택하는 경우 이 자습서 전체에서 이를 사용해야 합니다.

docs.aws.amazon.com


Q.78

A developer is about to launch an AWS Lambda function that will use a substantial amount of CPU.

Which technique will minimize the function's average runtime?

  • A. Deploy the function into multiple AWS Regions.
  • B. Deploy the function into multiple Availability Zones.
  • C. Deploy the function using Lambda layers.
  • D. Deploy the function with its memory allocation set to the maximum amount.

한 개발자가 상당한 양의 CPU를 사용할 AWS 람다 기능을 출시하려고 한다.

함수의 평균 런타임을 최소화할 수 있는 기술은 무엇입니까?

  • A. 이 기능을 여러 AWS 영역에 배포합니다.
  • B. 이 기능을 여러 가용성 영역에 배포합니다.
  • C. 람다 레이어를 사용하여 함수를 배포합니다.
  • D. 메모리 할당을 최대 양으로 설정한 상태에서 함수를 배포합니다.
코드가 로컬 시스템보다 Lambda에서 실행하는 데 더 오래 걸리는 경우, 함수에 사용할 수 있는 메모리 또는 처리 성능으로 인해 제한될 수 있습니다. 메모리와 CPU를 모두 관리하려면 추가 메모리를 사용하여 함수를 구성하세요.

Lambda의 실행 문제 해결 - AWS Lambda

 

Lambda의 실행 문제 해결 - AWS Lambda

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.79

A business is operating an application that is powered by AWS Lambda services. When a Lambda function is required to download a 50MB file from the Internet on each run, performance difficulties arise. Multiple times per second, this function is invoked.

Which approach would result in the greatest performance boost?

  • A. Cache the file in the /tmp directory
  • B. Increase the Lambda maximum execution time
  • C. Put an Elastic Load Balancer in front of the Lambda function
  • D. Cache the file in Amazon S3

A 사는 AWS Lambda 서비스를 기반으로 하는 애플리케이션을 운영하고 있습니다. 매번 실행할 때마다 인터넷에서 50MB 파일을 다운로드하기 위해 람다 기능이 필요한 경우 성능 문제가 발생합니다. 초당 여러 번 이 기능이 호출됩니다.

가장 큰 성능 향상을 가져올 수 있는 접근 방식은 무엇입니까?

  • A. /tmp 디렉터리에 파일을 캐시합니다.
  • B. 람다 최대 실행 시간 증가
  • C. 람다 함수 앞에 Elastic Load Balancer 배치
  • D. Amazon S3에 파일 캐시
재사용 가능한 정적 리소스를 /tmp 디렉토리에 로컬로 캐시합니다. 동일한 함수 인스턴스에서 처리하는 후속 호출은 이러한 리소스를 재사용할 수 있습니다. 이를 통해 함수 실행 시간을 줄여 비용을 절감합니다.

AWS Lambda 함수 작업의 모범 사례 - AWS Lambda

 

AWS Lambda 함수 작업의 모범 사례 - AWS Lambda

이 페이지에 작업이 필요하다는 점을 알려 주셔서 감사합니다. 실망시켜 드려 죄송합니다. 잠깐 시간을 내어 설명서를 향상시킬 수 있는 방법에 대해 말씀해 주십시오.

docs.aws.amazon.com


Q.80

An HTTPS clone URL for an AWS CodeCommit repository is supplied to a developer.

What configuration is required prior to cloning this repository?

  • A. Use AWS KMS to set up public and private keys for use with AWS CodeCommit.
  • B. Set up the Git credential helper to use an AWS credential profile, and enable the helper to send the path to the repositories.
  • C. Use AWS Certificate Manager to provision public and private SSL/TLS certificates.
  • D. Generate encryption keys using AWS CloudHSM, then export the key for use with AWS CodeCommitl.

AWS CodeCommit 리포지토리의 HTTPS 복제 URL이 개발자에게 제공됩니다.

이 리포지토리를 복제하기 전에 어떤 구성이 필요합니까?

  • A. AWS KMS를 사용하여 AWS CodeCommit과 함께 사용할 퍼블릭 및 프라이빗 키를 설정합니다.
  • B. AWS 자격 증명 프로필을 사용하도록 Git 자격 증명 도우미를 설정하고 도우미가 리포지토리로 경로를 보낼 수 있도록 합니다.
  • C. AWS Certificate Manager를 사용하여 공개 및 비공개 SSL/TLS 인증서를 프로비저닝합니다.
  • D. AWS CloudHSM을 사용하여 암호화 키를 생성한 다음 AWS CodeCommitl에서 사용할 키를 내보냅니다.
AWS CodeCommit리포지토리 연결을 설정하는 가장 간단한 방법는 IAM 콘솔에서 CodeCommit에 대한 Git 자격 증명을 구성한 후 이 자격 증명을 HTTPS 접속에 사용하는 것입니다.

Git 자격 증명을 사용하여 HTTPS 사용자를 위한 설정 - AWS CodeCommit

 

Git 자격 증명을 사용하여 HTTPS 사용자를 위한 설정 - AWS CodeCommit

이전에 로컬 컴퓨터에서 CodeCommit에 자격 증명 헬퍼를 사용하도록 사용하도록 구성하였다면 Git 자격 증명을 사용하기 전에 먼저 .gitconfig 파일을 편집하여 이 파일에서 자격 증명 헬퍼 정보를 제

docs.aws.amazon.com


 

반응형

댓글