[AWS-SAA] Examtopics 191~200

[AWS-SAA] Examtopics 191~200

SAA Examtopics 191~200번 문제를 풀어보자.


Prob. 191

Amazon EC2에서 비즈니스는 전자 상거래 애플리케이션을 호스팅합니다. 애플리케이션은 실행을 위해 최소 10개의 인스턴스와 최대 250개의 인스턴스가 필요한 상태 비저장 웹 계층으로 구성됩니다. 80%의 경우 프로그램에는 50개의 인스턴스가 필요합니다.

비용을 줄이려면 어떤 솔루션을 채택해야 합니까?

A. 250개 인스턴스를 대상으로 예약 인스턴스를 구입하십시오.

B. 예약 인스턴스를 구입하여 80개의 인스턴스를 포함합니다. 나머지 인스턴스를 포함하려면 스팟 인스턴스를 사용합니다.

C. 40개의 인스턴스를 포함하는 온디맨드 인스턴스를 구입합니다. 나머지 인스턴스를 포함하려면 스팟 인스턴스를 사용합니다.

D. 예약 인스턴스를 구입하여 50개의 인스턴스를 포함합니다. 온디맨드 및 스팟 인스턴스를 사용하여 나머지 인스턴스를 포함합니다.




정답 및 해설 보기


Answer : D

해설 :

비용을 줄이려면 어떤 솔루션 문제 요점.

최소 10개의 인스턴스와 최대 250개의 인스턴스가 필요한 상태.
80%의 경우 프로그램에는 50개의 인스턴스가 필요.

A 탈락 -> 250개를 예약하면 비용적으로 부적합.

B 탈락 -> 80개 예약하고 나머지를 스팟을 사용하는데 처음에 많은 개수를 잡아서 부적합.

C 탈락 -> 예약 인스턴스가 싼데 온디맨드로 사용하여 부적합.

D 정답 -> 대부분의 시간 동안 50개의 인스턴스를 예약하고, 나머지는 스팟 fleet(온디맨드 및 스팟 혼합)를 예약하여 적합.


Prob. 192

비즈니스에서 Amazon Aurora 기반 Amazon RDS 데이터베이스 인스턴스를 설치하려고 합니다. 조직에는 90일 백업 보존 정책이 있습니다.

솔루션 아키텍트가 제안해야 하는 솔루션은 무엇입니까?

A. RDS DB 인스턴스를 생성할 때 백업 보존 기간을 90일로 설정하십시오.

B. 수명 주기 정책이 90일 후에 삭제되도록 설정된 사용자 관리 Amazon S3 버킷에 자동 스냅샷을 복사하도록 RDS를 구성합니다.

C. 보존 기간이 90일로 설정된 RDS 데이터베이스의 일일 스냅샷을 수행하는 AWS 백업 계획을 생성합니다. AWS 백업 작업을 생성하여 매일 백업 계획 실행을 예약합니다.

D. Amazon CloudWatch 이벤트와 함께 매일 예약된 이벤트를 사용하여 RDS 자동 스냅샷의 복사본을 만드는 사용자 지정 AWS Lambda 기능을 실행합니다. 90일이 지난 스냅샷을 정리합니다.




정답 및 해설 보기


Answer : C

해설 :

90일 백업 보존 정책 문제 요점.

Amazon RDS 데이터베이스 인스턴스를 설치.

RDS가 수동 및 자동 스냅샷을 자체 관리 S3 버킷에 저장하는 것으로 알고 있기 때문에 라이프사이클 정책을 어떻게 설정할 수 있는지에 대해 알 수 없습니다. 다른 한편으로는 백업을 수행하는 빈도와 백업 계획에 백업을 유지하는 기간을 제어할 수 있습니다.
Lambda는 15분 정도 간단한 작업, 사용횟수마다 측정.

A 탈락 -> 보존 기간만 설정하여 부적합.

B 탈락 -> 수동 및 자동 스냅샷으로 자체 관리하기에 라이프 사이클로 설정하지 못하여 부적합.

C 정답 -> 보존 기간과 백업에 대한 계획이 있어 적합.

D 탈락 -> 백업본을 복제하는 이유가 없어 부적합.


Prob. 193

솔루션 설계자는 공용 및 사설 서브넷으로 가상 사설 클라우드(VPC)를 구성하고 있습니다. VPC 및 서브넷은 IPv4 CIDR 블록을 사용하여 구성됩니다. 3개의 가용 영역(AZ) 각각에는 하나의 퍼블릭 서브넷과 하나의 프라이빗 서브넷이 있습니다. 인터넷 게이트웨이는 퍼블릭 서브넷을 인터넷에 연결하는 데 사용됩니다. Amazon EC2 인스턴스가 소프트웨어 업그레이드를 받으려면 프라이빗 서브넷이 인터넷에 연결되어 있어야 합니다.

솔루션 설계자는 프라이빗 서브넷이 인터넷에 연결되도록 허용하려면 어떻게 해야 합니까?

A. 각 AZ의 각 공용 서브넷에 대해 하나씩 3개의 NAT 게이트웨이를 생성합니다. 비 VPC 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 각 AZ에 대한 전용 경로 테이블을 생성합니다.

B. 각 AZ의 각 프라이빗 서브넷에 대해 하나씩 3개의 NAT 인스턴스를 생성합니다. 비 VPC 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 각 AZ에 대한 전용 경로 테이블을 생성합니다.

C. 개인 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 만듭니다. 비 VPC 트래픽을 개인 인터넷 게이트웨이로 전달하는 개인 서브넷의 경로 테이블을 업데이트합니다.

D. 공용 서브넷 중 하나에 송신 전용 인터넷 게이트웨이를 만듭니다. 비 VPC 트래픽을 송신 전용 인터넷 게이트웨이로 전달하는 개인 서브넷의 경로 테이블을 업데이트합니다.




정답 및 해설 보기


Answer : A

해설 :

업그레이드를 받으려면 프라이빗 서브넷이 인터넷에 연결 문제 요점.

공용 및 사설 서브넷으로 가상 사설 클라우드(VPC)를 구성.
IPv4 CIDR 블록을 사용하여 구성.
3개의 가용 영역(AZ) 각각에는 하나의 퍼블릭 서브넷과 하나의 프라이빗 서브넷.
인터넷 게이트웨이는 퍼블릭 서브넷을 인터넷에 연결.

VPC는 전통적인 네트워크와 같이 하나 이상의 연속적 IP 주소인 CIDR(Classless Inter Domain Routing) 블록으로 표시합니다. CIDR 블록은 VPC 내의 인스턴스 및 리소스에 할당되는 IP 주소를 결정.

NAT 게이트웨이와 관련하여 기억해야 할 두 가지 사항.
#1) 항상 공용 서브넷에 배치됩니다.(인터넷일 경우)
#2) AZ 장애가 발생하면 NAT 게이트웨이를 사용할 수 없게 되고 다른 가용성 영역 내의 리소스가 인터넷에 액세스할 수 없게 됩니다. 내결함성 아키텍처를 만들려면 AWS NAT 게이트웨이가 2개 이상의 가용성 영역(AZ)에 구축되어 있는지 확인하십시오.

VPC -> AZ -> 서브넷 -> 인스턴스.
NAT는 네트워크 주소 변환기로 프라이빗 서브넷이 외부에 접근.

A 정답 -> 3개 AZ영역 모두 퍼블릭 서브넷에 NAT를 사용하여 적합.

B 탈락 -> 프라이빗 서브넷에 배치되어 부적합.

C, D 탈락 -> 결국 AZ 장애시 문제가 발생하여 부적합.


Prob. 194

현재 한 기업에서 공급업체별 형식을 사용하여 Amazon S3에 250TB의 백업 데이터를 저장했습니다. 이 회사는 Amazon S3에서 파일을 추출하여 업계 표준 형식으로 변환한 다음 Amazon S3에 다시 업로드하려고 합니다. 회사는 이 세션의 데이터 전송과 관련된 비용을 줄이기를 원합니다.

솔루션 설계자는 이를 달성하기 위해 어떤 조치를 취해야 합니까?

A. 변환 소프트웨어를 Amazon S3 배치 작업으로 설치하여 데이터가 Amazon S3에서 벗어나지 않고 변환되도록 합니다.

B. 변환 소프트웨어를 사내 가상 시스템에 설치합니다. 변환을 수행하고 가상 시스템에서 Amazon S3로 파일을 다시 업로드합니다.

C. AWS Snowball Edge 장치를 사용하여 데이터를 내보내고 변환 소프트웨어를 장치에 설치합니다. 데이터 변환을 수행하고 Snowball Edge 디바이스에서 Amazon S3로 파일을 다시 업로드합니다.

D. Amazon S3와 동일한 영역에서 Amazon EC2 인스턴스를 시작하고 인스턴스에 변환 소프트웨어를 설치합니다. 변환을 수행하고 EC2 인스턴스에서 Amazon S3로 파일을 다시 업로드합니다.




정답 및 해설 보기


Answer : D

해설 :

세션의 데이터 전송과 관련된 비용을 줄임 문제 요점.

공급업체별 형식으로 Amazon S3에 250TB의 백업 데이터를 저장.
파일을 추출하여 업계 표준 형식으로 변환한 다음 Amazon S3에 다시 업로드.

배치 작업인 람다는 사용자 지정 소프트웨어를 설치할 수 없습니다. 그래서 S3에서 일괄 처리가 불가능합니다.
데이터 전송 비용을 최소화하기 위한 질문입니다. S3와 동일한 지역에 EC2를 설치하는 것이 D입니다.

A 탈락 -> 배치 작업에 지정 SW설치 불가하여 부적합.

B 탈락 -> 데이터가 이미 S3에 있습니다. 다시 데이터센터에서 AWS로 데이터를 전송하는 것으로 부적합.

C 탈락 -> 데이터가 이미 S3에 있습니다. 스노우볼은 데이터센터에서 AWS로 데이터를 전송하는 것으로 부적합.

D 정답 -> 동일한 영역에 처리를 위해 EC2로 변환하고 다시 저장하여 적합.


Prob. 195

비즈니스 애플리케이션은 온프레미스 서버에서 호스팅됩니다. 회사는 스토리지 용량을 빠르게 고갈시키고 있습니다. 프로그램은 블록 및 네트워크 파일 저장소를 모두 사용합니다. 기업은 현재 애플리케이션을 다시 설계할 필요 없이 로컬 캐싱을 가능하게 하는 고성능 솔루션이 필요합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계를 함께 수행해야 합니까? (2개를 선택하세요.)

A. 온프레미스 서버에 파일 시스템으로 Amazon S3를 마운트합니다.

B. NFS 스토리지를 대체할 AWS Storage Gateway 파일 게이트웨이를 배포합니다.

C. AWS Snowball Edge를 구축하여 사내 서버에 NFS 마운트를 프로비저닝합니다.

D. 블록 스토리지를 교체할 AWS Storage Gateway 볼륨 게이트웨이를 배포합니다.

E. Amazon EFS(Elastic Fife System) 볼륨을 배포하고 이를 사내 서버에 마운트합니다.




정답 및 해설 보기


Answer : B, D

해설 :

현재 애플리케이션을 다시 설계할 필요 없이 로컬 캐싱을 가능 문제 요점.

블록 스토리지용 - 볼륨 게이트웨이.
NFS용 - 파일 게이트웨이.

A 탈락 -> s3는 블록 스토리지이고 FS으로 마운트할 수 없기 때문에 부적합.

B 정답 -> NFS 마운트 옵션에 EFS가 있는 경우에는 NFS 캐시 일관성을 변경하지 않고 로컬 파일 캐싱을 지원하고 지연 시간을 줄여 주의를 분산시키는 옵션인 FSC 옵션이 있어 적합.

C 탈락 -> 마이그레이션 서비스(스노우볼, DataSync)는 S3 서비스로 부적합.

D 정답 -> 사전에 블록 스토리지 데이터를 캐싱하는 데 가장 적합한 솔루션이며 B 지점에서 언급한 것과 유사하게 AWS에 백업하여 적합.

E 탈락 -> NFS 로컬 캐싱 및 스토리지를 위한 편리한 솔루션이지만 사내 서버에 마운트하여 부적합.


Prob. 196

비즈니스는 Application Load Balancer를 통해 라우팅되는 Amazon EC2 인스턴스에서 웹 서비스를 호스팅합니다. 인스턴스는 Amazon EC2 Auto Scaling 그룹을 통해 2개의 가용 영역에 분산됩니다. 기업은 비용을 낮게 유지하면서 필요한 SLA(서비스 수준 계약) 요구 사항을 달성하기 위해 항상 최소 4개의 인스턴스가 필요합니다.

가용 영역에 장애가 발생하는 경우 조직은 어떻게 SLA 준수를 유지할 수 있습니까?

A. 냉각 시간이 짧은 대상 추적 스케일링 정책을 추가합니다.

B. 더 큰 인스턴스 유형을 사용하도록 자동 스케일링 그룹 시작 구성을 변경합니다.

C. 세 개의 가용 영역에서 6대의 서버를 사용하도록 자동 확장 그룹을 변경합니다.

D. 두 개의 가용 영역에서 8개의 서버를 사용하도록 자동 확장 그룹을 변경합니다.




정답 및 해설 보기


Answer : D

해설 :

가용 영역에 장애가 발생하는 경우 조직은 어떻게 SLA 준수를 유지 문제 요점.

ALB를 통해 라우팅되는 Amazon EC2 인스턴스에서 웹 서비스를 호스팅.
Auto Scaling 그룹을 통해 2개의 가용 영역에 분산.
항상 최소 4개의 인스턴스가 필요.

서비스 수준 계약(SLA)은 서비스 제공자와 고객 간의 계약으로, 제공하는 서비스의 유형과 표준을 정의.

A 탈락 -> 냉각 시간을 짧게 만들게 대상을 추적해서 바로바로 스케일링을 하지만 최소 조건에서 탈락.

B 탈락 -> 더 큰 인스턴스 유형은 처리에 관련 부적합.

C 탈락 -> 최소 3개의 인스턴스라서 부적합.

D 정답 -> 답으로는 애매하나 두개의 가용 영역에서 최소 4개씩은 운영하여 장애에 대응하는 것 같아 적합.


Prob. 197

한 회사에서 AWS 클라우드를 사용하여 3계층 전자상거래 애플리케이션을 실행하고 있습니다. 이 회사는 Amazon S3에서 웹사이트를 호스팅하고 이를 판매 API와 결합합니다. API는 ALB(Application Load Balancer)를 통해 연결된 3개의 Amazon EC2 인스턴스로 회사에서 호스팅합니다. API는 정적 및 동적 프런트 엔드 콘텐츠와 판매 요청을 비동기적으로 실행하는 백엔드 작업자로 구성됩니다. 회사는 신제품 출시를 축하하는 이벤트 기간 동안 판매 요청이 갑자기 급증할 것으로 예상합니다.

솔루션 설계자는 모든 요청의 효과적인 처리를 보장하기 위해 무엇을 처방해야 합니까?

A. 동적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. 트래픽 증가를 처리할 EC2 인스턴스 수를 늘립니다.

B. 정적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. EC2 인스턴스를 자동 확장 그룹에 배치하여 네트워크 트래픽을 기반으로 새 인스턴스를 시작합니다.

C. 동적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. ALB 앞에 Amazon ElastiCache 인스턴스를 추가하여 API가 처리할 트래픽을 줄입니다.

D. 정적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. EC2 인스턴스가 나중에 처리할 수 있도록 웹 사이트에서 요청을 수신하려면 Amazon SQS(Simple Queue Service) 대기열을 추가합니다.




정답 및 해설 보기


Answer : D

해설 :

이벤트 기간 동안 판매 요청이 갑자기 급증 문제 요점.

회사는 Amazon S3에서 웹사이트를 호스팅.
이를 판매 API와 결합.
API는 ALB를 통해 연결된 3개의 Amazon EC2 인스턴스로 회사에서 호스팅.
정적 및 동적 프런트 엔드 콘텐츠와 판매 요청을 비동기적으로 실행하는 백엔드 작업자로 구성.

D가 정답입니다. B가 작동할 수는 있지만, “매출의 급격한 변화”라고 말하기 때문에 예측할 수 없고 ASG에서 EC2 인스턴스를 확장하는 것은 시간이 걸릴 뿐만 아니라 처리되지 않은 데이터도 손실될 수 있습니다. 만약 그들이 판매일 전에 “사전 준비”된 사례를 더 많이 가지고 미리 준비한다면 B는 효과가 있을 것이지만 그래도 D는 예측 불가능성을 더 잘 해결할 것이다.

A 탈락 -> 동적 컨텐츠에는 전세계에서 캐싱 관련이 아닌 이상 CloudFront가 필요 없으며 인스턴스 또한 직접 수정하는 것 같아 부적합.

B 탈락 -> 정적 컨텐츠는 CloudFront와 함께 사용하면 정적 웹 호스팅의 도메인으로 사용 가능하고 자동 확장으로 트래픽에 대한 동작 가능하지만 안전하지 않아 부적합.

C 탈락 -> 동적 컨텐츠에는 전세계에서 캐싱 관련이 아닌 이상 CloudFront가 필요 없으며 ElastiCache는 인메모리라서 부적합.

D 정답 -> 정적 컨텐츠는 CloudFront와 함께 사용하면 정적 웹 호스팅의 도메인으로 사용 가능하고 SQS로 대기열을 만들어 문제가 생겨도 복구하여 적합.




Prob. 198

Amazon EC2 인스턴스는 애플리케이션을 실행하는 데 사용됩니다. 애플리케이션의 민감한 데이터는 Amazon S3 버킷에 보관됩니다. 버킷은 인터넷 액세스로부터 보호되는 동시에 VPC 내부 서비스에 대한 액세스를 허용해야 합니다.

이를 위해 아카이브 솔루션은 어떤 활동을 수행해야 합니까? (2개를 선택하세요.)

A. Amazon S3에 대한 VPC 엔드포인트을 생성합니다.

B. 버킷에서 서버 액세스 로깅을 사용합니다.

C. 버킷 정책을 적용하여 S3 엔드포인트에 대한 액세스를 제한합니다.

D. 중요한 정보가 있는 버킷에 S3 ACL을 추가합니다.

E. IAM 정책을 사용하는 사용자가 특정 버킷을 사용하도록 제한합니다.




정답 및 해설 보기


Answer : A, C

해설 :

인터넷 액세스로부터 보호되는 동시에 VPC 내부 서비스에 대한 액세스를 허용 문제 요점.

Amazon EC2 인스턴스는 애플리케이션을 실행.
민감한 데이터는 Amazon S3 버킷에 보관.

링크https://docs.aws.amazon.com/AmazonS3/latest/userguide/example-bucket-policies-vpc-endpoint.html :
“Amazon S3 버킷 정책을 사용하여 특정 VPC(Virtual Private Cloud) 엔드포인트 또는 특정 VPC의 버킷에 대한 액세스를 제어할 수 있습니다.”

링크https://docs.aws.amazon.com/vpc/latest/privatelink/vpc-endpoints.html :
“VPC 엔드포인트을 사용하면 VPC와 지원되는 AWS 서비스 및 AWS PrivateLink를 통해 제공되는 VPC 엔드포인트 서비스를 개인적으로 연결할 수 있습니다. AWS PrivateLink는 개인 IP 주소를 사용하여 개인적으로 서비스에 액세스할 수 있는 기술입니다. VPC와 다른 서비스 간의 트래픽은 Amazon 네트워크에서 전송되지 않습니다.”

A 정답 -> 서브넷에서 엔드포인트로 AWS리소스에 연결 가능하여 적합.

B 탈락 -> 서버 액세스에 대한 로그를 사용하여 부적합.

C 정답 -> 연결된 서브넷에 다른 서비스나 PrivateLink로 우회할 수 있어서 제한하여 적합.

D 탈락 -> 네트워크와 관련된 문제인데 접근 제어 목록(access control list, ACL) 또는 액세스 제어 목록은 개체나 개체 속성에 적용되어 있는 허가 목록을 만들어도 인터넷 네트워크를 못막아 부적합.

E 탈락 -> IAM 정책은 사용자에 대한 접근 제한을 해야하여 부적합.


Prob. 199

기업의 프로그램은 각각 크기가 약 5MB인 방대한 수의 파일을 생성합니다. Amazon S3는 파일을 저장하는 데 사용됩니다. 회사 정책에 따라 파일은 삭제되기 전에 4년 동안 보관되어야 합니다. 파일에는 복제하기 어려운 중요한 비즈니스 데이터가 포함되어 있기 때문에 즉각적인 액세스는 항상 필수적입니다. 파일은 일반적으로 항목 설정 후 처음 30일 이내에 조회되지만 해당 기간 이후에는 거의 액세스되지 않습니다.

가장 저렴한 스토리지 옵션은 무엇입니까?

A. S3 버킷 라이프사이클 정책을 생성하여 파일을 S3 Standard에서 S3 Glacier로 이동한 후 30일이 경과됩니다. 개체 생성 후 4년 후에 파일을 삭제합니다.

B. S3 Standard에서 S3 OneZone-Infrequent Access(S3 OneZone-IA)로 파일을 이동하려면 S3 버킷 수명 주기 정책을 생성합니다. 개체 생성 후 4년 후에 파일을 삭제합니다.

C. 파일을 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 이동하려면 S3 버킷 수명 주기 정책을 생성합니다. 개체 생성 후 4년 후에 파일을 삭제합니다.

D. S3 버킷 수명 주기 정책을 생성하여 파일을 개체 생성으로부터 30일 후에 S3 Standard-Infrequent Access(S3 Standard-IA)로 이동합니다. 객체 생성 후 4년 후 S3 Glacier로 파일을 이동합니다.




정답 및 해설 보기


Answer : C

해설 :

가장 저렴한 스토리지 문제 요점.

각각 크기가 약 5MB인 방대한 수의 파일을 생성.
S3는 파일을 저장하는 데 사용.
파일은 삭제되기 전에 4년 동안 보관.
즉각적인 액세스는 항상 필수적.
30일 이내에 조회되지만 해당 기간 이후에는 거의 액세스되지 않음.

파일에는 복제하기 어려운 중요한 비즈니스 데이터가 포함되어 있습니다.

A 탈락 -> 30일 이후의 파일이 거의 액세스되지 않는거지 검사용으로 사용하는 글래시어는 부적합.

B 탈락 -> 원 존은 저장 공간/리전이 한 곳으로 중요하지 않는 데이터를 저장할때 사용하여 부적합.

C 정답 -> 중요한 데이터를 복제해 다른 곳에 저장하며 IA로 30일 이후 파일이 지금은 액세스되지 않지만 언젠가 가능성이 있어 적합.

D 탈락 -> 4년 후 파일을 삭제하는게 아니라 보관하여 부적합.


Prob. 200

비즈니스에 미션 크리티컬 데이터가 포함된 버킷이 Amazon S3에 있습니다. 회사는 의도하지 않은 삭제로부터 이 데이터를 보호하기를 원합니다. 데이터는 계속 사용할 수 있어야 하며 사용자는 의도적으로 데이터를 지울 수 있어야 합니다.

솔루션 설계자는 이를 달성하기 위해 어떤 조치를 함께 사용해야 합니까? (2개를 선택하세요.)

A. S3 버킷에서 버전 관리를 사용하도록 설정합니다.

B. S3 버킷에서 MFA 삭제를 활성화합니다.

C. S3 버킷에 버킷 정책을 생성합니다.

D. S3 버킷에서 기본 암호화를 사용합니다.

E. S3 버킷의 개체에 대한 수명 주기 정책을 생성합니다.




정답 및 해설 보기


Answer : A, B

해설 :

데이터는 계속 사용할 수 있어야 하며 사용자는 의도적으로 데이터를 지울 수 있음 문제 요점.

데이터가 포함된 버킷이 Amazon S3.
의도하지 않은 삭제로부터 이 데이터를 보호.

A. S3 버킷에서 버전 관리를 활성화합니다.
B. S3 버킷에서 MFA 삭제를 활성화합니다.

A 정답 -> 버저닝하여 원치 않는 삭제가 발생하면 이전 버전으로 복구하여 적합.

B 정답 -> MFA 삭제를 활성화하여 2차 인증후 의도적으로 삭제할 수 있는 사용자를 허용하여 적합.

C 탈락 -> 버킷 정책은 다른 AWS리소스에서 접근을 생성하는 것이라 부적합.

D 탈락 -> 암호화는 데이터나 전송할때 사용하여 부적합.

E 탈락 -> 수명 주기 정책으로는 보존 기간과 관련되어 부적합.



© 2022. All rights reserved. 신동민의 블로그