No.1 会社は、Amazon S3ゲートウェイエンドポイントが信頼されたバケットへのみのトラフィックを許可することを要求しています。この要件を満たすためにソリューションアーキテクトはどの方法を実装するべきでしょうか?
A. 会社の信頼されたS3バケットごとに、会社の信頼されたVPCからのみのトラフィックを許可するバケットポリシーを作成する。
B. 会社の信頼されたS3バケットごとに、会社のS3ゲートウェイエンドポイントIDからのみのトラフィックを許可するバケットポリシーを作成する。
C. 会社のS3ゲートウェイエンドポイントごとに、会社の信頼されたVPC以外の任意のVPCからのアクセスをブロックするS3エンドポイントポリシーを作成する。
D. 会社のS3ゲートウェイエンドポイントごとに、信頼されたS3バケットのAmazonリソース名(ARN)へのアクセスを提供するS3エンドポイントポリシーを作成する。
No.2 ソリューションアーキテクトは、バージョニングが有効なAmazon S3上でホストされているウェブサイトに頻繁に更新が必要なソリューションを設計しています。コンプライアンスの理由から、オブジェクトの古いバージョンは頻繁にはアクセスされず、2年後には削除する必要があります。これらの要件を最も低いコストで満たすために、ソリューションアーキテクトは何を推奨すべきでしょうか?
A. S3バッチ操作を使用してオブジェクトのタグを置き換える。変更されたタグに基づいてオブジェクトを期限切れにする。
B. 古いバージョンのオブジェクトをS3 Glacierに移行するためのS3ライフサイクルポリシーを設定する。オブジェクトを2年後に期限切れにする。
C. バケットにS3イベント通知を有効にし、古いオブジェクトをAmazon Simple Queue Service (Amazon SQS)キューに送信してさらに処理を行う。
D. 古いオブジェクトバージョンを新しいバケットにレプリケートする。新しいバケットのオブジェクトを2年後に期限切れにするためのS3ライフサイクルポリシーを使用する。
No.3 ある会社は、オンプレミスからAWSへMySQLデータベースを移行したいと考えています。会社は最近、ビジネスに大きな影響を与えるデータベースの停止を経験しました。これが再び起こらないようにするため、会社はデータの損失を最小限に抑え、すべてのトランザクションを少なくとも2つのノードに保存する信頼性の高いデータベースソリューションをAWS上で求めています。以下のどのソリューションがこれらの要件を満たしていますか?
A. 三つのAvailability Zonesに三つのノードで同期レプリケーションを持つAmazon RDS DBインスタンスを作成する。
B. データを同期的にレプリケートするためにMulti-AZ機能を有効にしたAmazon RDS MySQL DBインスタンスを作成する。
C. Amazon RDS MySQL DBインスタンスを作成し、データを同期的にレプリケートする別のAWSリージョンにリードレプリカを作成する。
D. MySQLエンジンがインストールされたAmazon EC2インスタンスを作成し、データをAmazon RDS MySQL DBインスタンスに同期的にレプリケートするためのAWS Lambda関数をトリガーする。
No.4 ある会社は、Auto Scalingグループにあるビルドサーバーを持っており、多くの場合、複数のLinuxインスタンスが動作しています。
ビルドサーバーは、ジョブや設定のための一貫した共有NFSストレージを必要とします。ソリューションアーキテクトは、どのストレージオプションを推奨すべきですか?
A. Amazon S3
B. Amazon FSx
C. Amazon Elastic Block Store (Amazon EBS)
D. Amazon Elastic File System (Amazon EFS)
No.5 ある会社は、300以上のグローバルなウェブサイトとアプリケーションをホストしています。この会社は、毎日30TB以上のクリックストリームデータを分析するためのプラットフォームが必要です。クリックストリームデータの送信と処理を行うために、ソリューションアーキテクトは何をすべきですか?
A. AWS Data Pipelineを設計してデータをAmazon S3バケットにアーカイブし、データを用いてAmazon EMRクラスターを実行して分析を生成する。
B. Amazon EC2インスタンスのAuto Scalingグループを作成してデータを処理し、Amazon Redshiftが分析に使用するためのAmazon S3データレイクに送信する。
C. データをAmazon CloudFrontにキャッシュする。データをAmazon S3バケットに保存する。S3バケットにオブジェクトが追加されると、AWS Lambda関数を実行してデータを分析のために処理する。
D. Amazon Kinesis Data Streamsからデータを収集する。Amazon Kinesis Data Firehoseを使用してデータをAmazon S3データレイクに転送する。データをAmazon Redshiftにロードして分析する。