AWS CLF 問題373-376:大容量のデータの保存

AWS クラウドプラクティショナー 問題集Ⅰ|完全無料&徹底解説

AWS クラウドプラクティショナー 問題集Ⅰ|完全無料&徹底解説  「AWS認定クラウドプラクティショナー問題集Ⅰ」は、AWS専門知識認定を目指す方々に向けた試験対策のた…

AWS CLF 問題373-376:大容量のデータの保存

問題373:S3をバックアップの保存先として使用する際、データの耐久性と可用性を高めるために推奨される設定は次のうちどれでしょうか?

A) バケットポリシーの設定
B) オブジェクトのタグ付け
C) サーバーサイドの暗号化
D) マルチリージョンレプリケーションの有効化

解答解説を開く
【正解】
D) マルチリージョンレプリケーションの有効化

【解説】
バックアップの保存先としてS3を使用する場合、データの耐久性と可用性を高めるためにマルチリージョンレプリケーションを有効化することが推奨されます。マルチリージョンレプリケーションでは、データを複数のリージョンに自動的にレプリケートすることで、障害や災害に対する冗長性を確保します。これにより、データの保護と高い可用性が確保されます。

問題374:S3にデータを長期保存する場合、データのアーカイブ化に最適なストレージクラスは次のうちどれでしょうか?

A) S3 Standard
B) S3 Intelligent-Tiering
C) S3 Glacier
D) S3 One Zone-IA

解答解説を開く
【正解】
C) S3 Glacier

【解説】
S3 Glacierは、データの長期保存やアーカイブ化に最適なストレージクラスです。以下にそれぞれのオプションの特徴を説明します。

A) S3 Standard: S3 Standardは、高い耐久性と可用性を持つ標準的なS3ストレージクラスですが、長期保存やアーカイブ化には適していません。データへの頻繁なアクセスが必要な場合や、リアルタイムでのデータアクセスが必要な場合に使用されます。

B) S3 Intelligent-Tiering: S3 Intelligent-Tieringは、データのアクセス頻度に応じて自動的にストレージクラスを変更する機能を持つクラスです。データのアクセスパターンが変動する場合に有効ですが、長期保存やアーカイブ化を主な目的とする場合は、S3 Glacierよりもコスト効率的な選択肢とは言えません。

C) S3 Glacier: S3 Glacierは、データを非常に低いコストで長期保存するために設計されています。データのアクセス頻度が低く、アーカイブ化が必要な場合に適しています。データの取り出しには通常数時間から数十分かかるため、アーカイブデータへのアクセスは少ないことが想定されています。

D) S3 One Zone-IA: S3 One Zone-IAは、S3 Standardよりも低コストでありながら、高い可用性を持つストレージクラスですが、データが1つのアベイラビリティーゾーンにのみ保存されるため、耐障害性が低く、アーカイブ化には不向きです。

問題375:S3をデータレイクに利用する際、どのような利点がありますか?

A) データの処理と分析を効率化できる。
B) セキュリティの脆弱性を軽減できる。
C) データの耐久性と可用性を向上できる。
D) ストレージコストを削減できる。

解答解説を開く
【正解】
A) データの処理と分析を効率化できる。

【解説】
S3をデータレイクに利用することで、データの処理と分析を効率化することができます。データレイクは大量のデータを格納するための中央集権的なストレージとして機能し、データを一元化してアクセスできる環境を提供します。これにより、データサイエンティストや分析担当者がデータにアクセスし、必要な情報を簡単に抽出して分析することができます。

問題376:S3をデータレイクに利用する際、以下のどの機能を使用してデータの大規模な分析を実行することができますか?

A) Amazon Athena
B) Amazon SNS
C) Amazon CloudFront
D) Amazon RDS

解答解説を開く
【正解】
A) Amazon Athena

【解説】
S3をデータレイクに利用する場合、大規模な分析を実行するためにはAmazon Athenaを使用することができます。Amazon Athenaは、S3に保存されたデータに対して標準SQLクエリを実行することができるサーバーレスのクエリサービスです。Athenaを使用することで、データのスキャンや集計、フィルタリングなどの処理を行い、必要な情報を効率的に抽出することができます。これにより、データレイクに蓄積された大量のデータから価値ある情報を抽出して分析することができます。