如您没有注册,请点击此处注册
A. 跨多边缘位置部署资源 B. 跨多个VPC部署资源 C. 跨多个可用性区域部署资源 D. 跨多个AWS账号部署资源
A.向用户分发内容 B.缓存常见响应 C.跨多个资源分配负载 D.和CloudFont服务协同使用
A.基于平均CPU使用率创建一个自动缩放组进行缩放 B.创建一个Amazon CloudFront分布,从Amazon S3中提取静态内容 C.利用保留的实例以更低的价格添加额外的容量 D.使用Amazon Route 53 地理位置路由策略创建多区域部署
A.Spot 实例 B.Reserved 实例 C.Dedicated 实例 D.On-Demand 实例
A.将该实例放置在公有子网当中, 但是并不配置0.0.0.0/0的路由条路 B.该实例所在的VPC不关联IGW C.将该实例放置在私有子网当中, 该子网所关联的路由表有一条0.0.0.0/0,目标为NGW的路由 D.将该实例放置在私有子网当中, 并暂且不对该子网的路由表做任何的配置
A.创建一个堡垒主机,根据公司目录对用户进行身份验证 B.创建一个带有安全组规则的堡垒主机,该规则只允许来自公司网络的流量 C.在堡垒主机上附加一个具有相关权限的IAM角色 D.配置Web服务器安全组以允许来自堡垒主机的SSH流量 E.拒绝入站网络访问控制列表中来自公司网络的所有SSH流量
A.Amazon EC2 实例存储 B.Amazon EBS General Purpose SSD (gp2) 存储 C.Amazon S3 D.Amazon EBS Provision IOPS SSD (io1) 存储
A.安全组和ACL(访问控制列表)设置 B.中止存储设备运行 C.在EC2实例操作系统上管理补丁 D.管理IAM证书的生命周期 E.对计算资源的物理访问权限进行管理 F.对EBS(Elastic Block Storage)卷的加密
A.这样做没什么不好 B.移除根账户凭证, 建议用户将自己的凭证信息存储在EC2实例上 C.移除根账户凭证, 使用IAM角色替代根账户凭证, 并将根账户凭证移出, 并查看是否存在凭证泄漏的情况出现 D.这样做太复杂了, 将S3对象公开就可以了
A.将自动缩放组的缩放事件更改为基于网络利用率的缩放 B.创建自动缩放计划动作,以便在每天早上8:30扩展必要的资源 C.使用保留的实例来确保系统为扩展事件保留了适当的容量 D.永久地保持一个稳定的实例状态,该状态在上午9:00时需要,以保证可用的资源,但要利用Spot实例
A.确保CloudTrail已启用 B.创建一个定制的CloudWatch度量来监视数据访问的API C.为支持团队所需的任何指标配置CloudWatch警报 D.确保启用了对EC2实例的详细监控 D.创建一个应用程序来导出和保存CloudWatch指标,以便进行长期趋势分析
A.用一个ELB内部经典负载均衡器替换Amazon EC2反向代理 B.为Amazon EC2后端机群添加自动扩展 C.添加自动缩放到Amazon EC2反向代理层 D.为后端机群使用t2 burstable实例类型 E.用ELB应用程序负载平衡器替换前端代理层和反向代理层
A.创建并自动缩放最小为一个实例、最大为两个实例的组,然后使用应用程序负载均衡器来平衡流量 B.使用Amazon API网关重新创建API,并使用AWS Lambda作为服务后端 C.创建并自动缩放一个最大为两个实例的组,然后使用应用程序负载均衡器来平衡流量 D.使用Amazon API网关重新创建API,并将新API与现有后端集成
A.Lambda@Edge B.AWS Lambda C.Amazon API Gateway D.Amazon EC2 instances
A.购买保留的实例来运行所有容器。使用自动缩放组来调度作业 B.在sports实例上托管容器管理服务,使用保留的实例运行Docker容器 C.使用Amazon ECS编制和自动伸缩组:一个带有保留实例,一个带有Spot实例 D.使用Amazon ECS来管理容器编制。购买预留实例,以便同时运行所有批处理工作负载。
A. 在Amazon EC2上设置一个流数据提取应用程序,并将其连接到Hadoop集群进行数据处理。将输出发送到Amazon S3并使用Amazon Athena分析数据。 B.使用Amazon Kinesis数据流配置输入流。使用Amazon Kinesis Data Analytics编写针对流的SQL查询 C.使用Amazon Kinesis数据流配置输入流。使用Amazon Kinesis data Firehose将数据发送到Amazon Redshift集群,然后直接针对Amazon Redshift进行查询 D.在Amazon Ec2上设置流数据提取应用程序,并将输出结果发送到Amazon。S3使用Kinesis Data Firehose。使用Athena来分析数据。
A.使用EMR文件系统将每个步骤的输出作为对象存储在S3中 B.使用s3n URI来存储数据,数据将保留在Amazon S3中 C.将要处理的数据加载到HDFS中,然后将最终的输出写入Amazon S3 D.直接部署EMR集群,最终结果保留在核心节点当中,无需做其他操作
A.Amazon Athena B.Amazon Redshift Spectrum C.Amazon RDS for PostgreSQL D.Amazon Aurora
A.我是聪明绝顶的北上广深一线码农 B.我是黑眼圈堪比国宝的二线城市程序猿 C.我是格子衫双肩背的其他地区攻城狮 D.我是某个地方爱学习的人
A.我是怼天怼地的00后 B.我是又佛又丧的90后 C.我是上有老下有小的80后 D.我是保温杯泡枸杞的70后 E.其他年代的地球人
A.我在可以改变世界的互联网行业 B.我在社会发展基石的制造业 C.我在现代经济核心的金融业 D.我在决定国家和民族未来的教育业 E.我在保障人民生命和健康的医疗业 F.我在其他行业服务着广大群众