1 / 36
文档名称:

Hadoop试题试题库.pdf

格式:pdf   大小:2,582KB   页数:36页
下载后只包含 1 个 PDF 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

Hadoop试题试题库.pdf

上传人:1781111**** 2024/5/11 文件大小:2.52 MB

下载得到文件列表

Hadoop试题试题库.pdf

相关文档

文档介绍

文档介绍:该【Hadoop试题试题库 】是由【1781111****】上传分享,文档一共【36】页,该文档可以免费在线阅读,需要了解更多关于【Hadoop试题试题库 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。:..。(本地)。。.:..。。。.:..,,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是D。,,,,。.:..。?.:..。,。.:..??B、C、()存储底层数据AAHDFS.:..()()提供强大的计算能力DAZookeeperBChubbyCRPCDMapReduce.:..,哪些描述是正确的?B、CA两者不可或缺,MapReduce是HBase可以正常运行的保证B两者不是强关联关系,没有MapReduce,?A、B、C、?DAProtobufBJava.:..??A、CAHDFSBGridFSCZookeeperDEXT3第二部分:HBase核心知识点.:..??A、?BA读B写.:..?AA是。B否。()。BA硬盘上B内存中C磁盘阵列中D闪存中16HFile数据格式中的Data字段用于()。A.:..A存储实际的KeyValue数据B存储数据的起点C指定字段的长度D存储数据块的起点17HFile数据格式中的MetaIndex字段用于()。DAMeta块的长度BMeta块的结束点CMeta块数据内容DMeta块的起始点18HFile数据格式中的Magic字段用于()。AA存储随机数,防止数据损坏B存储数据的起点C存储数据块的起点.:..D指定字段的长度19HFile数据格式中的KeyValue数据格式,下列选项描述正确的是()。A、DA是byte[]数组B没有固定的结构C数据的大小是定长的D有固定的结构20HFile数据格式中的KeyValue数据格式中Value部分是()。CA拥有复杂结构的字符串B字符串C二进制数据D压缩数据第三部分:HBase高级应用介绍31HBase中的批量加载底层使用()实现。A.:..?A、B、C、,下列哪些选项的描述是正确的?A、B、CA尽量保证越短越好B可以使用汉字C可以使用字符串.:..?A、,哪些是正确的?A、BA核心是倒排表B二级索引概念是对应Rowkey这个“一级”?A、CA是一个很长的二进制向量和一系列随机映射函数.:..B没有误算率C有一定的误算率D可以在BloomFilter中删除元素第四部分:HBase安装、部署、?A、B、()个节点?AA1B2C3.:..()个节点?CA1B2C3D最少关于hadoop的选择题1、DougCuing所创立的项目的名称都受到其家人的启发,:D.:..2、配置Hadoop时,---:B知识点:hadoop配置3、Hadoop配置文件中,hadoop--。,hadoop-,----:A.:..知识点:hadoop配置4、HDFS默认的当前工作目录是/user/$USER,---:B知识点:hadoop配置5、关于Hadoop单机模式和伪分布式模式的说法,,,,.:..答案:D知识点:hadoop配置6、,:A//HDFS7、HDFS的NameNode负责管理文件系统的命名空间,将所有的文件和文件夹的元数据保存在一个文件系统树中,这些信息也会在硬盘上保存成以下文件:.:..答案:C知识点:8、HDFS的namenode保存了一个文件包括哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。:B知识点:在系统启动的时候从数据节点收集而成的9、:B知识点:它和元数据节点负责不同的事情。其主要功能就是周期性将元数据节点的命名空间镜像文件和修改日志合并,以防日志文件过大。合并过后的命名空间镜像文件也在Secondarynamenode保存了一份,以防namenode失败的时候,可以恢复。.:..10、:B知识点:其他三项是公有的。layoutVersion是一个负整数,保存了HDFS的持续化在硬盘上的数据结构的格式版本号;namespaceID是文件系统的唯一标识符,是在文件系统初次格式化时生成的;storageType表示此文件夹中保存的是数据节点的类型11、Client在HDFS上进行文件写入时,namenode根据文件大小和配置情况,返回部分datanode信息,谁负责将文件划分为多个Block,根据DataNode的地址信息,.:..:A知识点:HDFS文件写入12、HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,,,,,多次读写答案:C知识点:HDFS特性13、HDFS无法高效存储大量小文件,想让它能处理好小文件,、MapFile、Har等方式归档小文件.:..:D知识点:HDFS特性14、关于HDFS的文件写入,:C知识点:在HDFS的一个文件中只有一个写入者,而且写操作只能在文件末尾完成,即只能执行追加操作。默认三份文件块两块在同一机架上,另一份存放在其他机架上。15、Hadoopfs中的-get和-put命令操作对象是.:..:C知识点:HDFS命令16、Namenode在启动时自动进入安全模式,在安全模式阶段,,:D知识点:HDFS安全模式//MapReduce.:..17、MapReduce框架提供了一种序列化键/值对的方法,支持这种序列化的类能够在Map和Reduce过程中充当键或值,<T><T>:C18、<K,V>实现Mapper<K,V,K,V>,<K,V>实现Mapper<K,V,K,V>,反转键/<K>实现Mapper<K,Text,Text,LongWritable>,为每个常规表达式的匹配项生成一个(match,1)<K>实现Mapper<K,Text,Text,LongWritable>,当输入的值为分词时,生成(taken,1)对答案:B.:..知识点:InverseMapper<K,V>实现Mapper<K,V,V,K>19、下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,,输入分片(InputSplit),而HDFS数据块是对输入数据的物理分割答案:B知识点:每个分片不能太小,否则启动与停止各个分片处理所需的开销将占很大一部分执行时间20、针对每行数据内容为”TimestampUrl”的数据文件,()来读取这个文件时,.:..:B知识点:四项主要的InputFormat类。KeyValueTextInputFormat以每行第一个分隔符为界,分隔符前为key,之后为value,默认制表符为 21、有关MapReduce的输入输出,,()可以把输入数据划分为分片,,,输出无需分片答案:B知识点:分片数目在numSplits中限定,,但小于文件系统的块22、HadoopStreaming支持脚本语言编写简单MapReduce程序,以下是一个例子:bin/hadoopjarcontrib/streaming/hadoop--.:..—inputinput/filename—outputoutput—mapper‘’——=123、,,上述命令运行会出现问题答案:D知识点:没有设定特殊的reducer,默认使用IdentityReducer24、在高阶数据处理中,往往无法把整个流程写在单个MapReduce作业中,下列关于链接MapReduce作业的说法,不正确的是.:..,()方法中,一般对键/值对发送设置成值传递,性能好且安全性高答案:D知识点:()方法中,值传递安全性高,引用传递性能高25、下面哪个程序负责HDFS数据存储。答案Cdatanodea)NameNodeb)Jobtrackerc)Datanoded)secondaryNameNodee)tasktracker.:..?答案A默认3分a)3份b)2份c)1份d)?答案Da)SecondaryNameNodeb)DataNodec)TaskTrackerd))MartinFowlerb)KentBeck.:..c):Ba)32MBb)64MBc)128MB30、下列哪项通常是集群的最主要瓶颈:答案:C磁盘a)CPUb)网络c)磁盘IOd)?答案Ca)它是NameNode的热备b)它对内存没有要求.:..c)它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间d)SecondaryNameNode应与NameNode部署到一个节点。多选题:?答案:ABDa)Puppetb)Pdshc)ClouderaManagerd):答案ABCa)如果一个机架出问题,不会影响数据读写b)写入数据的时候会写到不同机架的DataNode中c)?答案B.:..a)数据经过NameNode传递给DataNodeb)Client端将文件切分为Block,依次上传c)Client只上传数据到一台DataNode,:答案ABCa)单机版b)伪分布式c)?答案:ABCDa)Clouderamanagerb)Tarballc)Yumd)Rpm.:..,也可以进行告警。(正确)。(错误),因为它不提供Hadoop支持。(错误),SecondaryNameNode会接替它使集群继续工作。(错误)。(错误),所以MapReduce只支持Java语言编写。(错误)。(错),client端每次读写请求,它都会从磁盘中读取或则会写入metadata信息并反馈client端。(错误)。(错误),所以它的磁盘越大越好。(错误)–report命令用于检测HDFS损坏块。(错误)(正确).:..,这样避免单磁盘损坏,影响整个节点运行。(错误),所以NameNode是不存在单点问题的。(错误)。(错误)。(错误),如果log中报告不兼容文件版本,那需要NameNode执行“Hadoopnamenode-format”操作格式化磁盘。(错误),它通过jetty启动的Web服务。(错误)。它默认是200GB。(错误).