判断题

Hive基于Hadoop,安装Hive之前先安装好Hadoop。

查看答案
该试题由用户151****76提供 查看答案人数:23634 如遇到问题请 联系客服
正确答案
该试题由用户151****76提供 查看答案人数:23635 如遇到问题请联系客服

相关试题

换一换
判断题
Hive基于Hadoop,安装Hive之前先安装好Hadoop。
答案
判断题
Hive基于Hadoop,安装Hive之前先安装好Hadoop。三.选择题
答案
单选题
为了启动hive,我们必须在路径里安装有hadoop或者__()
A.export HADOOP_HOME=hadoop-install-dir B.export HIVE_HOME=hive-install-dir C.export JAVA_HOME=java-install-dir D.export HDFS_HOME=hdfs-install-dir
答案
主观题
Hive是基于Hadoop的一个()工具
答案
判断题
Hive架构建立在Hadoop之上的,所有Hive中数据都是存储在HDFS中()
答案
判断题
Hive是建立在Hadoop之上的,所有Hive的数据都是存储在HDFS中的()
答案
判断题
sparkSql是基于hive的
答案
单选题
关于Hive与Hadoop其他组件的关系,描述错误的是()
A.Hive 最终将数据存储在 HDFS 中 B.Hive SQL 其本质是执行的 MapReduce 任务 C.Hive 是 Hadoop 平台的数据仓库工具 D.Hive 对 HBase 有强依赖
答案
多选题
Hadoop生态系统中Hive与其他部分的关系的描述正确的是:( )
A.HDFS作为高可靠的底层存储,用来存储Hive的海量数据 B.MapReduce对这些海量数据进行批处理,实现Hive的高性能计算 C.当采用MapRedue作为Hive的执行引擎时,用HiveQL语句编写的处理逻辑,最终都要转化为MapReduce任务来运行 D.HBase与Hive的功能是互补的,它实现了Hive不能提供的功能
答案
单选题
Hive使用()作为计算引擎
A.Spark B.Dryad C.MapReduce D.Pregel
答案
购买搜题卡 会员须知 | 联系客服
会员须知 | 联系客服
关注公众号,回复验证码
享30次免费查看答案
微信扫码关注 立即领取
恭喜获得奖励,快去免费查看答案吧~
去查看答案
全站题库适用,可用于E考试网网站及系列App

    只用于搜题看答案,不支持试卷、题库练习 ,下载APP还可体验拍照搜题和语音搜索

    支付方式

     

     

     
    首次登录享
    免费查看答案20
    微信扫码登录 账号登录 短信登录
    使用微信扫一扫登录
    登录成功
    首次登录已为您完成账号注册,
    可在【个人中心】修改密码或在登录时选择忘记密码
    账号登录默认密码:手机号后六位