首页 > 编程知识 正文

Alex 的 Hadoop 菜鸟教程: 第19课 华丽的控制台 HUE 安装以及使用教程

时间:2023-05-06 09:15:31 阅读:28734 作者:1867

原文地址: http://blog.csdn.net/ns rainbow/article/details/43677077请关注最新课程原作者的博客,获得更好的显示体验

本文假设Centos 6.x CDH 5.x HUE Hadoop也有一个web管理控制台,它很华丽。 那个名字叫HUE。 HUE可以管理Hadoop中常见的组件。 HUE可以管理的组件如下图所示

除了Oozie、LDAP SAML和Solr以外,如上一课所述,Oozie是工作流组件,LDAP是用户密码管理中心,负责用户登录,如下一课所述。 Solr是全文搜索的引擎,但实际上Solr也不是Hadoop类独有的。 Solr从很久以前就出现了。 如果要计算的话,我觉得是Lucene系。 如果是根据课程来的同学,大家的机器上应该安装了这些组件YARNPigHiveImpalaHBaseSqoop1。 (我们正在安装Sqoop1。 这里管理着Sqoop2。 ) Zookeeper可以安装HUE,以便在任何计算机上安装HUE。 官方建议安装在master机器上。 我现在对于两个虚拟机host1和host2,主机1是主机,但我觉得host1的负担太重了,所以HUE决定安装在host2上,在host2上运行$ sudo yum install hue

HUE配置Hadoop和HttpFs HUE使用WebHDFS和HttpFS两种方式访问HDFS。 因为采用了HA方式,所以只能使用HttpFS。 未安装的学生可以查看本教程twdyj的Hadoop初学者教程:第18课,通过Http方式访问HDFS - HttpFs教程

然后打开hue用户对hdfs的访问权限

编辑/etc/Hadoop-http fs/conf/http fs-site.XML

! --- huehttpfsproxyusersetting---propertynamehttpfs.proxy user.hue.hosts/name value */value/propertyprtyprtynty 在上节课我是在host2上安装的httpfs,所以地址写为host2的地址

[ Hadoop ] # configurationforhdfsnamenode-------------------------------------- ) hasupportbyusinghttpfs [ [ default ] ] # enterthefilesystemurifs _ default fs=HDFS 3360//my群集# namenodelogicalnogical httpfsasthecommunication mechanism.# domainshouldbethenamenodeorhttpfshost.# defaultportis 14000 forhttpfs.web TP

将fs_defaultfs的值设置为在/etc/hadoop/conf/core-site.xml中配置的fs.defaultFS属性值

配置YARN继续编辑hue.ini,找到[[yarn_clusters]],然后单击[ yarn _ clusters ] [ [ default ] ] # enterthehostonwhichyouarerers theportwheretheresourcemanageripclistenson # #资源管理器_ port=8032 # whethertosubmitjobstothisclustersubmit _ to=resourcemanagerlogicalname (requiredforha ) # logical _ name=# changethisififale

ured ## security_enabled=false # URL of the ResourceManager API resourcemanager_api_url=http://host1:8088 # URL of the ProxyServer API proxy_api_url=http://host1:8088 # URL of the HistoryServer API history_server_api_url=http://host1:19888
因为我的 resoucemanager , history-server 都装在host1上,所以我修改了resourcemanager_host, resourcemanager_api_url, proxy_api_url, history_server_api_url 这些属性
配置Zookeeper 找到 [zookeeper] 节点 [zookeeper] [[clusters]] [[[default]]] # Zookeeper ensemble. Comma separated list of Host/Port. # e.g. localhost:2181,localhost:2182,localhost:2183 host_ports=host1:2181,host2:2181
配置上 host_ports

配置Hbase  HUE跟Hbase通讯是通过 hbase-thrift , twdyj 的 Hadoop 菜鸟教程: 第6课 Hbase 安装教程 中已经安装过hbase-thrift,当时是安装在 host1 上,所以我们先在 host1 上启动 hbase-thrift 服务 service hbase-thrift start

继续编辑 /etc/hue/conf/hue.ini 找到 [hbase] 段落,去掉 hbase_clusters 的注释,并修改 hbase_clusters 的地址 [hbase] # Comma-separated list of HBase Thrift servers for clusters in the format of '(name|host:port)'. # Use full hostname with security. hbase_clusters=(Cluster|host1:9090) # HBase configuration directory, where hbase-site.xml is located. ## hbase_conf_dir=/etc/hbase/conf # Hard limit of rows or columns per row fetched before truncating. ## truncate_limit = 500 # 'buffered' is the default of the HBase Thrift Server and supports security. # 'framed' can be used to chunk up responses, # which is useful when used in conjunction with the nonblocking server in Thrift. ## thrift_transport=buffered

这边的 (Cluster|host1:9090) 里面的 Cluster并不是你的HDFS集群名字,只是一个显示在HUE界面上的文字,所以可以随便写,我这边保留 Cluster字样,后面的host1:9090是thrift的访问地址,如果有多个用逗号分隔

配置Hive  编辑 hue.ini ,找到 [beeswax] 段落,为什么叫[beeswax]而不是[hive]这是历史原因 [beeswax] # Host where HiveServer2 is running. # If Kerberos security is enabled, use fully-qualified domain name (FQDN). hive_server_host=host1 # Port where HiveServer2 Thrift server runs on. ## hive_server_port=10000 # Hive configuration directory, where hive-site.xml is located ## hive_conf_dir=/etc/hive/conf 把 hive_server_host的注释去掉,并写上hive-server2 所在服务器名字如果你改了hive的默认端口,就修改hive_server_port如果你这台机器有装hive,就配置上hive_conf_dir 配置Impala 编辑 hue.ini 找到 [impala] 段落 [impala] # Host of the Impala Server (one of the Impalad) server_host=host2

其实这边的 server_host 可以写任意一台impalad所在的服务器,我在所有的datanode上都装了impalad ( twdyj 的 Hadoop 菜鸟教程: 第15课 Impala 安装使用教程),所以我这里写host2或者host1都无所谓
配置Pig 由于我在  twdyj 的 Hadoop 菜鸟教程: 第16课 Pig 安装使用教程 只在 host1 上安装了pig,所以我先在host2上补装上pig
配置Spark 要在HUE中使用Spark还需要安装spark-jobserver,但是这个东西没在CDH中,所以我们必须手动安装spark-jobserver 先要安装SBT。SBT = (not so) Simple Build Tool,是scala的构建工具,与java的maven地位相同 curl https://bintray.com/sbt/rpm/rpm > bintray-sbt-rpm.reposudo mv bintray-sbt-rpm.repo /etc/yum.repos.d/sudo yum install sbt
安装好SBT后,安装spark-jobserver git clone https://github.com/ooyala/spark-jobserver.gitcd spark-jobserversbtre-start编辑jobserver 配置文件,将jobserver跟你的spark-master连接上。编辑 job-server/src/main/resources/application.conf 修改master属性 master = "spark://xmseapp03:7077"


找到 [spark] 段落,修改 server_url 为正确的地址 [spark] # URL of the REST Spark Job Server. server_url=http://host1:8090/
配置secret_key 设置一个secret_key的目的是加密你的cookie让你的hue更安全。找到 secret_key 这个项,然后随便设置一串字符串(官方建议30-60个字符长度)这里举个例子 secret_key=qpbdxoewsqlkhztybvfidtvwekftusgdlofbcfghaswuicmqp

启动HUE
配置完毕后确保你的 HttpFs 服务启动了。然后启动HUE service hue start

hue的运行日志在 /var/log/hue/runcpserver.log

使用HUE 启动后,访问 http://host2:8888 可以看到
第一个访问这个地址的人就会成为超级用户,输入用户名和密码后会进入快速启动 快速启动 步骤1 检查配置
检查完会给你报错,然后你根据这些错误去修正配置
当然也不是每个项都一定要修改好才可以用,比如Oozie我们就没装,就放着就好了,等以后装了Oozie再回来配置 步骤2 示例 下一步,安装示例,继续点击下一页

步骤3 用户
直接点击下一页 步骤4 执行
点击 "HUE主页" 就会跳到 HUE的控制台了

在HUE中管理HDFS 点击右上角的  File Browser

进入了HDFS管理界面

这个界面下,你可以 上传文件建立文件夹删除文件 等操作
在HUE中查询Hbase 我们用HUE最重要的就是可以用它来直接跟各个hadoop组价交互,作为各个组件的UI使用。 选择最上面工具栏的 Data Browser 下拉菜单,选择Hbase

可以看到Hbase中表的列表
点击其中一个表可以看到数据


HUE支持一个Hbase的查询语法,比如像下面这幅图我是查所有以row1打头的rowkey,并往下看50条



在HUE中查询Hive 选择Hive

输入SQL后点击“执行”

是不是很方便? 在HUE中使用Spark

HUE还有其他功能,比如 可以直接建立Metatable ,查询Impala等,就自己探索把,这些功能都很简单明了。


版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。