流式大数据计算实践(7)----Hive安装

一、前言 1、这一文学习使用Hive 二、Hive介绍与安装 Hive介绍:Hive是基于Hadoop的一个数据仓库工具,可以通过HQL语句(类似SQL)来操作HDFS上面的数据,其原理就是将用户写的HQL语句转换成MapReduce任务去执行,这样不用开发者去写繁琐的MapReduce程序,直接编写简单的HQL语句,降低了很多学习成本。由于Hive实际上是执行MapReduce,所以Hive的查询速度较慢,不适合用于实时的计算任务 1、下载Hive的tar包,并解压 复制代码 tar zxvf /work/soft/installer/apache-hive-2.3.4-bin.tar.gz 复制代码 2、配置环境变量 复制代码 vim /etc/profile #set hive env export HIVE_HOME=/work/soft/apache-hive-2.3.4-bin export PATH=$PATH:$HIVE_HOME/bin source /etc/profile 复制代码 3、修改配置文件(进入Hive的config目录) (1)先把模板配置文件复制一份,并编辑(配置一些目录,以及将数据库引擎换成MySQL,这里需要有MySQL环境) 复制代码 cp hive-default.xml.template hive-site.xml 复制代码 (2)配置的hdfs目录手动创建 复制代码 hadoop fs -mkdir -p /user/hive/warehouse hadoop fs -mkdir -p /user/hive/tmp hadoop fs -mkdir -p /user/hive/log 复制代码 (3)将配置文件中的${system:java.io.tmpdir}全部替换成/work/tmp(要记得创建目录) (4)将配置文件中的${system:user.name}全部替换成${user.name} (5)下面配置中,配置MySQL驱动的包名,如果像我一样使用高版本的驱动,包名注意是(com.mysql.cj.jdbc.Driver) 复制代码 cp hive-default.xml.template hive-site.xml hive.metastore.warehouse.dir /user/hive/warehouse location of default database for the warehouse hive.exec.scratchdir /user/hive/tmp HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}. hive.querylog.location /user/hive/log/hadoop Location of Hive run time structured log file javax.jdo.option.ConnectionURL jdbc:mysql://192.168.3.123:3306/myhive?createDatabaseIfNotExist=true&serverTimezone=UTC JDBC connect string for a JDBC metastore. To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL. For example, jdbc:postgresql://myhost/db?ssl=true for postgres database. javax.jdo.option.ConnectionDriverName com.mysql.cj.jdbc.Driver Driver class name for a JDBC metastore javax.jdo.option.ConnectionUserName root Username to use against metastore database javax.jdo.option.ConnectionPassword 123456 password to use against metastore database 复制代码 (5)下载好MySQL的驱动包(mysql-connector-java-8.0.13.jar),并放到lib目录下 (6)接下来修改脚本文件,同样将模板复制一份并编辑 复制代码 cp hive-env.sh.template hive-env.sh HADOOP_HOME=/work/soft/hadoop-2.6.4 export HIVE_CONF_DIR=/work/soft/apache-hive-2.3.4-bin/conf 复制代码 三、Hive启动 1、首先初始化MySQL,进入到bin目录下,执行初始化命令 复制代码 bash schematool -initSchema -dbType mysql 复制代码 2、看到如下打印,说明初始化ok 3、启动之前先设置一下HDFS的目录权限,改成777(可读可写可执行) 复制代码 hadoop fs -chmod -R 777 / 复制代码 4、执行命令启动Hive,见到如下打印,说明启动ok 复制代码 hive show databases; 复制代码 分类: 大数据 好文要顶 关注我 收藏该文 未分配微服务 关注 - 4 粉丝 - 7 +加关注 0 0 « 上一篇:流式大数据计算实践(6)----Storm简介&使用&安装 posted @ 2018-12-11 17:27 未分配微服务 阅读(85) 评论(0) 编辑 收藏 刷新评论刷新页面返回顶部 注册用户登录后才能发表评论,请 登录 或 注册,访问网站首页。 【推荐】超50万VC++源码: 大型组态工控、电力仿真CAD与GIS源码库! 【活动】华为云12.12会员节全场1折起 满额送Mate20 【活动】华为云会员节云服务特惠1折起 【活动】腾讯云+社区开发者大会12月15日首都北京盛大起航! 腾讯云1129 相关博文: · 流式大数据计算实践(4)----HBase安装 · 流式大数据计算实践(6)----Storm简介&使用&安装 · 流式大数据计算实践(5)----HBase使用&SpringBoot集成 · 流式大数据计算实践(1)----Hadoop单机模式 · Hadoop ->> HIVE 最新新闻: · Apple Store上线莱斯6TB桌面级硬盘,这样的储存设备你够用吗? · 为了追赶苹果的watchOS,Google为Wear OS加入两项功能 · 游戏视频有多火?YouTube在2018年播送了500亿小时 · 微软向Insider测试者推出1809.5版Windows管理中心应用 · 微软更新Mac版Office: 支持Mojave深色模式 » 更多新闻... 公告 昵称:未分配微服务 园龄:8个月 粉丝:7 关注:4 +加关注 < 2018年12月 > 日 一 二 三 四 五 六 25 26 27 28 29 30 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 1 2 3 4 5 搜索 常用链接 我的随笔 我的评论 我的参与 最新评论 我的标签 随笔分类 大数据 随笔档案 2018年12月 (1) 2018年11月 (6) 2018年5月 (2) 2018年3月 (3) 文章分类 大数据(1) 最新评论 1. Re:流式大数据计算实践(1)----Hadoop单机模式 @TesterWei谢谢!我也关注你了!... --未分配微服务 2. Re:流式大数据计算实践(1)----Hadoop单机模式 不错,很细心,有时间多去我的博客园逛逛吧,关注你了。 --TesterWei 阅读排行榜 1. hadoop集群无法找到datanode节点问题解决(664) 2. 流式大数据计算实践(6)----Storm简介&使用&安装(155) 3. 流式大数据计算实践(5)----HBase使用&SpringBoot集成(139) 4. 流式大数据计算实践(4)----HBase安装(139) 5. 流式大数据计算实践(3)----高可用的Hadoop集群(131) 评论排行榜 1. 流式大数据计算实践(1)----Hadoop单机模式(2) 推荐排行榜 1. 流式大数据计算实践(6)----Storm简介&使用&安装(1) 2. 流式大数据计算实践(1)----Hadoop单机https://www.cnblogs.com/orange911/p/10059596.html
50000+
5万行代码练就真实本领
17年
创办于2008年老牌培训机构
1000+
合作企业
98%
就业率

联系我们

电话咨询

0532-85025005

扫码添加微信