一、前言
1、这一文学习使用Hive
二、Hive介绍与安装
Hive介绍:Hive是基于Hadoop的一个数据仓库工具,可以通过HQL语句(类似SQL)来操作HDFS上面的数据,其原理就是将用户写的HQL语句转换成MapReduce任务去执行,这样不用开发者去写繁琐的MapReduce程序,直接编写简单的HQL语句,降低了很多学习成本。由于Hive实际上是执行MapReduce,所以Hive的查询速度较慢,不适合用于实时的计算任务
1、下载Hive的tar包,并解压
复制代码
tar zxvf /work/soft/installer/apache-hive-2.3.4-bin.tar.gz
复制代码
2、配置环境变量
复制代码
vim /etc/profile
#set hive env
export HIVE_HOME=/work/soft/apache-hive-2.3.4-bin
export PATH=$PATH:$HIVE_HOME/bin
source /etc/profile
复制代码
3、修改配置文件(进入Hive的config目录)
(1)先把模板配置文件复制一份,并编辑(配置一些目录,以及将数据库引擎换成MySQL,这里需要有MySQL环境)
复制代码
cp hive-default.xml.template hive-site.xml
复制代码
(2)配置的hdfs目录手动创建
复制代码
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -mkdir -p /user/hive/tmp
hadoop fs -mkdir -p /user/hive/log
复制代码
(3)将配置文件中的${system:java.io.tmpdir}全部替换成/work/tmp(要记得创建目录)
(4)将配置文件中的${system:user.name}全部替换成${user.name}
(5)下面配置中,配置MySQL驱动的包名,如果像我一样使用高版本的驱动,包名注意是(com.mysql.cj.jdbc.Driver)
复制代码
cp hive-default.xml.template hive-site.xml
hive.metastore.warehouse.dir
/user/hive/warehouse
location of default database for the warehouse
hive.exec.scratchdir
/user/hive/tmp
HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.
hive.querylog.location
/user/hive/log/hadoop
Location of Hive run time structured log file
javax.jdo.option.ConnectionURL
jdbc:mysql://192.168.3.123:3306/myhive?createDatabaseIfNotExist=true&serverTimezone=UTC
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
javax.jdo.option.ConnectionDriverName
com.mysql.cj.jdbc.Driver
Driver class name for a JDBC metastore
javax.jdo.option.ConnectionUserName
root
Username to use against metastore database
javax.jdo.option.ConnectionPassword
123456
password to use against metastore database
复制代码
(5)下载好MySQL的驱动包(mysql-connector-java-8.0.13.jar),并放到lib目录下
(6)接下来修改脚本文件,同样将模板复制一份并编辑
复制代码
cp hive-env.sh.template hive-env.sh
HADOOP_HOME=/work/soft/hadoop-2.6.4
export HIVE_CONF_DIR=/work/soft/apache-hive-2.3.4-bin/conf
复制代码
三、Hive启动
1、首先初始化MySQL,进入到bin目录下,执行初始化命令
复制代码
bash schematool -initSchema -dbType mysql
复制代码
2、看到如下打印,说明初始化ok
3、启动之前先设置一下HDFS的目录权限,改成777(可读可写可执行)
复制代码
hadoop fs -chmod -R 777 /
复制代码
4、执行命令启动Hive,见到如下打印,说明启动ok
复制代码
hive
show databases;
复制代码
分类: 大数据
好文要顶 关注我 收藏该文
未分配微服务
关注 - 4
粉丝 - 7
+加关注
0 0
« 上一篇:流式大数据计算实践(6)----Storm简介&使用&安装
posted @ 2018-12-11 17:27 未分配微服务 阅读(85) 评论(0) 编辑 收藏
刷新评论刷新页面返回顶部
注册用户登录后才能发表评论,请 登录 或 注册,访问网站首页。
【推荐】超50万VC++源码: 大型组态工控、电力仿真CAD与GIS源码库!
【活动】华为云12.12会员节全场1折起 满额送Mate20
【活动】华为云会员节云服务特惠1折起
【活动】腾讯云+社区开发者大会12月15日首都北京盛大起航!
腾讯云1129
相关博文:
· 流式大数据计算实践(4)----HBase安装
· 流式大数据计算实践(6)----Storm简介&使用&安装
· 流式大数据计算实践(5)----HBase使用&SpringBoot集成
· 流式大数据计算实践(1)----Hadoop单机模式
· Hadoop ->> HIVE
最新新闻:
· Apple Store上线莱斯6TB桌面级硬盘,这样的储存设备你够用吗?
· 为了追赶苹果的watchOS,Google为Wear OS加入两项功能
· 游戏视频有多火?YouTube在2018年播送了500亿小时
· 微软向Insider测试者推出1809.5版Windows管理中心应用
· 微软更新Mac版Office: 支持Mojave深色模式
» 更多新闻...
公告
昵称:未分配微服务
园龄:8个月
粉丝:7
关注:4
+加关注
< 2018年12月 >
日 一 二 三 四 五 六
25 26 27 28 29 30 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
大数据
随笔档案
2018年12月 (1)
2018年11月 (6)
2018年5月 (2)
2018年3月 (3)
文章分类
大数据(1)
最新评论
1. Re:流式大数据计算实践(1)----Hadoop单机模式
@TesterWei谢谢!我也关注你了!...
--未分配微服务
2. Re:流式大数据计算实践(1)----Hadoop单机模式
不错,很细心,有时间多去我的博客园逛逛吧,关注你了。
--TesterWei
阅读排行榜
1. hadoop集群无法找到datanode节点问题解决(664)
2. 流式大数据计算实践(6)----Storm简介&使用&安装(155)
3. 流式大数据计算实践(5)----HBase使用&SpringBoot集成(139)
4. 流式大数据计算实践(4)----HBase安装(139)
5. 流式大数据计算实践(3)----高可用的Hadoop集群(131)
评论排行榜
1. 流式大数据计算实践(1)----Hadoop单机模式(2)
推荐排行榜
1. 流式大数据计算实践(6)----Storm简介&使用&安装(1)
2. 流式大数据计算实践(1)----Hadoop单机https://www.cnblogs.com/orange911/p/10059596.html