*(1)就是通过sparksql加载hive的配置文件,获取到hive的元spark将数据存入hive信息
* (2)spark sql获取到hive的元spark将数据存入hive信息之后就可以拿到hive的所有表的spark将数据存入hive
* (3)接下来就可以通过spark sql来操作hive表中的spark將数据存入hive
为了保证绝对生效/etc/bashrc也做同样设置,然后刷新设置
注意执行命令后提示的webui的端口号通过webui可以查询对应监控信息。
b)执行如下命令启动服务
执行如下命令测试是否启动成功
按照自己的环境添加依赖
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。