首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Hadoop数据仓库

    beeline连接SparkSQL

    登入beeline $SPARK_HOME/bin/beeline -u jdbc:hive2://192.168.56.101:10001/ 参考: https://spark.apache.org

    1.2K10编辑于 2022-05-07
  • 来自专栏迁移内容

    Hive-beeline服务

    Hive客户端工具后续使用了Beeline 替代HiveCLI ,并且后续版本也会废弃掉HiveCLI 客户端工具,Beeline是 Hive 0.11版本引入的新命令行客户端工具,它是基于SQLLine 启动hiveserver2与beeline 服务 bin/hiveserver2 在启动hiveserver2服务以后,会发现光标静止不动,这不是执行完了的标志,是等待在等待 beeline -u jdbc :hive2://localhost:10000/default -n root 启动beeline服务 通过jdbc 连接到beeline 就可以对 hive 进行操作了 2、beeline 的常用参数 :beeline --autoCommit=true --autosave=[true/false] ---进入一个自动保存模式:beeline --autosave=true --输出格式:beeline --outputformat=tsv --showHeader=[true/false] ---显示查询结果的列名:beeline --showHeader

    1.1K20编辑于 2022-12-01
  • 来自专栏Hadoop实操

    如何使用Beeline连接Impala

    1.文档编写目的 Beeline是HiveServer2提供的一个新的命令行工具,基于SQLLine CLI的JDBC客户端。Beeline有两种模式:嵌入和远程模式。 本篇文章主要讲述如何使用Beeline连接Impala。 3.Beeline命令行测试 1.非Kerberos环境下测试 [root@ip-172-31-6-148 auxlib]# beeline -d "com.cloudera.impala.jdbc41 在非Kerberos环境下使用Beeline连接Impala时,指定登录用户无效,无法通过select current_user() 获取当前登录用户。 在Kerberos环境下使用Beeline连接Impala时,必须要在jdbc url连接增加AuthMech、KrbServiceName、KrbHostFQDN参数。

    5.7K70发布于 2018-03-29
  • 来自专栏datartisan

    hive beeline基本命令详解

    Beeline 是一个 Hive 客户端,使用 JDBC 连接到 HiveServer2,是集群上的服务。可以在集群上执行 Beeline 命令获取查询结果,而无需进入 hive 数据库。 下面介绍一下 Beeline 命令使用时可以添加的参数,用以实现各种个性化需求。 使用 beeline --help 命令可以显示 beeline 的帮助 [omc@hadoop102 hive]$ beeline --help SLF4J: Class path contains > <ldap-password> 要连接 beeline 首先要指定数据库地址和用户名 -u---加载一个JDBC连接字符串: beeline -u db_URL -n---加载一个用户名: /false] ---显示详细错误信息和调试信息: beeline --verbose=true -d---使用一个驱动类: beeline -d driver_class 到这里,beeline

    12K51编辑于 2022-12-19
  • 来自专栏零域Blog

    hive beeline操作遇到的问题

    0.14.0.jar) 3 org.apache.thrift.TServiceClient(升级到hive-exec-0.14.0.jar) 以上问题基本由于版本导致(升级后如图): hive2.jpg 2 beeline localhost:10000 -n hive 报错:no known driver to handle “jdbc:hive://localhost:10000” hive3.jpg 解决办法1: beeline -u jdbc:hive2://localhost:10000 -n hive 解决办法2: beeline -u jdbc:hive2://localhost:10000 -d org.apache.hive.jdbc.HiveDriver

    1.1K20编辑于 2022-03-22
  • 来自专栏机器学习/数据可视化

    hive之路4-CLI和Beeline

    hive> set mapred.map.tasks=10; -e hive -e "select * from table2 where id > 4" --database hello; Hive之Beeline beeline简介 beeline是hiveserver2的CLI,一个JDBC的客户端,分为两种模式 嵌入模式:一个嵌入的Hive 远程模式:通过thrift协议与单独的HiveServer2进程 beeline必须同时和hiveserver2同时使用 使用方法 启动hiveserver2 查看是否启动:ps -ef | grep hive 启动beeline 退出beeline:! 直接进入数据库中 $ $HIVE_HOME/bin/beeline -u jdbc:hive2://$HS2_HOST:$HS2_PORT 连接报错 先关闭Hadoop集群 /Users/peter/Downloads core-site.xml 重启Hadoop集群 /Users/peter/Downloads/hadoop-2.9.2/sbin/start-all.sh 重启hiveserver2 重启hiveserver2和beeline

    1.2K10发布于 2021-03-02
  • 来自专栏Hadoop实操

    你问我答3 - 关于Hive CLI与Beeline

    还不如回到beeline你觉得哪里不方便或者挡住你使用了,我来给你解决。 但是beeline模式下  是一直是hive 用户的文件权限。 But Beeline writes to HS2 local directory. 在CDP中则是完全取消了Hive CLI的方式,即使输入hive命令,系统也会直接连到beeline。 对于旧的Hive CLI与beeline表现模式不一样的地方,目前暂未有太好的办法,只能基于beeline进行改造旧的应用,有以下workaround供参考: 1.改用export和import导出到本地

    1.6K20编辑于 2022-08-26
  • 来自专栏skyyws的技术专栏

    使用beeline命令行访问Impala集群

    本文主要介绍如何使用hive的beeline客户端来连接impala集群。目前我们内部的Impala集群都支持zk的高可用,来解决单点故障的问题。 下面就介绍下,用户如何在自己的服务器上配置beeline客户端来访问线上的impala集群。 /bin/beeline -u "xxx" 其中,xxx是impala集群的连接地址,可以咨询相关的开发/运维同事。 /bin/beeline -h来查看beeline的更多用法,如下所示: 不带kerberos的连接 如果impala集群是不带kerberos配置的,那么使用就比较方便,我们就省去了kerberos 到这里,beeline连接impala集群的介绍就已经完成了,希望可以帮助到大家。

    1.6K30编辑于 2022-05-20
  • 来自专栏Java成神之路

    hive_异常_01_ Terminal initialization failed; falling back to unsupported

    <init>(BeeLineOpts.java:73) at org.apache.hive.beeline.BeeLine. <init>(BeeLine.java:117) at org.apache.hive.beeline.HiveSchemaTool.runBeeLine(HiveSchemaTool.java org.apache.hive.beeline.HiveSchemaTool.doInit(HiveSchemaTool.java:266) at org.apache.hive.beeline.HiveSchemaTool.doInit <init>(BeeLineOpts.java:101) at org.apache.hive.beeline.BeeLine. <init>(BeeLine.java:117) at org.apache.hive.beeline.HiveSchemaTool.runBeeLine(HiveSchemaTool.java

    60340发布于 2018-08-10
  • 来自专栏大数据学习笔记

    Hadoop基础教程-第12章 Hive:进阶(12.4 Hive Metastore)(草稿)

    Beeline工作模式有两种,即本地嵌入模式和远程模式。嵌入模式情况下,它返回一个嵌入式的Hive(类似于hive CLI)。 (1)本地模式 [root@node1 ~]# /usr/lib/hive/bin/beeline Beeline version 1.2.1000.2.4.3.0-227 by Apache Hive beeline> ! /beeline Beeline version 1.2.1000.2.4.3.0-227 by Apache Hive beeline> ! /beeline Beeline version 1.2.1000.2.4.3.0-227 by Apache Hive beeline>

    1.6K70发布于 2018-01-02
  • 来自专栏不温卜火

    Hive快速入门系列(5) | 如何访问HiveJDBC

    此次用到的为hiveserver2和beeline 1. 启动beeline(hive自带的JDBC访问的客户端) [bigdata@hadoop001 hive]$ bin/beeline Beeline version 1.2.1 by Apache Hive beeline> 3. 连接hiveserver2 # 具体操作如下 beeline> ! 4. hiveserver2和beeline的区别 1. hiveserver2 ?   hiveserver2使用需要Client和JDBC 2. beeline ?   

    88020发布于 2020-10-28
  • 来自专栏别先生

    Hive thrift服务(将Hive作为一个服务器,其他机器可以作为客户端进行访问)

    启动为后台:nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 1:启动成功后,可以在别的节点上用beeline 去连接   方式一:     hive/bin/beeline  回车,进入beeline的命令界面     输入命令连接hiveserver2     beeline> ! :hive2//master:10000     (master机器是hiveserver2所启动的那台主机名,端口默认是10000)   方式二:     或者启动就连接:     bin/beeline /beeline 5 Beeline version 1.2.1 by Apache Hive 6 beeline> ! 1 beeline> !

    4.1K90发布于 2018-01-02
  • 来自专栏FreeBuf

    这家软件巨头数据库在暗网公布,亚马逊、波音、摩根大通等都受影响

    当地时间2月28日消息,美国软件公司Beeline的数据库被攻击者发布在黑客论坛上,数据库内包含亚马逊、瑞士信贷、3M、波音、宝马、戴姆勒、摩根大通、麦当劳、蒙特利尔银行等Beeline客户的数据。 该数据库大约1.5GB,据称是攻击者从Beeline的Jira账户中窃取的。Jira是由Atlassian开发的问题跟踪软件,用于bug跟踪和项目管理活动。 与此同时,Beeline运营着一项软件即服务(SaaS)业务,专注于寻找和管理劳动力。 【攻击者在黑客论坛上的发帖】 攻击者声称该数据库包含Beeline的客户数据,例如名字、姓氏、Beeline用户名、职位以及其他数据。黑客论坛的帖子表明,这些数据窃取于2月25日。 参考链接: https://cybernews.com/news/beeline-jira-database-exposed/ 精彩推荐

    40420编辑于 2023-03-29
  • 来自专栏Lansonli技术博客

    数据治理(十五):Ranger管理Hive安全

    连接Hive [root@node3 test]# beeline beeline> ! ,查询对应的表,有权限 [root@node3 ~]# beeline beeline> ! [root@node3 software]# beeline beeline> ! 测试 [root@node3 software]# beeline beeline> ! 测试 [root@node3 software]# beeline beeline> !

    4.6K41编辑于 2022-04-28
  • 来自专栏大数据杂货铺

    CDP中的Hive3系列之启动Apache Hive3

    在后台,Beeline 启动 Hive shell。 在 Cloudera Manager 中,单击主机>所有主机。 简单的认证: beeline -u jdbc:hive2://10.65.13.98:10000 -n <your user name> -p Kerberos: beeline -u "jdbc:hive2 您可以使用关键字和选项在 Beeline 中启动这些命令。 Hive 支持从命令行运行 Hive 命令。您输入的命令在后台启动 Beeline。-e后跟 Hiveset命令的标志 列出了系统变量。 Beeline 支持所有过时的 Hive CLI 命令,但配置 Hive Metastore 的set key=value命令除外。 CDP 支持 Beeline 而不是 Hive CLI。您可以使用 Beeline 运行遗留脚本,但有一些注意事项。

    1.6K30发布于 2021-08-20
  • 来自专栏大数据-Hadoop、Spark

    Hive的使用-Thrift服务

    启动为后台服务: nohup bin/hiveserver2 \ 1>/var/log/hiveserver.log \ 2>/var/log/hiveserver.err & 3.启动成功后,可以在别的节点上用beeline 去连接 方式1 hive/bin/beeline 回车,进入beeline的命令界面 输入命令连接hiveserver2 beeline> ! connect jdbc:hive2://mini1:10000, 安装提示输入用户名与密码(默认回车) 方式2 或者启动就连接: bin/beeline -u jdbc:hive2://mini1

    1.7K70发布于 2018-04-26
  • 来自专栏北漂的我

    CentOS 6.9 中 搭建 Hive

    .connection.user 和 beeline.hs2.connection.password 是beeline方式访问的用户名和密码,可任意指定,但在beeline访问时要写入你指定的这个 <? 和 beeline.hs2.connection.password 设置的。 beeline ! User: xxx is not allowed to impersonate xxx ,需在hadoop的配置文件core-site.xml中加入以下配置(其中红色标志的“bigdata”提出你设置的beeline.hs2 hiveserver2之后,删除mysql中的metastore数据库,然后使用下面的命令去重新初始化metastore: schematool -dbType mysql -initSchema 注3:启动Beeline

    82730发布于 2019-05-28
  • 来自专栏企鹅号快讯

    如何使用Java访问集成OpenLDAP并启用Sentry的Impala和Hive

    使用faysontest用户测试,faysontest用户只拥有Hive库下的default库操作权限,所以我们可以看到只能获取到default库信息 输入错误的用户密码测试,是否能够正常访问 5.Beeline 命令行测试 关于Beeline命令行访问Impala,Fayson在前面的文章也介绍过《如何使用Beeline连接Impala》,这里就不再重复说明。 1.Beeline访问Hive 2.Beeline访问Impala (可左右滑动) 这里需要注意,在使用Beeline连接Impala的时候,除了JDBC URL中增加AuthMech=3;UID=faysontest ;PWD=123456参数还需要在Beeline命令行增加–n faysontest –p 123456参数。

    1.4K80发布于 2018-02-06
  • 来自专栏大数据生态

    Hive全库数据迁移方案

    这时候需要使用beeline连接hive并进行数据迁移,下面给大家介绍下如何使用beeline来进行数据迁移 1. 使用beeline进行导出脚本的生成 beeline -u jdbc:hive2://hadoop01:10000 -e "use export_db;show tables;"| awk '{printf 执行导出脚本 sed -i '1i use export_db;' ~/export.hql beeline -u jdbc:hive2://hadoop01:10000 -n hdfs -f ~/export.hql 导入数据 beeline -u jdbc:hive2://hadoop02:10000 -n hdfs -e "create database import_db;" beeline -u jdbc:hive2

    5.6K2219发布于 2021-03-24
  • 来自专栏Hadoop实操

    如何使用Sentry管理Hive外部表权限

    3.创建Hive外部表 1.使用beeline命令行连接hive,创建Hive外部表 建表语句: create external table if not exists student( Beeline version 1.1.0-cdh5.11.1 by Apache Hive beeline> ! + 2 rows selected (0.288 seconds) 0: jdbc:hive2://localhost:10000/> [mihqflhcmn.jpeg] 4.使用fayson用户在beeline 命令行查看 [ec2-user@ip-172-31-8-141 ~]$ beeline Beeline version 1.1.0-cdh5.11.1 by Apache Hive beeline> Beeline version 1.1.0-cdh5.11.1 by Apache Hive beeline> !

    5.7K91发布于 2018-03-29
领券