Error

An error occurred.

Sorry, the page you are looking for is currently unavailable.
Please try again later.

If you are the system administrator of this resource then you should check the error log for details.

Faithfully yours, nginx.

帮助文档(华北一、二)

  • step1: 设置默认需要导出的hive数据库为defaultDatabase

    在原集群中的任意节点上,新建“.hiverc”文件,加入如下内容:

     
    vi ~/.hiverc 
    use defaultDatabase;

    defaultDatabase可修改为需要迁移的其它名称

    step2: 创建数据临时目录

     hdfs dfs -mkdir /tmp/hive-export

    step3: 生成数据导出脚本

    执行如下命令生成数据导出脚本:

     
    hive -e "show tables" | awk '{printf "export table %s to @/tmp/hive-
    export/%s@;\n",$1,$1}' | sed "s/@/'/g" > export.sql

    step4: 手工导出数据到HDFS

    执行脚本导出数据

     hive -f export.sql

    step5: 下载数据

    下载HDFS数据到本地,并传送到目标集群(targetDir为目标集群地址)的/tmp/hive-export目录:

     
    hdfs dfs -get /tmp/hive-export/ 
    scp -r hive-export/ export.sql root@targetDir 
    hdfs dfs -put hive-export/ /tmp/hive-export

    step6: 生成数据导入脚本

    执行如下命令,复制导出脚本,并将脚本修改为导入脚本:

     
    cp export.sql import.sql 
    sed -i 's/export table/import table/g' import.sql 
    sed -i 's/ to / from /g' import.sql

    step7: 导入数据

     hive -f import.sql 

    更多内容请参考:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+ImportExport#LanguageManualImportExport-Examples


文档是否已解决您的问题?

  已解决   未解决

如您有其它疑问,您也可以与我们技术专家联系探讨。

联系技术专家