将数据通过shell脚本从hdfs导入到hive中
在创建项目的时候 需要将数据导入 则此时的数据不能通过hql来再shell中展示 所以需要记录脚本 而这块内容应该写在一个单独的模块下面 需要注意的是对文件的明明xx_yy_zz.hqlxx 文件名 yy 表示数据库对应表明 zz分区性质如按照天则为yyyymmdd这样明明的好处就是一目了然 让人明白它是哪的文件用于做什么的 drop table if exists ods_company_${yyyymmdd}; create external table ods_company_${yyyymmdd}( company_id int ,company_address string ,company_attr string ,company_boss string ,company_name string ,company_phone string )stored as parquet location '/sqoop/btrip_pg/${yyyymmdd}/tb_company' 运行真个shell脚本 过程启动hdfs ,yarn sqoop2-server : 创建job 以...