Hudi对接OBS文件系统 本章节主要介绍Hudi对接OBS文件系统。 Hudi对接OBS文件系统 1. 使用安装客户端用户登录客户端安装节点。 2. 配置环境变量。 source ${clienthome}/bigdataenv source ${clienthome}/Hudi/componentenv 3. 修改配置文件: vim ${clienthome}/Hudi/hudi/conf/hdfssite.xml dfs.namenode.acls.enabled false 4. 如果是安全集群,使用以下命令用户进行用户认证,如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 用户名 5. 启动sparkshell,执行下面的命令创建COW表存储到OBS中: importorg.apache.hudi.QuickstartUtils. importscala.collection.JavaConversions. importorg.apache.spark.sql.SaveMode. importorg.apache.hudi.DataSourceReadOptions. importorg.apache.hudi.DataSourceWriteOptions. importorg.apache.hudi.config.HoodieWriteConfig. valtableName "hudicowtable" valbasePath "obs://testhudi/cowtable/" valdataGen new DataGenerator valinserts convertToStringList(dataGen.generateInserts(10)) valdf spark.read.json(spark.sparkContext.parallelize(inserts, 2)) df.write.format("org.apache.hudi"). options(getQuickstartWriteConfigs). option(PRECOMBINEFIELDOPTKEY,"ts"). option(RECORDKEYFIELDOPTKEY,"uuid"). option(PARTITIONPATHFIELDOPTKEY,"partitionpath"). option(TABLENAME,tableName). mode(Overwrite). save(basePath); 6. 使用datasource查看表建立成功,数据正常。 valroViewDF spark. read. format("org.apache.hudi"). load(basePath·"/ / / / ") roViewDF.createOrReplaceTempView("hudirotable") spark.sql("select·from hudirotable").show() 7. 执行:q退出sparkshell命令行。