本篇文章为大家展示了Hadoop和Spark中怎么设置用户访问hdfs,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
创新互联公司-专业网站定制、快速模板网站建设、高性价比玉山网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式玉山网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖玉山地区。费用合理售后完善,十余年实体公司更值得信赖。
1.对于hadoop而言
如果hadoop没有启Kerberos或者从Kerberos获取的用户为null,那么获取HADOOP_USER_NAME环境变量,并将它的值作为Hadoop执行用户。如果我们没有设置HADOOP_USER_NAME环境变量,那么程序将调用whoami来获取当前用户,并用groups来获取用户所在组。
所以可以设置环境变量:
export HADOOP_USER_NAME=hdfs
1
或者在程序中设置:
System.setProperty("HADOOP_USER_NAME", "hdfs");
1
2.对于Spark
Spark默认将用户程序运行所在系统的当前登录用户作为用户程序的关联用户。
所以可以采用一下两种方法:
1.修改当前用户名为: hdfs
2.代码中添加:
System.setProperty("user.name", "hdfs");
上述内容就是Hadoop和Spark中怎么设置用户访问hdfs,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。