在 Ranger 中,Spark 和 Hive 共用一套 policy 都是 HADOOP SQL -> default_hive,所以具体的配置可以直接参考 Hive集成。
注意
当前版本ranger-spark-plugin不适用于spark-submit等非交互式场景,会导致任务无法退出,如需要执行spark-submit任务,请关闭ranger-spark-plugin,如有疑问可通过 提工单 的方式,联系火山引擎技术支持人员。
Spark的使用方法详见 EMR Spark 快速开始
# spark 3.x beeline -u jdbc:hive2://emr-master-1-1:10005 -n <user> -p <password> # spark 2.x spark-beeline -u jdbc:hive2://emr-master-1-1:10016 -n <username> -p <password>
说明
不同 EMR 版本中节点的域名命名方式可能不同,所以上方“emr-master-1-1”可参考 EMR 的域名规则做相应调整。