当使用spark-submit在本地的idea跑job的时候,如果出现adl相关的问题,是因为在和azure datalake连接时出现了问题 。具体的error类似:
hadoop-azure-datalake java.io.IOException: No FileSystem for scheme: adl
或者:
java.lang.ClassNotFoundException: Class org.apache.hadoop.fs.adl.AdlFileSystem not found
这些都是由于没有加在相关的mavenjar包导致的 。需要到到ideaij右上角的file=>project structure=>SDKs里面正在使用的jdk中加入hadoop的classpath:
在maven repository里面找到一下两个jar包并添加进去:
hadoop-azure-datalake-2.9.2.jarhadoop-azure-2.9.2.jar 如果在本地找不到这两个jar包可以在pom.xml里面添加jar包的形式,mvn install 。
【ideaij azure datalake相关报错】
- 春季老年人吃什么养肝?土豆、米饭换着吃
- 三八妇女节节日祝福分享 三八妇女节节日语录
- 老人谨慎!选好你的“第三只脚”
- 校方进行了深刻的反思 青岛一大学生坠亡校方整改校规
- 脸皮厚的人长寿!有这特征的老人最长寿
- 长寿秘诀:记住这10大妙招 100%增寿
- 春季老年人心血管病高发 3条保命要诀
- 眼睛花不花要看四十八 老年人怎样延缓老花眼
- 香槟然能防治老年痴呆症? 一天三杯它人到90不痴呆
- 老人手抖的原因 为什么老人手会抖
