Java hadoop没有用于方案的文件系统:file
我正在尝试NaiveBayesClassifer
使用hadoop 运行一个简单的程序,出现此错误
Exception in thread "main" java.io.IOException: No FileSystem for scheme: file at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1375)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:66)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1390)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:196)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:95)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:180)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:175)
at org.apache.mahout.classifier.naivebayes.NaiveBayesModel.materialize(NaiveBayesModel.java:100)
代码:
Configuration configuration = new Configuration(); NaiveBayesModel model = NaiveBayesModel.materialize(new Path(modelPath), configuration);// error in this line..
modelPath
指向NaiveBayes.bin
文件,并且配置对象正在打印-Configuration: core-default.xml, core-site.xml
回答:
这是maven-assembly
插件破坏事情的典型情况。
为什么这发生在我们身上
不同的JAR(hadoop-commonsfor LocalFileSystem,hadoop-hdfsfor DistributedFileSystem
)各自org.apache.hadoop.fs.FileSystem在其META-INFO/services
目录中包含一个不同的文件。该文件列出了要声明的文件系统实现的规范类名(这称为通过实现的服务提供者接口java.util.ServiceLoader
,请参见org.apache.hadoop.FileSystem#loadFileSystems
)。
当使用时maven-assembly-plugin
,它将所有的JAR合并为一个,并且全部META-INFO/services/org.apache.hadoop.fs.FileSystem
覆盖彼此。这些文件仅保留其中一个(添加的最后一个)。在这种情况下,FileSystemfrom
的列表将hadoop-commons
覆盖from 的列表hadoop-hdfs
,因此DistributedFileSystem
不再声明。
我们如何解决它
在加载Hadoop配置之后,但在进行任何FileSystem
相关操作之前,我们将其称为:
hadoopConfig.set("fs.hdfs.impl", org.apache.hadoop.hdfs.DistributedFileSystem.class.getName()
);
hadoopConfig.set("fs.file.impl",
org.apache.hadoop.fs.LocalFileSystem.class.getName()
);
更新:正确的修复
引起我注意的是krookedking,有一种基于配置的方法可以maven-assembly使用所有FileSystem服务声明的合并版本
以上是 Java hadoop没有用于方案的文件系统:file 的全部内容, 来源链接: utcz.com/qa/399238.html