java hadoop:FileReader VS InputStreamReader

java hadoop: FileReader VS InputStreamReader

我想在 hadoop hdfs 上使用我的 java class,现在我必须重写我的函数。 问题是,如果我使用 InputStreamReader,我的应用会读取错误的值。

这是我的代码(所以它的工作,我想使用未注释的代码部分):

public static GeoTimeDataCenter[] readCentersArrayFromFile(int iteration) {
    Properties pro = new Properties();
    try {
        pro.load(GeoTimeDataHelper.class.getResourceAsStream("/config.properties"));
    } catch (Exception e) {
        e.printStackTrace();
    }
    int k = Integer.parseInt(pro.getProperty("k"));
    GeoTimeDataCenter[] Centers = new GeoTimeDataCenter[k];
    BufferedReader br;
    try {
        //Path pt=new Path(pro.getProperty("seed.file")+(iteration-1));
        //FileSystem fs = FileSystem.get(new Configuration());
        //br=new BufferedReader(new InputStreamReader(fs.open(pt)));
        br = new BufferedReader(new FileReader(pro.getProperty("seed.file")+(iteration-1)));
        for(int i =0; i<Centers.length; i++){
            String[] temp = null;
            try{
                temp = br.readLine().toString().split("\t");
                Centers[i] = new GeoTimeDataCenter(Integer.parseInt(temp[0]),new LatLong(Double.parseDouble(temp[1]),Double.parseDouble(temp[2])),Long.parseLong(temp[3]));
            }
            catch(Exception e) {
                temp = Seeding.randomSingleSeed().split("\t");
                Centers[i] = new GeoTimeDataCenter(i,new LatLong(Double.parseDouble(temp[0]),Double.parseDouble(temp[1])),DateToLong(temp[2]));
            }
        }
        br.close();
    } catch (IOException e) {
        e.printStackTrace();
    }
    return Centers;
}

也许有人知道这个问题?

此致

我找到问题了。我有一个校验和异常。现在我从输入文件中删除所有 .crc 文件。这样我就没有校验和异常,缓冲的 reader 工作正常(未注释的代码部分,楼上)。