Apache Spark:如何在 Java 中使用 Tokenizer 连接来自 csv 的多列(特征)?

Apache Spark: How to join multiple columns (features) from csv with Tokenizer in Java?

我有一个 csv 文件,包含三列:Id、Main_user 和用户。 Id 是标签,其他两个值都是特征。现在我想从 csv 加载两个特征(main_user 和用户),将它们向量化并 assemble 它们作为一个向量。 按照 documentation 中的描述使用 HashingTF 后,除了 "Users".

功能之外,如何添加第二个功能 "Main_user"
DataFrame df = (new CsvParser()).withUseHeader(true).csvFile(sqlContext, csvFile);
Tokenizer tokenizer = new Tokenizer().setInputCol("Users").setOutputCol("words");        
DataFrame wordsData = tokenizer.transform(df);
int numFeatures = 20;
HashingTF hashingTF = new HashingTF().setInputCol("words")
                .setOutputCol("rawFeatures").setNumFeatures(numFeatures);

好的,我找到了解决方案。一个接一个地加载列,标记化,hashTF,最后 assemble 它们。如果对此有任何改进,我将不胜感激。

DataFrame df = (new CsvParser()).withUseHeader(true).csvFile(sqlContext, csvFile);

Tokenizer tokenizer = new Tokenizer();
HashingTF hashingTF = new HashingTF();
int numFeatures = 35;

tokenizer.setInputCol("Users")
        .setOutputCol("Users_words");
DataFrame df1 = tokenizer.transform(df);
hashingTF.setInputCol("Users_words")
        .setOutputCol("rawUsers").setNumFeatures(numFeatures);
DataFrame featurizedData1 = hashingTF.transform(df1);

tokenizer.setInputCol("Main_user")
        .setOutputCol("Main_user_words");
DataFrame df2 = tokenizer.transform(featurizedData1);          
hashingTF.setInputCol("Main_user_words")
        .setOutputCol("rawMain_user").setNumFeatures(numFeatures);
DataFrame featurizedData2 = hashingTF.transform(df2);             

// Now Assemble Vectors
VectorAssembler assembler = new VectorAssembler()
        .setInputCols(new String[]{"rawUsers", "rawMain_user"})
        .setOutputCol("assembeledVector");

DataFrame assembledFeatures = assembler.transform(featurizedData2);