mawk 语法适当 >1000 字段文件用于计数 non-numeric 数据 column-wise?

mawk syntax appropriate >1000 field file for counting non-numeric data column-wise?

以下愚蠢的 hard-coding 应该是某种循环或并行结构,名义上有效,但它是糟糕的 mawk 语法。我很好的 mawk 语法尝试都失败了,在 mawk(未显示)和 gnu parallel(未显示)中使用 for 循环。

它真的只需要从磁盘读取 CSV 文件 1 次,而不是每列一次,因为我有一个非常大的 CSV 文件(数百万行,数千列)。我的原始代码工作 fine-ish (未显示)但它为每一列再次读取整个磁盘文件,这需要几个小时,我在意识到发生了什么后将其杀死。我有一个使用 GPU 连接器插槽的快速固态磁盘,因此磁盘读取速度非常快。因此 CPU 是这里的瓶颈。如果我必须 hard-code 4000 行基本相同的语句,除了列号之外,代码愚蠢甚至是一个瓶颈。

代码是 column-wise 计算 non-numeric 个值。我需要一些循环(for-loop)或并行(首选),因为虽然以下内容在 2 列上正常工作,但它不是为数千列编写 mawk 代码的可扩展方式。

tail -n +1 pht.csv | awk -F"," '((+0 != ) && (!="")){cnt1++}; ((+0 != ) && (!="")){cnt2++} END{print cnt1+0; print cnt2+0}'
2
1

如何减少"column 1 processing; column 2 processing;"重复代码?如何引入循环? gnu parallel怎么引入?非常感谢。 awk 新手,我是。对其他语言并不陌生。

我一直期待以下一个或多个 bash 命令的巧妙组合能够轻松解决这个问题,但我已经过了好几个小时了,什么也看不到。我张开双手前来。施舍 code-poor?

抱歉,我绝对不能使用 CSV 特定库,如 python pandas 或 R 数据帧。我的手被绑在这里。对不起。谢谢你这么酷。在这种情况下,我只能使用 bash 命令行。

我的 mawk 可以处理 32000+ 列,因此 NF 在这里不是问题,这与我见过的其他一些 awk 不同。我有不到 32000 列(但不是那么多)。

数据文件 pht.csv 包含以下 3x2 数据集:

cat pht.csv
8,T1,
T13,3,T1
T13,,-6.350818276405334473e-01

无权访问 mawk 但您可以执行与此等效的操作

awk -F, 'NR>1 {for(i=1;i<=NF;i++) if($i~/[[:alpha:]]/) a[i]++} 
         END  {for(i=1;i in a;i++) print a[i]}' file

即使是百万条记录,也不会超过几分钟。

为了识别指数符号,正则表达式测试将不起作用,您需要恢复到评论中提到的 +0!= 测试。请注意,您不必单独检查空字符串。

这是你想要做的吗?

$ awk -v RS='[\n,]' '(+0) != ' file | sort | uniq -c
      1 T1
      2 T13

以上使用 GNU awk 进行多字符 RS,对于您描述的输入文件,应该在几秒内 运行。如果你没有 GNU awk,你可以这样做:

$ tr ',' $'\n' < file | awk '(+0) != ' | sort | uniq -c
      1 T1
      2 T13

我避免使用 , 作为 FS 的方法,因为那时你必须在循环中使用 $i 这会导致 awk 对每个输入行进行字段拆分准时添加,但您可以尝试一下:

$ awk -F, '{for (i=1;i<=NF;i++) if (($i+0) != $i) print $i}' file | sort | uniq -c
      1 T1
      2 T13

您可以在 awk 中使用由非数字值索引的数组进行唯一计数,但您可能必须在内存中存储大量数据(与使用临时交换文件的 sort 不同如有必要)所以 YMMV 采用这种方法。

我独立解决了。最终为我完成的是下面 URL 中的动态变量创建示例。 http://cfajohnson.com/shell/cus-faq-2.html#Q24

这是我开发的解决方案。注意:我添加了另一列,其中包含一些缺失的数据,以进行更完整的单元测试。我的不一定是最好的解决方案,待定。它在显示的小 csv 上正常工作是我目前所知道的。最好的解决方案还需要 运行 在 40 GB 的 csv 文件上非常快(未显示哈哈)。

$ cat pht.csv
8,T1,
T13,3,T1
T13,,0

$ tail -n +1 pht.csv | awk -F"," '{ for(i=1;i<=NF;i++) { cnt[i]+=(($i+0)!=$i) && ($i!="") } } END { for(i=1;i<=NF;i++) print cnt[i] }'
2
1
1

ps。老实说,我对自己的回答并不满意。他们说过早的优化是万恶之源。好吧,这句格言适用于此。我真的非常想要 gnu parallel,如果可能的话,而不是 for-loop,因为我需要速度。

到目前为止

None 的解决方案并行化。让我们改变一下。

假设您有一个可以串行工作并且可以从管道读取的解决方案:

doit() {
    # This solution gives 5-10 MB/s depending on system
    # Changed so it now also treats '' as zero
    perl -F, -ane 'for(0..$#F) { 
        # Perl has no beautiful way of matching scientific notation
        $s[$_] += $F[$_] !~ /^-?\d*(?:\.\d*)?(?:[eE][+\-]?\d+)?$/m
    }
    END { $" = ","; print "@s\n" }';
}
export -f doit

doit() {
    # Somewhat faster - but regards empty fields as zero
    mawk -F"," '{
        for(i=1;i<=NF;i++) { cnt[i]+=(($i+0)!=$i) && ($i!="") } 
    }
    END { for(i=1;i<NF;i++) printf cnt[i]","; print cnt[NF] }';
}
export -f doit

为了并行化,我们需要将大文件分成块并将每个块传递给串行解决方案:

# This will spawn a process for each core
parallel --pipe-part -a pht.csv --block -1 doit > blocksums

(您需要版本 20161222 或更高版本才能使用'--block -1')。

为了处理 header 我们计算 header 的结果,但我们否定结果:

head -n1 pht.csv | doit | perl -pe 's/(^|,)/-/g' > headersum

现在我们可以简单地总结 headersum 和块和:

cat headersum blocksums |
  perl -F, -ane 'for(0..$#F) { $s[$_] += $F[$_] }
                 END { $" = ",";print "@s\n" }'

或者如果您更喜欢逐行输出:

cat headersum blocksums |
  perl -F, -ane 'for(0..$#F) { $s[$_] += $F[$_] }
                 END { $" = "\n";print "@s\n" }'

最后说明:下面我分享了顺序和并行版本的性能时序,以及最佳可用的单元测试数据集。特别感谢 Ole Tange 在开发代码方面提供的巨大帮助,以便在此应用程序中使用他出色的 gnu 并行命令。

单元测试数据文件,最终版本:

$ cat pht2.csv
COLA99,COLB,COLC,COLD
8,T1,,T1
T13,3,T1,0.03
T13,,-6.350818276405334473e-01,-0.036

列式非数字计数的顺序版本的大数据计时(未显示):

ga@ga-HP-Z820:/mnt/fastssd$ time tail -n +2 train_all.csv | awk -F"," '{ for(i=1; i<=NF; i++){ cnt[i]+=(($i+0)!=$i) && ($i!="") } } END { for(i=1;i<=NF;i++) print cnt[i] }' > /dev/null

real    35m37.121s

列式非数字计数并行版本的大数据计时:

# Correctness - 2 1 1 1 is the correct output.
#
# pht2.csv: 2 1 1 1 :GOOD
# train_all.csv: 
# real  1m14.253s
doit1() {
    perl -F, -ane 'for(0..$#F) { 
        # Perl has no beautiful way of matching scientific notation
        $s[$_] += $F[$_] !~ /^-?\d+(?:\.\d*)?(?:[eE][+\-]?\d+)?$/m
    }
    END { $" = ","; print "@s\n" }';
}

# pht2.csv: 2 1 1 1 :GOOD
# train_all.csv: 
# real  1m59.960s
doit2() {        
    mawk -F"," '{
        for(i=1;i<=NF;i++) { cnt[i]+=(($i+0)!=$i) && ($i!="") } 
    }
    END { for(i=1;i<NF;i++) printf cnt[i]","; print cnt[NF] }';
}

export -f doit1
parallel --pipe-part -a "$fn" --block -1 doit1 > blocksums
if [ $csvheader -eq 1 ] 
then
    head -n1 "$fn" | doit1 | perl -pe 's/(^|,)/-/g' > headersum
    cat headersum blocksums | perl -F, -ane 'for(0..$#F) { $s[$_] += $F[$_] } END { $" = "\n";print "@s\n" }' > "$outfile"
else
    cat blocksums | perl -F, -ane 'for(0..$#F) { $s[$_] += $F[$_] } END { $" = "\n";print "@s\n" }' > "$outfile"
fi

新:这是顺序代码中的按行(而非按列)计数:

tail -n +2 train_all.csv | awk -F"," '{ cnt=0; for(i=1; i<=NF; i++){ cnt+=(($i+0)!=$i) && ($i!="") } print cnt; }' > train_all_cnt_nonnumerics_rowwwise.out.txt

上下文:项目是机器学习。这是数据探索的一部分。 ~25 倍并行加速 在使用三星 950 Pro SSD 存储的双至强 32 虚拟/16 物理核心共享内存主机上看到:(32x60) 秒顺序时间,74 秒并行时间。惊人的!