根据行内容拆分一个巨大的文本文件

splitting a huge text file based on line content

帮帮我,我真的迷路了。 我有一个很大的文本文件,里面全是 link,我正试图根据 link 所属的网站将它们分开。我试图用 csplit 命令来完成它,但我不太确定我会怎么做,因为它取决于文本内容。

文本示例:

www.unix.com/man-page/opensolaris/1/csplit/&hl=en
www.unix.com/shell-programming-and-scripting/126539-csplit-help.html/RK=0/RS=iGOr1SINnK126qZciYPZtBHpEmg-
www.w3cschool.cc/linux/linux-comm-csplit.html
www.linuxdevcenter.com/cmd/cmd.csp?path=c/csplit+"csplit"&hl=en&ct=clnk

所以在这个例子中,前两个 link 将在一个文件中,剩下的 2 个将分别在一个文件中。 这将如何工作?我真的不知道这是否可能。 (新手程序员)

尝试:

awk 'BEGIN{FS="/"} {print > }' [your file name]

输出:

cat www.unix.com 
www.unix.com/man-page/opensolaris/1/csplit/&hl=en
www.unix.com/shell-programming-and-scripting/126539-csplit-help.html/RK=0/RS=iGOr1SINnK126qZciYPZtBHpEmg-
cat www.linuxdevcenter.com 
www.linuxdevcenter.com/cmd/cmd.csp?path=c/csplit+"csplit"&hl=en&ct=clnk
cat www.w3cschool.cc 
www.w3cschool.cc/linux/linux-comm-csplit.html

{print > } 将根据 将输出重定向到单独的文件,在本例中为域名。