没有分页符的 UniQuery LIST
UniQuery LIST without page breaks
这应该很简单,但就是行不通。我有一个记录列表,我想在终端中显示,除了记录键列表之外没有任何内容。没有页眉、页面间隙等。问题是我无法摆脱不断破坏我的列表的页面间隙。
SORT INVENTORY HDR.SUPP COL.HDR.SUPP NO.PAGE NO.SPLIT COUNT.SUP
您需要更改学期设置,请忽略 'type' 选项。
将 TERM 'B' (HELP TERM) 增加到您要返回的记录总数。
例如,如果报告包含 100 条记录,您输入:
: TERM [获取默认设置]
:第 80 学期,100,132,60
: 运行 LIST/SORT
:学期 A、B、C、D [使用第一个学期的值]
您需要 运行 在 运行 设置您的 select 之前使用术语命令。
以防万一你试图获取这个裸键列表,以便你可以在其他地方copy/paste它(比如Excel),我会抛出另一个可能有用的选项并保存一些滚动:
:sort INVENTORY TO DELIM 9 /tmp/inventory.txt
将 运行 您的命令并将输出(制表符分隔,尽管这与一个字段无关)转储到 tmp 目录中的一个文件。
:UDT.OPTIONS 91 ON
如果您要转储日期、数字或任何需要输出格式的内容,这将很有帮助。
UDT Options Command reference 描述:
UDT.OPTIONS 91 U_LIST_TO_CONV
affects saved queries on
data that is defined in the dictionary with a conversion code. For
example, when a date is defined as D4, the internal date is 9611,
which the conversion code translates as 04/24/94. UniData does not
convert the data before it saves UniQuery results to an ASCII file.
With UDT.OPTIONS 91, you can force the conversion before UniData saves
the ASCII file.
这应该很简单,但就是行不通。我有一个记录列表,我想在终端中显示,除了记录键列表之外没有任何内容。没有页眉、页面间隙等。问题是我无法摆脱不断破坏我的列表的页面间隙。
SORT INVENTORY HDR.SUPP COL.HDR.SUPP NO.PAGE NO.SPLIT COUNT.SUP
您需要更改学期设置,请忽略 'type' 选项。 将 TERM 'B' (HELP TERM) 增加到您要返回的记录总数。
例如,如果报告包含 100 条记录,您输入:
: TERM [获取默认设置]
:第 80 学期,100,132,60
: 运行 LIST/SORT
:学期 A、B、C、D [使用第一个学期的值]
您需要 运行 在 运行 设置您的 select 之前使用术语命令。
以防万一你试图获取这个裸键列表,以便你可以在其他地方copy/paste它(比如Excel),我会抛出另一个可能有用的选项并保存一些滚动:
:sort INVENTORY TO DELIM 9 /tmp/inventory.txt
将 运行 您的命令并将输出(制表符分隔,尽管这与一个字段无关)转储到 tmp 目录中的一个文件。
:UDT.OPTIONS 91 ON
如果您要转储日期、数字或任何需要输出格式的内容,这将很有帮助。
UDT Options Command reference 描述:
UDT.OPTIONS 91 U_LIST_TO_CONV affects saved queries on data that is defined in the dictionary with a conversion code. For example, when a date is defined as D4, the internal date is 9611, which the conversion code translates as 04/24/94. UniData does not convert the data before it saves UniQuery results to an ASCII file. With UDT.OPTIONS 91, you can force the conversion before UniData saves the ASCII file.