分别重定向和重组stderr / stdout,而不会丢失顺序
我想执行一个命令,并想重定向stderr和stdout,如下所示:
stderr和stdout->仅应在保持顺序的同时写入logs.log文件
stderr->应该打印到SCREEN并也写入errors.log
到目前为止,我可以将它们重定向到屏幕和文件log.txt,如下所示:
command 2>&1 | tee logs.log
但是以上不是我所需要的。
为了更清楚地说明结果是什么。
执行命令后,我只需要在屏幕上看到stderr的结果,我需要在stderr中有一个名为errors.log的文件,而在目录中需要有stdout和stderr两者都在其中的结果的另一个名为logs.log的文件。创建它们的原始顺序。
回答:
仅在直接写入同一文件(在O_APPEND模式下)时保留顺序。一旦您将类似的内容tee
放入一个过程而不是另一个过程中,则排序保证就会消失,并且如果不保留有关以什么顺序调用了哪些系统调用的信息,就无法检索到排序保证。
那么,这种黑客将是什么样子?它可能看起来像这样:
# eat our initialization time *before* we start the background processsudo sysdig-probe-loader
# now, start monitoring syscalls made by children of this shell that write to fd 1 or 2
# ...funnel content into our logs.log file
sudo sysdig -s 32768 -b -p '%evt.buffer' \
"proc.apid=$$ and evt.type=write and (fd.num=1 or fd.num=2)" \
> >(base64 -i -d >logs.log) \
& sysdig_pid=$!
# Run your-program, with stderr going both to console and to errors.log
./your-program >/dev/null 2> >(tee errors.log)
也就是说,这仍然是丑陋的骇客:它只捕获直接写入FD 1和FD
2的消息,并且不会跟踪可能发生的任何进一步重定向。(可以通过执行对FIFO的写操作,并使用sysdig跟踪对这些FIFO的写操作来改善这一点;这种方式fdup()
和类似的操作将按预期工作;但是上述内容足以证明这一概念)。
明确进行 单独处理 __
在这里,我们演示如何使用此方法仅对stderr着色,并让stdout保持不变-通过告诉sysdig
生成JSON流作为输出,然后对其进行迭代:
exec {colorizer_fd}> >( jq --unbuffered --arg startColor "$(tput setaf 1)" --arg endColor "$(tput sgr0)" -r '
if .["fd.filename"] == "stdout" then
("STDOUT: " + .["evt.buffer"])
else
("STDERR: " + $startColor + .["evt.buffer"] + $endColor)
end
'
)
sudo sysdig -s 32768 -j -p '%fd.filename %evt.buffer' \
"proc.apid=$$ and evt.type=write and proc.name != jq and (fd.num=1 or fd.num=2)" \
>&$colorizer_fd \
& sysdig_pid=$!
# Run your-program, with stdout and stderr going to two separately-named destinations
./your-program >stdout 2>stderr
因为我们要取消输出文件名(stdout
和stderr
),所以对于上面的代码来说,这些文件名必须是常量-可以使用所需的任何临时目录。
更新程序以支持其本国语言(Java中的Log4j,Python日志记录模块等)可用的任何日志记录基础结构,以允许对其日志记录进行显式配置。
以上是 分别重定向和重组stderr / stdout,而不会丢失顺序 的全部内容, 来源链接: utcz.com/qa/398178.html