要解析子进程的stdout,如果直到现在使用check_output,这似乎不起作用,因为进程仍在运行并且不会产生确定的输出.
>>> from subprocess import check_output >>> out = check_output(["tail","-f","/tmp/file"]) #(waiting for tail to finish)
应该可以为子进程使用线程,以便可以处理多个子进程的输出(例如tail -f / tmp / file1,tail -f / tmp / file2).
如何启动子进程,定期检查和处理其标准输出并最终以多线程友好的方式停止子进程? python脚本在Linux系统上运行.
目标不是连续读取文件,tail命令是一个示例,因为它的行为与使用的实际命令完全相同.
编辑:我没想到这个,文件不存在. check_output现在只是等待进程完成.
edit2:另一种方法,使用Popen和PIPE似乎会导致同样的问题.它等待尾巴完成.
>>> from subprocess import Popen,PIPE,STDOUT >>> cmd = 'tail -f /tmp/file' >>> p = Popen(cmd,shell=True,stdin=PIPE,stdout=PIPE,stderr=STDOUT,close_fds=True) >>> output = p.stdout.read() #(waiting for tail to finish)
解决方法
from subprocess import Popen,STDOUT p = Popen(["tail","/tmp/file"],stderr=STDOUT) for line in p.stdout: print(line)
我删除了shell = True和close_fds = True参数.第一个是不必要的,有潜在危险,而第二个是默认值.
请记住,文件对象可以在Python中通过它们的行进行迭代. for循环将一直运行,直到尾部死亡,但它将处理每条线,而不是读取,这将阻塞直到尾部死亡.
如果我在/ tmp / file中创建一个空文件,启动该程序并开始使用另一个shell将行回显到文件中,程序将回显这些行.您可能应该用更有用的东西替换print.
以下是我在启动上述代码后输入的命令示例:
命令行
$echo a > /tmp/file $echo b > /tmp/file $echo c >> /tmp/file
程序输出(来自不同shell中的Python)
b'a\n' b'tail: /tmp/file: file truncated\n' b'b\n' b'c\n'
如果您希望主程序在响应tail的输出时响应,请在单独的线程中启动循环.您应该将此线程设置为守护程序,以便即使尾部未完成也不会阻止程序退出.您可以让线程打开子流程,也可以将标准输出传递给它.我更喜欢后一种方法,因为它可以让你在主线程中有更多的控制权:
def deal_with_stdout(): for line in p.stdout: print(line) from subprocess import Popen,STDOUT from threading import Thread p = Popen(["tail",stderr=STDOUT) t = Thread(target=deal_with_stdout,daemon=True) t.start() t.join()
这里的代码几乎相同,添加了一个新线程.我在最后添加了一个join(),所以程序作为一个例子表现得很好(join在返回之前等待线程死掉).您可能希望用通常运行的任何处理代码替换它.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。