Linux bash多线程/处理小型工作

我有一个运行一些数据处理命令10K次的脚本.

foreach f (folderName/input*.txt)
  mycmd $f
end

我已经为每个“mycmd $f”定时运行时间为0.25秒.
通过10K运行,它总计超过1小时.
我在16核nehalem上运行它.
如果不在剩余的15个核心上运行,那将是一个巨大的浪费.

我试过&有了睡眠,不知何故,脚本会在3900次迭代时死于警告或错误,见下文.睡眠时间越短,死亡的速度越快.

foreach f (folderName/input*.txt)
  mycmd $f & ; sleep 0.1
end

必须有一个更好的方法.
注意:我更喜欢shell脚本解决方案,让我们不要徘徊在C/C++领域.

谢谢

问候

解决方法:

将文件列表传递给

xargs -n 1 -P 16 mycmd

例如:

echo folderName/input*.txt | xargs -n 1 -P 16 mycmd

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。

相关推荐