如何解决变体调用管道并行化:错误 - “sbatch:未找到提交作业脚本时出错退出代码 127”
我开发了一个用 Snakemake 编写的管道,用于基因组变异调用分析。 我正在尝试 parallelize it now,以便在具有多个节点的 HPC 集群中运行。
我有一个 configuration file (yaml),其中定义了文件的路径。
当我使用命令执行管道时:
shifter --volume=/home/ubuntu/vcall_docker_gatk4_bottle/:/mnt/ \
--image=docker:ray2g/vcall_biodata:1.5.1 \
snakemake --snakefile /mnt/vcall-pipe3_cluster.snake \
-p /mnt/genome/resources_broad_hg38_v0_Homo_sapiens_assembly38.fasta.sa \
-j 24 \
--cluster 'sbatch -p {params.partition} --mem {resources.mem_mb}mb --cpus-per-task {resources.cpus}' \
--forceall
我收到此错误:
Building DAG of jobs...
Using shell: /bin/bash
Provided cluster nodes: 24
Unlimited resources: cpus,mem_mb
Job counts:
count jobs
1 bwa_index
1
[Wed Jan 27 14:30:40 2021]
Job 0: Building index -> /mnt/genome/resources_broad_hg38_v0_Homo_sapiens_assembly38.fasta.sa
bwa index /mnt/genome/resources_broad_hg38_v0_Homo_sapiens_assembly38.fasta
/bin/sh: 1: sbatch: not found
Error submitting jobscript (exit code 127):Shutting down,this might take some time.
有人可以帮我吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。