微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

python中的并发-音频频谱分析

如何解决python中的并发-音频频谱分析

我正在编写一个程序来绘制输入音频的实时频谱图。为此,我想到了几个步骤:首先,以 .wav 文件的形式记录一定数量的毫秒音频,其次,对该文件运行 FFT,第三,将此 FFT 绘制在频谱图作为单个数据实例(因为 FFT 与时间无关)。

为了使频谱图自然流动(即没有可观察到的数据跳跃),我必须保持记录长度很小 - 我想可能是 5-10 毫秒 - 但我想听听关于这些数字的一些反馈。

我最担心的是,当第 2 步和第 3 步在 .wav 文件上运行时(FFT 和在频谱图上绘图),在程序处理数据而不是记录数据时会丢失大量音频-特别是如果录制时间太短。这是一个有效的担忧吗?我应该记录多少毫秒的下限是什么,以确保在 FFT 计算过程中丢失的数据量可以忽略不计?

我应该研究 Python 中的并发吗?例如,我可以让一个线程记录音频,另一个线程同时处理它(也许第三个线程将它绘制在频谱图上)?还是这太过分了?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。