如何解决计算丢帧率的问题
我在这方面很难理解并需要确认。我正在计算由客户端和服务器组成的分布式深度神经网络应用程序的设备和网络处理能力影响的每秒丢帧率百分比。
我有以下伪代码来计算我的应用程序的丢帧率。
客户
TIME_DELTA=1
before_sent = frame_requests
time.sleep(TIME_DELTA)
after_sent = frame_requests
client-side=(after_sent - before_sent) / TIME_DELTA
服务器
TIME_DELTA=1
before_received = frame_requests
time.sleep(TIME_DELTA)
after_received = frame_requests
server-side=(after_received - before_received) / TIME_DELTA
丢帧率
Frame-drop-rate=client-side - serverside
我需要确认这是计算它的正确方法。非常感谢您的建议和想法,以指导我朝着正确的方向前进。
解决方法
Frame_drop_rate=client_side - serverside
将是每秒丢弃的帧数。
Frame_drop_rate= 1 - (client_side / serverside)
将是 每一 秒丢弃的帧数速率。
术语“每秒速率”是指丢帧随时间的变化。所以无论情况是变得更糟还是更好,而不是它有多好或多坏。
另外:变量名中没有连字符。并检查变量拼写 serverside
/server-side
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。