如何解决如何开发语音控制的 Android 应用架构?
目标:为 Android 应用提供语音命令支持,以便当前使用触摸(使用按钮和导航的物理交互)执行的所有操作都可以使用 ASR(自动语音识别)执行。 >
查询: 现在,我很擅长识别命令并找到操作意图的部分。但是,我使用的是 MVC 或 MVP 模式,并且 UI 与控制器或演示者连接,并且只有当我在特定屏幕上时才能执行操作 例如:假设我们在应用程序中有 10 个屏幕(活动/片段)
Screen 1 -> Presenter 1/ Controller 1
Screen 2 -> Presenter 2/ Controller 2
.
.
.
Screen 10 -> Presenter 10/ Controller 10
现在当任何语音命令被触发并且我在屏幕 1 上时,我只能从演示者 1/控制器 1 调用业务逻辑。如果触发的命令要求在屏幕 10 上执行操作怎么办。在这种情况下,我将无法从 Presenter 10/Controller 10 调用业务逻辑。
另外,如果应用程序在后台呢?在重用业务逻辑的应用中,如何设计业务逻辑既支持触摸模式又支持语音模式?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。