要在 android 设备中采集声音(已经通过权限申请的情况下),然后实时采集音频流向 web 端输出,服务端还能进行实时播放(如果有客户端连接拉流的话),我是第一次弄声音实时采集。我有些问题。
我在 android 用 AudioRecord 创建实例进行录音,在线程中用 AudioRecord 实例调用 read 方法,然后通过 WebSocket(OkHttp 下的)输送到 Web 端( Web 端是 Java 的服务端),在 Web 端我用的是注解 @ServerEndpoint 下的 WebSocket,收到从 android 输出的音频流的 byte 数组类型的数据后,到这一步就不知怎么做了,实时播放,也就是直播中的拉流不知道怎么弄了。
浏览器端拉流是怎样的,是在用 js 创建 WebSocket 客户端实例拉流么,直接从服务端拉接收到的 byte 数组?,用什么 html 组件播放?
android 端用拉流播放是怎么处理的么?用 WebSocket 拉流么,直接从服务端拉 byte 数组么?还是要处理什么,还是用其他的网络协议,比如 UDP ?然后播放用哪个控件来弄?
当然以上这是在局域网环境下,
除了用 WebSocket 推流,还有哪些协议比较合适做推流,以及拉流,尤其是互联网环境下?
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.