我已经看到了很多关于如何将视频从服务器流到android设备的信息,但关于另一种方式(ala Qik)的信息却不多。谁能给我指点一下方向,或者给我一些建议?
当前回答
我主持了一个开源项目,使Android手机IP摄像头:
http://code.google.com/p/ipcamera-for-android
原始视频数据从LocalSocket获取,在流媒体之前首先检查MP4的MDAT MOOV。现场视频包装在FLV格式,并可以通过Flash视频播放器与内置的web服务器播放:)
其他回答
我也在研究这个问题,虽然我没有一个很好的解决方案,但我确实设法挖出了SIPDroid的视频代码:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
这是完整的文章关于流媒体android摄像头视频到一个网页。
Android流媒体实时摄像头视频到网页
在android应用程序上使用libstreaming 服务器端使用Wowza Media Engine对视频流进行解码 最后使用jWplayer在网页上播放视频。
我主持了一个开源项目,使Android手机IP摄像头:
http://code.google.com/p/ipcamera-for-android
原始视频数据从LocalSocket获取,在流媒体之前首先检查MP4的MDAT MOOV。现场视频包装在FLV格式,并可以通过Flash视频播放器与内置的web服务器播放:)
我构建了一个名为Kickflip的开源SDK,让Android上的流媒体视频成为一种无痛的体验。
SDK演示了如何使用Android 4.3的MediaCodec API将设备硬件编码器的数据包直接定向到FFmpeg,用于H.264 / AAC的RTMP(使用librtmp)或HLS流。它还演示了实时OpenGL效果(标题,色度键,淡出)和背景记录。
非常感谢,尤其是fadden。
Took me some time, but I finally manage do make an app that does just that. Check out the google code page if you're interested: http://code.google.com/p/spydroid-ipcamera/ I added loads of comments in my code (mainly, look at CameraStreamer.java), so it should be pretty self-explanatory. The hard part was actually to understand the RFC 3984 and implement a proper algorithm for the packetization process. (This algorithm actually turns the mpeg4/h.264 stream produced by the MediaRecorder into a nice rtp stream, according to the rfc)
Bye
推荐文章
- Android Studio, logcat在应用程序关闭后清理
- 在android中从上下文获取活动
- 无法解析主机"<URL here>"没有与主机名关联的地址
- getActivity()在Fragment函数中返回null
- 按钮背景是透明的
- 在Mac OS X上哪里安装Android SDK ?
- 我如何获得图像缩放功能?
- 在Android应用程序中显示当前时间和日期
- BottomSheetDialogFragment的圆角
- 在应用程序启动时出现“无法获得BatchedBridge,请确保您的bundle被正确打包”的错误
- 我如何改变默认对话框按钮的文本颜色在安卓5
- 更改单选按钮的圆圈颜色
- 最快的方法提取帧使用ffmpeg?
- 如何在android中复制一个文件?
- adb找不到我的设备/手机(MacOS X)