He visto mucha información sobre cómo transmitir video desde el servidor a un dispositivo Android, pero no mucho sobre el otro lado, ala Qik. ¿Podría alguien señalarme en la dirección correcta aquí, o darme algún consejo sobre cómo abordar esto?
He visto mucha información sobre cómo transmitir video desde el servidor a un dispositivo Android, pero no mucho sobre el otro lado, ala Qik. ¿Podría alguien señalarme en la dirección correcta aquí, o darme algún consejo sobre cómo abordar esto?
Respuestas:
He alojado un proyecto de código abierto para habilitar el teléfono Android a la cámara IP:
http://code.google.com/p/ipcamera-for-android
Los datos de video sin procesar se obtienen de LocalSocket, y el MDAT MOOV de MP4 se verificó primero antes de la transmisión. El video en vivo está empaquetado en formato FLV y se puede reproducir a través del reproductor de video Flash con un servidor web incorporado :)
ndk-build
. Para obtener más información, lea la documentación de NDK .
Me tomó algo de tiempo, pero finalmente logré hacer una aplicación que haga exactamente eso. Consulte la página de códigos de Google si está interesado: http://code.google.com/p/spydroid-ipcamera/ Agregué muchos comentarios en mi código (principalmente, mira CameraStreamer.java), por lo que debería ser bastante autoexplicativo. La parte difícil fue comprender el RFC 3984 e implementar un algoritmo adecuado para el proceso de empaquetado. (Este algoritmo en realidad convierte la transmisión mpeg4 / h.264 producida por MediaRecorder en una buena transmisión rtp, de acuerdo con el rfc)
Adiós
Estoy investigando esto también, y aunque no tengo una buena solución para ti, logré desenterrar el código de video de SIPDroid:
http://code.google.com/p/sipdroid/source/browse/trunk/src/org/sipdroid/sipua/ui/VideoCamera.java
Creé un SDK de código abierto llamado Kickflip para hacer que la transmisión de video desde Android sea una experiencia indolora.
El SDK demuestra el uso de la API MediaCodec de Android 4.3 para dirigir los paquetes del codificador de hardware del dispositivo directamente a FFmpeg para RTMP (con librtmp) o transmisión HLS de H.264 / AAC. También muestra los efectos OpenGL en tiempo real (titulación, croma, fundidos) y grabación en segundo plano.
Gracias así, y especialmente, fadden .
Aquí hay un artículo completo sobre la transmisión de video de la cámara de Android a una página web.
Android Streaming Live Camera Video a la página web
Puedo enviar el video de la cámara en vivo desde el móvil a mi servidor. Con este enlace, vea el enlace
Consulte el enlace anterior. Hay una aplicación de muestra en ese enlace. Solo necesita configurar su url de servicio en RecordActivity.class.
Ejemplo como: ffmpeg_link = "rtmp: // la dirección del servidor: 1935 / live / venkat";
podemos enviar videos de tipo H263 y H264 usando ese enlace.
Esta no es una respuesta completa, pero webRTC puede ser lo que estás buscando. Aquí hay algunos ejemplos rápidos de webRTC en acción: http://www.webrtc.org/reference-apps
Si quieres un código específico de Android, ¡existe! http://www.webrtc.org/native-code/android
Consultar la biblioteca de Yasea
Yasea es un cliente de transmisión de Android. Codifica datos YUV y PCM de la cámara y el micrófono a H.264 / AAC, se encapsula en FLV y se transmite a través de RTMP.
Característica:
Mux (mi empresa) tiene una aplicación de Android de código abierto que transmite RTMP a un servidor, incluida la configuración de la cámara y las interacciones del usuario. Está diseñado para transmitir a la API de transmisión en vivo de Mux, pero puede transmitir fácilmente a cualquier punto de entrada RTMP.
Dependiendo de su presupuesto, puede usar una cámara Raspberry Pi que puede enviar imágenes a un servidor. Agrego aquí dos tutoriales donde puedes encontrar muchos más detalles:
Este tutorial le muestra cómo usar una cámara Raspberry Pi y mostrar imágenes en un dispositivo Android
Este es el segundo tutorial donde puede encontrar una serie de tutoriales sobre la transmisión de video en tiempo real entre la cámara y el dispositivo Android