En utilisant getUserMedia je peux capturer le flux vidéo de la webcam/caméra du client. Et en utilisant la balise video
, je peux l'afficher sur le navigateur du client. Code:
<video autoplay></video>
<script type="text/javascript">
window.URL = window.URL || window.webkitURL;
navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia;
var video = $('video')[0];
var failed = function(e) {
console.log('Denied!', e);
};
if( navigator.getUserMedia ) {
navigator.getUserMedia( {video: true, audio: true}, function( stream ) {
video.src = window.URL.createObjectURL(stream);
}, failed
)
} else {
console.log( 'Not supported!' );
}
</script>
Est-il maintenant possible d'envoyer ce flux vidéo, soit en tant que flux en temps réel, soit après que l'utilisateur a terminé l'enregistrement et décidé de le télécharger, sur un serveur?
J'ai trouvé quelques exemples de:
MediaStreamRecorder est une API WebRTC pour l'enregistrement de flux getUserMedia (). Il permet aux applications Web de créer un fichier à partir d'une session audio/vidéo en direct.
<video autoplay></video>
<script language="javascript" type="text/javascript">
function onVideoFail(e) {
console.log('webcam fail!', e);
};
function hasGetUserMedia() {
// Note: Opera is unprefixed.
return !!(navigator.getUserMedia || navigator.webkitGetUserMedia ||
navigator.mozGetUserMedia || navigator.msGetUserMedia);
}
if (hasGetUserMedia()) {
// Good to go!
} else {
alert('getUserMedia() is not supported in your browser');
}
window.URL = window.URL || window.webkitURL;
navigator.getUserMedia = navigator.getUserMedia ||
navigator.webkitGetUserMedia ||
navigator.mozGetUserMedia ||
navigator.msGetUserMedia;
var video = document.querySelector('video');
var streamRecorder;
var webcamstream;
if (navigator.getUserMedia) {
navigator.getUserMedia({audio: true, video: true}, function(stream) {
video.src = window.URL.createObjectURL(stream);
webcamstream = stream;
// streamrecorder = webcamstream.record();
}, onVideoFail);
} else {
alert ('failed');
}
function startRecording() {
streamRecorder = webcamstream.record();
setTimeout(stopRecording, 10000);
}
function stopRecording() {
streamRecorder.getRecordedData(postVideoToServer);
}
function postVideoToServer(videoblob) {
var data = {};
data.video = videoblob;
data.metadata = 'test metadata';
data.action = "upload_video";
jQuery.post("http://www.kongraju.in/uploadvideo.php", data, onUploadSuccess);
}
function onUploadSuccess() {
alert ('video uploaded');
}
</script>
<div id="webcamcontrols">
<button class="recordbutton" onclick="startRecording();">RECORD</button>
</div>
Spécifications:
http://www.w3.org/TR/mediastream-recording/
vous pouvez envoyer un fichier enregistré au serveur.
Jetez un œil à cet article: http://www.smartjava.org/content/face-detection-using-html5-javascript-webrtc-websockets-jetty-and-javacvopencv
Il montre une utilisation de Webrtc :
Ces API devraient permettre de créer des applications pouvant être exécutées dans un navigateur, ne nécessitant aucun téléchargement ou plug-in supplémentaire, qui permettent la communication entre les parties à l'aide de communications audio, vidéo et supplémentaires en temps réel, sans avoir à utiliser des serveurs intermédiaires (sauf si cela est nécessaire pour la traversée du pare-feu, ou pour fournir des services intermédiaires).